Catégorie : Numérique

  • La publication scientifique : Le temps des dérives

    Pascal Guitton nous a expliqué les principes de la publication scientifique et son passage au numérique dans un premier article. Il aborde maintenant pour nous des dérives récentes du système. Il nous parle d’un futur souhaitable fait de publications ouvertes et d’épi-journaux. Serge Abiteboul et Thierry Viéville.

    Le numérique a contribué à améliorer le travail des chercheurs en enrichissant le contenu des publications numériques, en favorisant la recherche d’un article dans la masse gigantesque de documents disponibles, et en optimisant les modalités et le temps d’accès à l’information. Malheureusement, dans le même temps, ces évolutions se sont accompagnées de dérives qui pourrissent la vie des scientifiques.

    Dérive 1 : Le spam dans l’édition scientifique

    ©Hormel à l’origine le mot SPAM* désignait de la « fake meat »

    Certains ont cru détecter la poule aux œufs d’or dans l’évolution numérique de l’édition scientifique. Sont apparues de nulle part des sociétés « expertes» de la création de revues (et de conférences) traitant de tous les sujets et ouvertes à tous. Concrètement, un chercheur reçoit très souvent (plusieurs fois par mois) des messages d’invitation à soumettre ses travaux dans des revues ou des conférences « SPAM (*) » ou alors à participer à leurs comités de lecture qui n’en possèdent que le nom. Certains se laissent abuser, le plus souvent par négligence en n’étant pas assez critique sur la qualité de la revue, parfois par malhonnêteté en espérant augmenter leur visibilité.

    L’évaluation par les pairs, comme tout processus humain, peut faillir et conduire à des publications erronées, voire totalement loufoques. Il ne s’agit pourtant là que de dysfonctionnements non représentatifs de la qualité générale du travail de publication. Une évaluation un tant soit peu sérieuse détectera ce type de publication. Il convient toutefois pour les scientifiques de rester vigilants devant l’augmentation récente de ce nombre de situations qui est directement reliée à l’augmentation du nombre de revues et de conférences « parasites ».

    Dérive 2 : L’évaluation mal réalisée

    guitton2-2
    ©Binaire

    Au delà de ces dérives mercantiles, le principal problème résulte de la culture de l’évaluation à outrance qui a progressivement envahi le monde de l’enseignement et la recherche que ce soit au niveau des individus (recrutement, promotions), des laboratoires (reconnaissance, financements) ou des universités/écoles/organismes (visibilité, attractivité).

    Entendons-nous bien, ce n’est pas la nécessité d’une évaluation qui est ici remise en cause mais les façons dont elle est trop souvent mise en œuvre. Illustration : dans un premier temps, le nombre de publications d’un chercheur est devenue la référence principale de jugement ; bien que simple et naturel, un comptage brutal ne tient pas compte de leur qualité et de leur ampleur, produisant des « spécialistes » de la production à la chaîne d’articles sans réel impact. (Il est quasiment impossible de s’accorder sur le nombre des articles jamais cités par d’autres scientifiques mais il est élevé). On observe aussi des équipes qui alignent leurs thématiques de recherche sur les sujets « chauds » des revues et/ou synchronisent leurs activités sur le calendrier des conférences importantes, délaissant leur libre arbitre et le propre pilotage de leur recherche.

    Dans un deuxième temps, sont apparus des indicateurs numériques sensés remédier à ce problème, en calculant des scores basés sur le nombre de citations que recueille un article. L’idée a d’autant plus de sens que les explosions conjointes au niveau mondial des nombres de chercheurs et de revues ont conduit à une inflation jamais connue jusque là de la production d’articles scientifiques ; s’interroger sur l’impact réel d’une publication est légitime et a suscité de nombreuses méthodes dont les plus connues sont la famille des h-index apparue en 2005 pour les articles et les facteurs d’impact en 2006 pour les revues.

    Malheureusement, cette bonne idée souffre de nombreux défauts : tout d’abord, le mélange incroyable entre citations positives (pour mettre en exergue un résultat) et négatives (pour critiquer tout ou partie du travail) ! Ensuite, la taille des communautés qui est le plus souvent oubliée dans l’exploitation de ces indicateurs ; comment raisonnablement comparer des index si le nombre de chercheurs d’un domaine est très différent d’un autre ; pensons par exemple à une thématique émergente qui ne concerne initialement qu’un petit cercle : faut-il l’ignorer parce qu’elle arrive loin dans les classements ? Ce n’est surement pas de cette façon que nous produirons les innovations tant attendues. Par ailleurs, les bases de données utilisées pour calculer ces taux de citation ne couvrent qu’une partie de la littérature scientifique ; en informatique par exemple, moins de la moitié de la production est référencée dans les plus célèbres d’entre elles. Et puis, des esprits malintentionnés ont dévoyé cette bonne idée en mettant en œuvre des pratiques frauduleuses : autocitations abusives, « découpage » artificiel d’un résultat en plusieurs articles pour augmenter le nombre de publications et de citations, cercles de citations réciproques entre auteurs complices, « recommandation appuyée » de certains éditeurs de citer des articles de leur propre revue, etc.

    En résumé, ces indicateurs ne devraient fournir qu’un complément d’information à une évaluation plus qualitative et donc plus fine. Malheureusement, une telle analyse nécessite plus de temps et aussi de mobiliser de vrais experts. Il est infiniment plus « facile » de la remplacer par l’examen de quelques chiffres dans un tableur sensés représenter une activité scientifique dont il est bien entendu impossible de réduire ainsi la richesse et la diversité. On peut faire l’analogie avec la qualité d’un livre qui ne serait jugée qu’à travers son nombre de lecteurs ou celle d’une chaîne de télévision qu’à travers son Audimat.

    Terminons en rappelant encore une fois qu’il ne s’agit pas d’ignorer ces indicateurs mais bien de les exploiter pour ce qu’ils sont et de les associer systématiquement à des analyses qualitatives réalisées par des experts.

    Dérive 3 : le modèle économique

    guitton2-3
    ©Binaire

    Initialement gérée par les sociétés savantes, l’édition scientifique a progressivement été envahie par une grande diversité d’éditeurs privés. Comme beaucoup d’autres secteurs économiques, elle a connu une forte concentration autour de quelques grands acteurs : Elsevier, Springer, Wiley etc. Depuis sa création, ses ressources provenaient des abonnements que lui payaient les structures académiques pour recevoir les exemplaires des revues souhaitées. Ce système a fonctionné pendant longtemps mais connaît de très grandes difficultés depuis quelques années à cause des augmentations de prix constantes imposées sans réelle justification par ces acteurs dominants. La combinaison de ces hausses avec les baisses que connaissent les budgets de la recherche un peu partout dans le monde a produit un mélange détonnant qui est en train d’exploser. L’attitude intransigeante de ces grands acteurs qui refusent de prendre en compte ces réductions budgétaires et, au contraire, augmentent leurs tarifs et leurs profits est assez surprenante et le changement de modèle économique induit par la transition achat d’exemplaires papier-droit d’accès à des ressources en ligne ne suffit pas à l’expliquer.

    Face à cet abus de position dominante, les chercheurs s’organisent pour tenter de résister. En France par exemple, le monde académique s’est mis d’accord pour, d’une part, échanger des informations sur les pratiques respectives vis à vis des éditeurs, et d’autre part, présenter un front uni lors de négociations collectives face à ces sociétés. Certaines communautés, notamment mathématiciennes, françaises et étrangères, se sont mobilisées pour lutter contre ces monopoles en appelant au boycott, non seulement des abonnements, mais également de l’ensemble des processus éditoriaux. En effet, il faut rappeler que sans l’implication primordiale des chercheurs – qui font la recherche, rédigent des articles et les expertisent – offerte gratuitement à ces sociétés privées, elles n’existeraient plus.

    Début de solution : l’accès ouvert

    Le logo Open Access

    C’est notamment pour lutter contre ces dérives en offrant un modèle alternatif que des solutions de type libre accès (Open Access) aux ressources documentaires ont été développées. Initialement, il s’agissait d’offrir un accès gratuit aux publications stockées sur des sites de dépôts gérés par des organisations scientifiques. En France, c’est l’archive ouverte HAL qui joue depuis 2001 un rôle central dans cette démarche en liaison étroite avec les autres grandes archives internationales comme ArXiv créée en 1991. Outre la maîtrise des coûts, l’accès ouvert renforce la visibilité des articles déposés sur une archive ouverte comme le montre plusieurs études.

    Ce mouvement en faveur des archives ouvertes est soutenu par de nombreux pays (Canada, Chine, Etats-unis, Grande Bretagne…). Récemment, l’Union européenne et en particulier la France ont pris des positions encore plus nettes en faveur du libre accès. Par exemple, depuis 2013, la direction d’Inria a rendu obligatoire le dépôt des publications sur HAL et seules ces publications sont communiquées aux experts lors des évaluations ou affichées sur le site web de l’Institut.

    Les grands éditeurs ont très vite compris le danger pour leurs profits que représentaient ces initiatives ; ils ont donc commencé par adopter des politiques de dénigrement systématique en les moquant, puis, devant l’échec relatif de cette posture, ils ont transformé ce risque en opportunité en se présentant comme les chantres, voire même les inventeurs, de l’accès ouvert et l’expression Open Access fleurit aujourd’hui sur la plupart des sites de ces éditeurs.

    Il convient de préciser qu’il existe deux approches principales d’accès ouvert :

    • la voie verte (green access) où le dépôt par l’auteur et l’accès par le lecteur sont gratuits ;
    • la voie dorée (gold access), dite aussi auteur-payeur, où l’auteur finance la publication (de quelques centaines à quelques milliers d’euros) qui est ensuite accessible en ligne gratuitement.

    Le green est aujourd’hui la solution la plus vertueuse mais n’oublions pas que la gratuité n’est qu’apparente car ces infrastructures et ces services représentent un coût non négligeable supporté pour HAL principalement par le CNRS à travers le CCSD. Par ailleurs, certains éditeurs imposent un délai avant le dépôt d’une publication sur une archive ouverte publique (par exemple, 6 mois après sa parution). Outre la légalité parfois discutable de cet embargo, il faut rappeler qu’il est possible de déposer des versions dites preprint, sur des archives ouvertes comme HAL, pour remédier temporairement à ce problème.

    Le gold quant à lui présente l’avantage de déplacer en amont et de rendre explicite le coût d’une publication. Cependant, il comporte des inconvénients majeurs, principalement le coût souvent élevé et donc le risque d’accroitre le fossé entre les établissements, voire pays, « riches » et « pauvres ».

    Malheureusement, la qualité et la puissance économique du lobbying des grands éditeurs ont réussi à pénétrer beaucoup de cercles de décision nationaux comme européens et à faire confondre l’open access et le gold. Nous entendons et lisons donc des charges contre le libre accès qui n’évoquent que le modèle auteur-payeur et contre lesquelles il est indispensable de faire preuve de pédagogie pour démonter l’artifice.

    Encore mieux : les epi-journaux

    Le logo http://episciences.org

    Au delà du dépôt des articles, il convient de s’interroger sur leur éditorialisation si l’on souhaite proposer une alternative de qualité, et par conséquent crédible, aux revues commerciales. La notion d’epi-journal a donc vu le jour ; il s’agit de construire « au dessus » d’une archive ouverte des structures éditoriales de type revues ou actes. La démarche est tout à fait similaire à celle de l’édition classique : diffusion des règles éditoriales, dépôt des propositions sur un site dédié, expertise par un comité de lecture dont la composition est publique, annonce des résultats aux auteurs, mise en ligne des articles retenus après réalisation des corrections demandées et en respectant une charte graphique, référencement par les moteurs de recherche après saisie des méta-données associées.

    Basée sur le projet Episciences, développé et hébergé par le CCSD, il existe dans le domaine Informatique et Mathématiques appliquées une structure qui propose des services pour gérer des épi-journaux :

    • les articles sont déposés dans une archive ouverte (HAL, ArXiv, CWI, etc.),
    • après lecture et analyse par les éditeurs, les articles soumis reçoivent la validation du comité de lecture,
    • ils sont alors publiés en ligne et identifiés exactement comme dans une revue classique (ISSN, DOI, etc.),
    • ils sont référencés par les principales plateformes (DOAJ, DBLP, Google scholar…),
    • l’epi-journal respecte des règles éthiques,
    • il assure un travail de visibilité à travers les conférences et les réseaux sociaux.

    Vous pouvez par exemple consulter la revue JDMDH qui vient de démarrer sur ce principe.

    Et en conclusion

    Ces epi-journaux sont la dernière évolution importante dans le domaine de la publication scientifique. S’ils offrent une réponse potentielle particulièrement adaptée aux problèmes causés par l’augmentation déraisonnable du coût des abonnements aux grands éditeurs, ils sont aujourd’hui encore balbutiants. La principale interrogation provient de leur jeunesse et de leur manque de reconnaissance par les communautés scientifiques. Concrètement, si un jury doit expertiser un dossier individuel ou collectif (équipe, laboratoire), il attachera plus de poids à des publications parues dans des revues installées depuis longtemps et donc plus reconnues.

    La seule motivation « militante » pour publier de cette façon ne suffit pas, notamment si l’on pense aux jeunes chercheurs qui sont à la recherche d’un emploi : il est aujourd’hui très difficile de leur faire prendre ce risque sans concertation et réflexion préalables de la part de leurs encadrants qui sont souvent des scientifiques établis qui n’ont plus de souci majeur de carrière. C’est pourquoi il est absolument indispensable que les chercheurs les plus seniors s’impliquent clairement en faveur de ces initiatives : en participant aux comités de lecture de ces épi-journaux afin de les faire bénéficier de leur visibilité individuelle, en contribuant à en créer de nouveaux et surtout en expliquant dans toutes les instances d’évaluation et de recrutement (jurys, comités de sélection, CNU…), la qualité de ces premiers epi-journaux et du crédit que l’on peut leur accorder.

    Là encore, ne tombons pas dans l’angélisme, un épi-journal n’est pas un gage de qualité en lui même, mais au moins laissons lui la chance de prouver sa valeur de la même façon qu’une revue papier et évaluons le avec les mêmes critères.

    Il s’agit vraiment de bâtir une nouveau paradigme de publication et nous, scientifiques, en sommes tous les premiers responsables avant d’en devenir les bénéficiaires dans un futur proche.

    Pascal Guitton, Professeur Université de Bordeaux et Inria

    (*) Le spam, courriel indésirable ou pourriel (terme recommandé au Québec) est une communication électronique non sollicitée, en premier lieu via le courrier électronique. Il s’agit en général d’envois en grande quantité effectués à des fins publicitaires. [Wikipedia]. À l’origine le mot SPAM désignait de la « fake meat« .

  • J’ai deux passions, la musique et l’informatique

    Un nouvel « entretien autour de l’informatique ». binaire interviewe Arshia Cont, chercheur en informatique musicale. Arshia a placé sa recherche à la frontière entre ses deux passions, l’informatique et la musique. Il nous les fait partager. Claire Mathieu  et Serge Abiteboul.  

    Arshia Cont © Arshia
    Arshia Cont © Arshia

    La musique mixte : musiciens et ordinateurs

    B : Arshia, en quoi consiste ta recherche ?
    AC : Nous travaillons dans le domaine de l’informatique musicale. Les gens ont commencé à faire de la musique avec des ordinateurs depuis les débuts de l’informatique. Déjà Ada Lovelace parlait explicitement de la musique dans ses textes. Nous nous intéressons à ce qu’on ne sait pas encore bien faire. Quand plusieurs musiciens jouent ensemble, chaque musicien a des tâches précises à réaliser en temps réel, mais doit coordonner ses actions avec les autres musiciens. Ils arrivent à s’écouter et à se synchroniser, pour jouer un quatuor de Mozart par exemple. L’œuvre est écrite sur une partition, et c’est toujours la même œuvre qu’on écoute, mais à chaque exécution, c’est toujours différent et pourtant c’est sans faute. Et même s’il y a des fautes, le concert ne va pas s’arrêter pour autant. Cette capacité à s’écouter les uns les autres, se coordonner et se synchroniser, avec une tolérance incroyable aux variantes, aux erreurs mêmes, c’est une capacité humaine extraordinaire qu’on aimerait donner à la machine.
    Prenons trois musiciens qui ont l’habitude de jouer ensemble. On leur ajoute un quatrième musicien, à savoir, un ordinateur qui va jouer avec eux, et qui, pour cela, doit écouter les autres et s’adapter à eux. L’ordinateur doit être capable d’interagir, de communiquer avec les humains. Cette association de musiciens humains et de musiciens ordinateurs est une pratique musicale qu’on appelle la musique mixte, et qui est répandue aujourd’hui dans le monde entier.
    Le dialogue se passe pendant l’exécution, mais il faut aussi un langage pour décrire la richesse de tels scénarios qui sont à la fois attendus (puisqu’on connaît la partition) et en même temps à chaque fois différents.

    Arshia Cont devant un violon « bricolé » Un capteur et un excitateur sont placés directement à l’intérieur de la caisse du violon pour amplifier les sons existants mais aussi créer de sons nouveaux. ©Serge Abiteboul
    Arshia Cont devant un  violon intelligent de l’Ircam. Un capteur et un excitateur sont placés directement à l’intérieur de la caisse du violon pour amplifier les sons existants mais aussi créer de sons nouveaux. ©Serge Abiteboul

    Le langage de la musique

    B : Vous travaillez sur des langages pour la musique mixte ?
    AC : Oui. Prenez des œuvres écrites pour de grands orchestres, avec vingt ou trente voix différentes en parallèle. Le compositeur qui a écrit cela n’avait pas accès à un orchestre dans sa salle à manger pendant qu’il l’écrivait. Pendant des siècles, les musiciens ont été obligés d’inventer un langage, un mode de communication, qui soit compréhensible par les musiciens, qui puisse être partagé, et qui soit suffisamment riche pour ne pas rendre le résultat rigide. Mozart, Beethoven ou Mahler ont été obligés d’écrire sur de grandes feuilles de papier, des partitions d’orchestre, en un langage compris par les musiciens qui allaient jouer ces morceaux. Ce langage, avec des éléments fixes et des éléments libres, permet un passage direct de l’écriture à la production de l’œuvre. On rejoint ici un but essentiel en informatique de langages de programmation qui permettent de réaliser des opérations complexes, avec des actions à exécuter, parfois plusieurs en même temps, avec des contraintes temporelles imposées par l’environnement.
    Prenez l’exemple d’un avion. On voudrait que l’avion suive son itinéraire à peu près sans faute mais là encore ça ne se passe pas toujours pareil. Il faut un langage qui permette d’exprimer ce qu’on voudrait qu’il se passe quelle que soit la situation.
    Pour la musique, le langage doit permettre un passage immédiat à l’imaginaire. Pour cela, nous travaillons avec des musiciens, et ce qui est particulièrement intéressant, c’est quand ils ont en tête des idées très claires mais qu’ils ont du mal à les exprimer. Nous développons pour eux des langages qui leur permettent d’exprimer la musique qu’ils rêvent et des environnements pour la composer.

    B : Ça semble avoir beaucoup de liens avec les langages de programmation en informatique. Tu peux nous expliquer ça ?
    AC : La musique, c’est une organisation de sons dans le temps. Une partition avec trente voix, c’est un agencement d’actions humaines qui ont des natures temporelles très variées mais qui co-existent. Ce souci de faire “dialoguer” différentes natures temporelles, on le retrouve beaucoup dans des systèmes informatiques, notamment dans des systèmes temps réel. Il y a donc beaucoup de liens entre ce que nous faisons et les langages utilisés pour les systèmes temps-réel critiques, les langages utilisés par exemple dans les avions d’Airbus ou dans des centrales nucléaires. C’est d’ailleurs un domaine où la France est plutôt leader.

    Démonstration d’Antescofo, @Youtube

    B : Tu parles de temps-réel. Dans une partition il y a un temps quasi-absolu, celui de la partition, mais quand l’orchestre joue, il y a le temps de chaque musicien, plus complexe et variable ?
    AC : Plutôt que d’un temps absolu, je préfère parler d’une horloge. Par exemple le métronome utilisé en musique occidentale peut battre au rythme d’un battement par second, et c’est le tempo “noire = 60” qui est écrit sur la partition, mais il s’agit juste d’une indication. En fait, dans l’exécution aucune musique ne respecte cette horloge, même pas à 90%. Le temps est toujours une notion relative (contrairement à la hauteur des notes, qui dans certaines traditions musicales est absolue). Dans un quatuor a cordes, il n’y a pas un temps unique idéal, pas une manière unique idéale de se synchroniser. En musique, il y a la notion de phrase musicale, et quand vous avez des actions qui ont une étendue temporelle, on peut avoir des relations temporelles variées. Par exemple on veut généralement finir les phrases ensemble. Dans certaines pratiques de musique indienne, il y a des grilles rythmiques que les musiciens utilisent quand ils jouent ensemble : ils les ont en tête, et un musicien sait quand démarrer pour que dix minutes plus tard il finisse ensemble avec les autres ! Ce type de condition doit être dans le langage. C’est cela qui est très difficile. Les musiciens qui arrivent à finir ensemble ont une capacité d’anticipation presque magique. Ils savent comment jouer au temps t pour pouvoir finir ensemble au temps t+n. C’est le « Ante » de Antescofo, notre logiciel. Comme les musiciens qui savent anticiper d’une façon incroyable, Antescofo essaie d’anticiper.


    Antescofo par Ircam-CGP

    B : Et le chef d’orchestre, là-dedans. Son rôle est de synchroniser tout le monde ?
    AC : Les musiciens travaillent avec l’hypothèse que la vitesse du son est infinie, qu’ils entendent un son d’un autre musicien à l’instant où ce son est émis. Mais dans un grand orchestre cette hypothèse ne marche pas. Le son de l’autre bout de l’orchestre arrive après un délai et, si on s’y fie, on ralentit les autres. Pour remédier à ça, on met un chef d’orchestre que chacun peut voir et la synchronisation se fait à la vue, avec l’hypothèse que la vitesse de la lumière est infinie. Nous avons d’ailleurs un projet en cours sur le suivi de geste, afin que le musicien-ordinateur puisse aussi suivre le geste du chef d’orchestre. Mais c’est compliqué. Il faut s’adapter aux chefs d’orchestre qui utilisent des gestuelles complexes.

    La machine doit apprendre à écouter

    B : Tu utilises beaucoup de techniques d’apprentissage automatique . Tu peux nous en parler ?
    AC : Nous utilisons des méthodes d’apprentissage statistique. Nous apprenons à la machine à écouter la musique. La musique est définie par des hauteurs, des rythmes, plusieurs dimensions que nous pouvons capter et fournir à nos programmes informatiques. Mais même la définition de ces dimensions n’est pas simple, par exemple, la définition d’une « hauteur » de son qui marche quel que soit l’instrument. Surtout, nous sommes en temps-réel, dans une situation d’incertitude totale. Les sons sont complexes et « bruités ». Nous humains, quand nous écoutons, nous n’avons pas une seule machine d’écoute mais plusieurs que nous utilisons. Nous sommes comme une machine multi-agents, une par exemple focalisée sur la hauteur des sons, une autre sur les intervalles, une autre sur les rythmes pulsés. Toutes ces machines ont des pondérations différentes selon les gens et selon la musique. Si nous humains pouvons avoir une écoute quasi-parfaite, ce n’est pas le résultat d’une machine parfaite mais parce que notre cerveau sait analyser les résultat de plusieurs machines faillibles. C’est techniquement passionnant. Vous avez plusieurs machines probabilistes en compétition permanente, en train d’essayer d’anticiper l’avenir, participant à un système hautement dynamique d’apprentissage en ligne adaptatif. C’est grâce à cela qu’Antescofo marche si bien. Antescofo sait écouter et grâce à cela, réagir correctement. Réagir, c’est presque le coté facile.

    Des sentiments des machines

    B : Il y a des musiques tristes ou sentimentales. Un musicien sait exprimer des sentiments. Peut-on espérer faire rentrer des sentiments dans la façon de jouer de l’ordinateur ?
    AC : C’est un vieux rêve. Mais comment quantifier, qualifier, et contrôler cet effet magique qu’on appelle sentiment ? Il y a un concours international, une sorte de test de Turing des sentiments musicaux, pour qu’à terme les machines gagnent le concours Chopin. Beaucoup de gens travaillent sur l’émotion en musique. Là encore, on peut essayer de s’appuyer sur l’apprentissage automatique. Un peu comme un humain apprend pendant des répétitions, on essaie de faire que l’ordinateur puisse apprendre en écoutant jouer. En termes techniques, c’est de l’apprentissage supervisé et offline. Antescofo apprend sur scène, et à chaque instant il est en train de s’ajuster et de réapprendre.

    La composition de musique mixte ©Arshia Cont
    La composition de musique mixte ©Arshia Cont

    B : Y a-t-il d’autres questions que tu aurais aimé que nous te posions ?
    AC : Il y a une dimension collective chez l’homme qui me passionne. Cent cinquante musiciens qui jouent ensemble et produisent un résultat harmonieux, c’est magique ! C’est une jouissance incroyable. Peut-on arriver à de telles orchestrations, de tels niveaux de collaboration, avec l’informatique ? C’est un vrai challenge.
    Autre question, la musique est porteuse de beaucoup d’éléments humains et touche aussi à notre vie privée. Aujourd’hui tout le monde consomme de la musique – comment peut-on rendre cela plus disponible à tous via l’informatique ? Récemment on a commencé à travailler sur des mini ordinateurs à 50 euros. Comment rendre le karaoké disponible pour tout le monde ? Comment faire pour que tous puissent faire de la musique même sans formation musicale ? Peut-être que cela donnerait aux gens un désir de développement personnel – quand un gamin peut jouer avec l’orchestre de Paris, c’est une perspective grisante, et l’informatique peut rendre ces trésors accessibles.

    La passion de la musique et de l’informatique

    B : Pour conclure, tu peux nous dire pourquoi tu as choisi ce métier ?
    AC : Je suis passionné de création musicale depuis l’adolescence, mais j’étais aussi bon en science, alors je me posais la question : musique ou science ? Avec ce métier, je n’ai pas eu à choisir : je fais les deux. Je ne pourrais pas être plus heureux. C’est un premier message aux jeunes : si vous avez une passion, ne la laissez pas tomber. Pour ce qui est de l’informatique, je l’ai découverte par hasard. Pendant mes études j’ai fait des mathématiques, du traitement du signal. Après ma thèse, en explorant la notion de langage, je me suis rendu compte qu’il me manquait des connaissances fondamentales en informatique. L’informatique, c’est tout un monde, c’est une science fantastique. C’est aujourd’hui au cœur de ma recherche. Mon second message serait, quelle que soit votre passion, à tout hasard, étudiez aussi l’informatique…

    Arshia Cont, Ircam
    Directeur de recherche dans une équipe Inria/CNRS/Ircam
    Directeur du département Recherche/Créativité des Interfaces

    En découvrir plus avec deux articles d’Interstices sur ce sujet :

    https://interstices.info/interaction-musicale
    https://interstices.info/antescofo

    Séances de travail Antescofo ©inria
    Séances de travail d’Antescofo ©inria
  • Le renseignement numérique pour les nuls

    Le projet de loi relatif au renseignement, ou Loi Renseignement, est un projet de loi français dont une première version a été publiée officiellement le 19 mars 2015. Visant à renforcer le renseignement en France, il prévoit la mise en place de plusieurs mesures controversées, telles que la présence de boîtes noires chez les opérateurs de télécommunications, visant à détecter les comportements suspects à partir des métadonnées, sur la base d’un algorithme propriétaire ; mais aussi des dispositions sur l’utilisation de mécanismes d’écoute, logiciels espions ou encore IMSI-catchers(*).

    On ne parle pas assez de ce projet de loi. Ses enjeux sont finalement moins techniques que véritablement politiques :

    • Que deviennent les libertés quand l’état peut surveiller massivement ses citoyens ?
    • Que deviendraient-elles si un parti totalitaire gagnait les élections dans cinq ans, dans dix, dans vingt ?
    •  Comment évoluerait le comportement du citoyen s’il se savait observé en permanence ?

    D’autres en ont expliqué les dérives comme Tristan Nitot ou La quadrature du Net. Tout ce que nous pouvons faire c’est expliquer quelques aspects techniques pour que tout le monde puisse comprendre un peu mieux de quoi on parle, enfin ce que nous en comprenons car les textes sont très flous.

    Rappelons ce qui se passait avant. Un juge ordonnait à un fournisseur de service Internet de lui donner des données d’une personne précise – une personne suspectée d’un délit précis. Donc il s’agissait de vérifier des faits.

    Maintenant, il s’agit de surveiller massivement toute la population pour découvrir des suspects, qui seront ensuite surveillés individuellement de manière plus spécifique. L’idée est que comme tout le monde, y compris les gens louches, utilise des Fournisseurs de Services Internet (FSI), les serveurs de ces derniers contiennent sans doute des informations qui intéressent la justice.
    Osons une analogie : les gens louches écrivaient des lettres au 20e siècle ; on aurait dû demander à la poste d’envoyer aux services de renseignement des copies de toutes les lettres. Mais, on n’aurait jamais pu alors « traiter » toute la masse de ces lettres. Aujourd’hui grâce aux ordinateurs et au « Big data » on peut le faire ! Est-ce qu’on veut le faire ?

    L’article 851-4 du Code de la sécurité intérieure dans le projet de loi : … le Premier ministre peut ordonner aux opérateurs de communications électroniques et aux fournisseurs de services de détecter, par un traitement automatique, une succession suspecte de données de connexion, dont l’anonymat ne sera levé qu’en cas de révélation d’une menace terroriste…

    L’exemple donné est de pouvoir repérer les internautes qui se connectent pour voir une vidéo de décapitation, et de pouvoir surveiller ces terroristes potentiels (qu’il faudra séparer du curieux en quête de sensations fortes). Vous avez la liberté de consulter les sites que vous voulez et ils ont le droit de surveiller ce que vous regardez ?

    FullSizeRenderLe principe est donc celui de la surveillance de masse. A priori, tout le monde est suspect. On cherche à extraire de la population des personnes ayant des comportements louches, par exemple un terroriste qui serait assez naïf pour commander ses kalachnikovs à un vendeur patenté, ou un individu qui consulterait depuis son ordinateur personnel des agences de voyage pédophiles sans passer par un proxy anonymiseur (un service permettant de naviguer sur le web anonymement). Vous allez me dire que ceux-là, on les aurait déjà captés par la surveillance classique d’individus suspects. Certes.

    Mais la beauté de l’analyse de données, c’est qu’on découvrira aussi de nouveaux suspects, juste avec des techniques d’apprentissage automatique (machine learning) super pointues. Les résultats des maitres américains en la matière sont (suivant la rumeur) pour le moins décevants. Tant pis, on y croit !

    boite-noire-rayclidComment cela se fera en pratique ? Une personne « habilitée » (l’exécutif sous vague contrôle d’un juge et d’une commission), pour répondre à des besoins de renseignements comme la lutte contre le terrorisme ou suivant d’autres critères assez vagues, pourra demander l’installation

    d’une boite noire qui filtre les flux
    d’informations du FSI
    .

    D’un point de vue technique, tout est dans la petite boite noire représentée dans la figure.

    Numerique et renseignement

    Expliquons ces termes :

    Une « boite noire qui filtre les données » c’est un logiciel à priori secret qui examine ce qui passe sur la connexion Internet et en sélectionne une partie qu’il envoie au serveur des renseignements.

    Le flux d’information : on regarde les données qui passent plutôt que les données des serveurs du FSI.

    Le serveur peut même être situé en Papouasie, si vous êtes en France, votre message va passer par un serveur en France et traverser une boite noire.

    Le filtre dans la boite noire doit sélectionner un maximum de données sinon il y a toutes les chances qu’il rate des données intéressantes – puisque rappelons-le on ne peut savoir ce qui est intéressant ou pas. À priori, on ne peut savoir si vous avez un comportement suspect, donc on vous surveillera aussi.

    Le serveur du service de renseignement fera des analyses statistiques sur les données (on dit Big data pour faire branché). Là on vous parle d’algorithmes. Vous ne savez pas ce que feront ces algorithmes. Normal, personne ne sait. Ils feront des tas de calculs sur des montagnes de données pour extraire des connaissances intéressant les services de renseignement. Votre nom, l’emplacement de votre domicile, les personnes avec qui vous correspondez, les films que vous regardez, la musique que vous écoutez… Vous serez qualifié par des tonnes de variables, qui feront dire aux algorithmes si vous êtes suspects ou pas. Nous ne pouvons vous garantir que vous ne vous retrouverez pas suspect juste par le mauvais hasard des statistiques. Mais supposons même que les algorithmes décident que vous êtes un bon citoyen. Des tas de vos informations les plus personnelles se retrouveront sur les serveurs des services de renseignement. Vous me promettez qu’elles ne seront jamais utilisées ?

    Petites consolations ?

    • On ne récupère que les métadonnées. Prenons un exemple : un courriel. Les méta-données indiquent l’expéditeur, le destinataire, la date, le sujet du courriel. Les contenus ne font techniquement pas partie des méta-données. Cela sera bien sûr compliqué de vérifier systématiquement que la boite noire ne les examine pas. Et puis à partir de ça, on peut déjà apprendre tant de choses sur vous…
    • Les données de masses récoltées sont anonymes ? Au secours, l’adresse IP de votre téléphone ou votre adresse mail vous identifient. On pourrait les cacher. Ce n’est pas dit. Mais même si les trucs les plus évidents sont cachés, c’est techniquement très compliqué d’anonymiser vraiment des données. Des algorithmes assez simples peuvent permettre de retrouver les identités. Donc les données n’ont rien de vraiment anonyme !

    Sans être parano, nous sommes hyper inquiets. Nous pensons qu’une telle surveillance de masse serait liberticide. Nous ne pouvons nous empêcher de penser qu’elle serait une victoire pour ces malades qui attaquent notre démocratie.

    Maintenant vous ne pourrez plus dire que vous ne compreniez pas.

    Serge Abiteboul, Directeur de recherche INRIA, Professeur ENS Cachan, avec le soutien de tous les éditeurs de Binaire, Colin de la Higuera, Marie-Agnès Enard, Pierre Paradinas, Sylvie Boldo, Thierry Viéville.

     

    (*) IMSI-catchers : c’est un matériel qui permet d’espionner les communications des téléphones mobiles en se faisant passer pour un relai de téléphone mobile.

     

  • Comment les chercheurs en informatique partagent leur culture scientifique

    Fête de la Science 2014 Inria Grenoble - Rhône-AlpesLes annonces de « grands plans éducatifs au numérique » où les enfants apprendront le « code » (c’est à dire le codage numérique de l’information, comment construire un algorithme et le programmer) se multiplient. Et l’on ne peut que se réjouir que tous nos enfants aient enfin la chance de s’approprier les éléments essentiels pour comprendre et surtout façonner la société dans laquelle ils sont appelés à vivre.  Si notre système éducatif a mis du temps à prendre conscience du besoin de transmettre une réelle connaissance de la science informatique et non seulement de ses usages, d’autres n’ont pas tant attendu. Une des nombreuse facettes des métiers de la recherche est de partager l’information scientifique avec chacune et chacun, pour faire de nous et de nos enfants des citoyen-ne-s  éclairé-e-s sur ces sujets. Depuis des années déjà, les chercheurs en informatique se sont emparés de ces questions et sont à l’origine de nombreuses initiatives qui visent à mettre à portée de tous, de manière souvent originale et ludique, des éléments de science informatique. Il ne s’agit pas ici d’enseigner mais bien de susciter la réflexion, de semer des grains de science qui pourront ensuite germer, par exemple à l’occasion de formations ou d’échanges plus approfondis.

    photo-binpacking-installation
    Activités débranchées: pour comprendre ce qui se passe dans un ordinateur, on joue avec des objets du quotidien qui en reproduisent certains mécanismes.

    Pour témoigner de ce travail, ou plutôt de cette passion au quotidien, la Société Informatique de France, sort un numéro spécial de son bulletin 1024 sur la médiation scientifique en science informatique.  Pourquoi et comment partager une culture scientifique en science informatique ? Comment parler d’informatique à chacune et chacun ? Concrètement comment aller de l’avant au niveau de cette médiation scientifique ?

    inirobot2
    Activités InriRobot, des chercheurs en informatique et didactique proposent des activités d’initiation dès le primaire.

    Témoignages d’actions concrètes pour découvrir quelques unes de ces activités, mettre en valeur des partenariats forts avec le monde associatif, et tenter d’évaluer l’impact de ce service public.
    Parole donnée aux institutions pour réaffirmer l’importance de la mission de médiation dans les métiers de la recherche. Mise en perspective de ces actions pour que la communauté scientifique regarde vers l’avenir sur ces sujets. Voici ce que ce numéro spécial de la revue 1024 nous offre en partage.

    Cliquer sur ce lien pour accéder à la revue en ligne.

    Il est urgent de ne plus attendre, en ce qui concerne l’enseignement de l’informatique en France. Les actions de médiation scientifiques, si elles peuvent être un tremplin, ne doivent pas être perçues comme une rustine pour pallier  l’absence d’enseignement,  seule voie pour assurer un accès réellement démocratique à la culture informatique.  Pour autant, relever ce défi de l’éducation est aujourd’hui à portée de main. De la formation des enseignants et des animateurs péris-scolaires à la production de ressources, la communauté scientifique est déjà en marche pour contribuer à cette grande cause nationale.

    Sylvie Alayrangues, Enseignante- Chercheure, Vice-présidente médiation de la Société Informatique de France.
    Thierry Viéville, Chercheur Inria en membre de la SIF, Chargé de mission médiation scientifique Inria.

  • Dieu a-t-il programmé le monde en Java ?

    Serge Abiteboul a rencontré pour Binaire Baptiste Mélès, un jeune philosophe des sciences qui sait aussi écrire du code informatique. Baptiste Mélès a étudié une analogie entre les langages de programmation orientés objet et la monadologie leibnizienne (n’ayez crainte !). Serge vous propose un article très simplifié de cette analogie qui, nous l »espérons, vous donnera envie d’aller lire l’article complet de Baptiste Mélès. La présentation détaillée de cette fameuse monadologie leibnizienne et les liens que Baptiste Mélès tisse avec la programmation orientée objet (avec des exemples de code) vous plongeront dans un univers passionnant où philosophie et informatique dialoguent.  Marie-Agnès Enard.

    Philosophie des systèmes (puce bleue). Logique, mathématiques, informatique (puce verte). Pensée et mathématiques chinoises (puce rouge). Trois thèmes de recherche qui nourrissent la pensée de Baptiste Mélès.

    En informatique, nous utilisons des « langages de programmation » pour dire aux machines ce que nous voulons qu’elles fassent. Ces langages sont très loin des « langages machines », c’est-à-dire des langages que comprennent les machines. Il est nécessaire d’avoir une phase de « compilation » où un programme dans un langage, par exemple Java, que parle le développeur (un être humain) est traduit dans un langage que comprend la machine. Comme une langue naturelle, un langage de programmation s’appuie sur un alphabet, un vocabulaire, des règles de grammaire ; comme dans une langue naturelle, les phrases des langages de programmation (on parle d’instructions) ont une significations.  Les différences entre les langages de programmation sont du même ordre que celles entre les langues que parlent les humains – les informaticiens ont juste réinventé Babel. Baptiste Mélès s’intéresse à la philosophie des connaissances mais il a aussi étudié les langages de programmation. Il m’a donc expliqué le lien entre la monadologie leibnizienne et les langages de programmation orientés objet d’où le titre de son article : Dieu a-t-il programmé le monde en Java ?

    Baptiste Mélès est parti de taxonomies des langages de programmation et de taxonomies d’écoles de philosophies et il a montré des liens entre ces taxonomies. En résumé, il existe plusieurs grandes familles de langages de programmation : par exemple, les langages impératifs, fonctionnels, logiques, orientés objet. Chacune d’entre elle est « proche » d’une école de philosophie.  Pour illustrer cette thèse, Baptiste Mélès s’attache à la famille la plus populaire de nos jours, celle des langages de programmation orientés objet qui inclut des langages comme Java, OCAML, Python, C++, et Ruby. Il nous explique les liens avec la philosophie «monadologique» de Gottfried Wilhelm Leibniz (1646–1716).

    La monadologie leibnizienne

    Gottfried Wilhelm Leibniz ©wikicommon

    Gottfried Wilhelm Leibniz, philosophe et scientifique allemand, voit la nature comme composée de substances simples, les monades, et de substances composées que nous ignorerons ici. Une monade est caractérisée par ses propriétés et par ses «actions internes». Ce qui distingue une monade d’un atome, c’est qu’elle est capable de  transformer son état, de réagir à son environnement, c’est-à-dire aux actions d’autres monades. Un monde est défini par les «essences» des monades qui le peuplent. (La vision du monde de Leibniz que je présente ici est évidemment hyper simplifiée par rapport à celle du philosophe.) C’est Dieu qui décide du comportement des différentes essences de monades et de leurs interactions.

    Baptiste Mélès écrit : « Pour résumer, la théorie leibnizienne des monades est une doctrine métaphysique dans laquelle les concepts, créés par Dieu, sont organisés de façon hiérarchique et préexistent aux individus ; les individus sont des êtres atomiques et animés, qui, quoique enfermés sur eux-mêmes, n’en sont pas moins capables de se représenter le monde et d’agir sur lui en échangeant des messages grâce à l’action intermédiaire d’une harmonie préétablie par le créateur. »

    La programmation orientée-objet

    humanEn programmation orientée objet, le programmeur définit des types d’objets (des classes dans la terminologie orientée objet) et les comportements des objets dans ces classes. Concrètement, un objet est une structure de données dans un certain état (typiquement caché pour l’extérieur) qui répond à un ensemble de messages. L’ensemble des messages (des programmes) acceptés par l’objet détermine son comportement. Les objets interagissent entre eux par l’intermédiaire de ces messages. Il n’est pas nécessaire de connaître le programme correspondant à un objet pour pouvoir interagir avec cet objet. Il suffit de connaître son «interface», c’est-à-dire l’ensemble des messages qu’il comprend. (C’est sans doute ce principe d’indépendance qui est à la base du succès de la programmation orientée objet.)

    L’analogie entre la monadologie leibnizienne et la programmation objet est claire. Les objets sont des monades. Les classes sont les «essences» de Leibniz. Si le Dieu de la Bible a créé l’homme à son image, les informaticiens ont façonné les développeurs orientés objet à l’image du Dieu de Leibniz. C’est tout sauf innocent.

    Du dialogue entre la philosophie et de l’informatique

    Les langages orientés objet permettent de mieux comprendre des concepts philosophiques qui peuvent paraître très abstraits. Par elle également, la philosophie permet d’expliquer les raisonnements complexes qui sous-tendent la programmation. Le dialogue entre philosophie et informatique enrichit bien les deux disciplines. On retrouve d’ailleurs dans ce dialogue un de mes thèmes favoris : l’informatique est un lieu naturel de rapprochement entre les sciences dites dures et les sciences humaines. (Voir texte sur les Humanités Numériques). Avec l’informatique, nous avons l’occasion de combler un fossé entre des sciences qui s’est construit depuis le 19ème siècle, et qui n’a pas lieu d’être.

    Serge Abiteboul, Inria et ENS Cachan

  • Dessine moi les impôts !

    Quand un ami de Binaire, Arnaud Sahuguet,  nous a suggéré de faire un article  sur «Openfisca», nous nous sommes demandés s’il était vraiment sérieux. La fiscalité est un sujet qui est loin d’exciter les foules. Comment intéresser le public du Monde sur un sujet comme informatique et fiscalité ? Et pourtant, c’est un sujet important qui nous concerne tous (que l’on paye ou pas des impôts). Nous avons décidé d’en savoir plus sur Openfisca et sur ses outils qui peuvent vraiment nous aider au quotidien. C’est donc Serge Abiteboul qui a relevé le défi de nous donner envie d’en savoir plus. Marie-Agnès Enard

    Quand j’ai regardé le site Web de OpenFisca, je me suis dit qu’on pouvait faire plus aguicheur. Alors, j’ai envoyé un courriel à Openfisca et proposé qu’ils m’expliquent devant un verre. Jackpot ! J’ai alors rencontré Mahdi Ben Jelloul de l’IPP (Institut des Politiques Publiques) et Emmanuel Raviart (EtaLab) et j’ai finalement trouvé le sujet très intéressant ; ils ont su me convaincre !

    Openfisca c’est un logiciel open-source de micro-simulation du système socio-fiscal. Une fois que l’on a dit ça, on s’est fait plaisir mais ça manque un peu de clarté. Alors décortiquons et demandons-nous au préalable à quoi cela peut servir ?

    Le but de cette collaboration entre l’IPP, Etalab et France Stratégie est d’abord de rendre compréhensibles à tous les citoyens les impôts et les prestations sociales. Une première version du logiciel OpenFisca est déployé sur le site « mes-aides.gouv.fr », qui devrait être lancé officiellement courant mars. L’accroche est alléchante :

    Service expérimental : Ici l’État innove avec
    la société civile pour offrir aux usagers
    le service public de demain.

    Sans titre-1

    Le constat de départ est très simple : des prestations sociales ne sont pas demandées par un nombre incroyable de personnes qui y auraient droit. Ils ne le savent pas ; ils ne veulent pas se lancer dans un dossier compliqué sans savoir si ça va marcher. Le site demande des informations simples au prestataire éventuel (cela peut-être saisi via un médiateur numérique, un ami, un bénévole d’une association) et propose de calculer si la personne en question a droit à telle ou telle prestation. Le problème est simple, la solution est claire.

    En cliquant sur cette image, on découvre un aperçu de l’interface

    L’outil est neutre. Il permet de savoir si vous pouvez bénéficier d’une prestation sociale, de comprendre ce que vous allez gagner ou perdre avec une nouvelle loi ou pourquoi pas, comment faire de l’optimisation fiscale. Dans des cas de divorce, le juge pourrait utiliser un tel outil plutôt que de fixer, par exemple, des pensions alimentaires à l’aide de grilles désuètes. On imagine aussi l’utilisation pour faire du « fact checking » (vérification des faits). Par exemple, nous avons assisté début 2014 à une polémique sur le fait que beaucoup de personnes qui ont droit au RSA, ne le demandaient pas. (Voir l’article des Décodeurs) Les outils de Openfisca peuvent être utilisés par les journalistes pour vérifier les chiffres que les politiques ou les administrations avancent. Nous sommes tous unanimes sur le fait que les débats se basent sur des chiffres corrects !

    impotsDe la complexité du problème : Les contraintes entre les variables, © Openfisca (cliquer sur le graphe)

    Pour arriver à cela, les quelques personnes d’Openfisca ont dû coder toute la législation des impôts, toutes les règles des prestations sociales. On imagine aisément la complexité d’une telle démarche. Maîtriser les règlements, interpréter le plus fidèlement les textes, clarifier les éléments de langage. Au-delà de la loi, il fallait comprendre les usages. À l’arrivée, il s’agit de centaines de variables et de fonctions qu’il faut exécuter en tenant compte des dépendances entre elles. Donc, au final des centaines de formules et des milliers de tests codés en « Python » (le langage de programmation utilisé). Pour un informaticien, c’est un problème super intéressant à programmer.

    On ne peut s’empêcher de se poser la question de la fiabilité d’un tel logiciel et des tests effectués avant de le déployer. Openfisca nous explique qu’une armada de tests ont ainsi été proposé par des experts et qu’actuellement on vérifie que le programme fait ce que les experts en attendent. Le verdict positif nous permettra de juger de la qualité et fiabilité du programme.

    Mais revenons à notre point de départ, « la micro-simulation du système socio-fiscal ». Que veut-on simuler ? Prenons un impôt particulier. Que se passerait-il si on changeait tel seuil, tel taux d’imposition ? Quel serait l’impact pour un ménage avec deux enfants en fonction du revenu imposable ? Mieux. En supposant que je désire développer telle prestation sociale pour arriver à offrir en moyenne une somme particulière à une catégorie particulière de la population. Comment pourrais-je y arriver ? Bien sûr, les administrations disposent déjà de tels logiciels, les impôts, la CAF, l’INSEE, d’autres. Mais avec Openfisca, le logiciel est libre. Tout le monde peut l’utiliser. Chacun peut l’améliorer, l’enrichir. C’est le principe du libre.

    Les impôts pour tou-te-s ©vidberg

    Au cœur de tout cela, il s’agit ni plus ni moins de définir un modèle de la fiscalité et des prestations sociales, un modèle « ouvert », partagé par tous et développé collectivement. Nous sommes au cœur de l’open-gouv, le Gouvernement ouvert. Mahdi, Emmanuel et d’autres (notamment Clément Schaff) ont développé de la belle technologie informatique et leur travail nous ramène au célèbre « Code is Law » de Lawrence Lessig. Avec Openfisca, les impôts et les prestations sociales sont devenues des lignes de Python, du code pour le bien de tous.

    Serge Abiteboul

     

    def function(self, simulation, period):
    period = period.start.offset(‘first-of’, ‘month’).period(‘month’)
    rsa_socle = simulation.calculate(‘rsa_socle’, period)
    rsa_socle_majore = simulation.calculate(‘rsa_socle_majore’, period)
    ra_rsa = simulation.calculate(‘ra_rsa’, period)
    rsa_forfait_logement = simulation.calculate(‘rsa_forfait_logement’, period)
    rsa_forfait_asf = simulation.calculate(‘rsa_forfait_asf’, period) # TODO: not used ?
    br_rmi = simulation.calculate(‘br_rmi’, period)
    P = simulation.legislation_at(period.start).minim.rmi

    socle = max_(rsa_socle, rsa_socle_majore)
    base_normalise = max_(socle – rsa_forfait_logement – br_rmi + P.pente * ra_rsa, 0)

    return period, base_normalise * (base_normalise >= P.rsa_nv)

    Le Revenu de solidarité active, https://github.com/openfisca
  • Les bonnes propriétés d’un système de vote électronique

    Pour poursuivre la série d’article sur le sujet du vote électronique (Qu’est-ce qu’un bon système de vote ? et la sureté des systèmes) par Véronique Cortier, Directrice de recherche au CNRS à Nancy, nous avons choisi de vous parler du système Helios pour mettre en lumière les bonnes propriétés d’un système de vote électronique et les possibilités offertes par certains algorithmes. Pierre Paradinas

    urne_vérouillée_votant_aussiMettre au point un système de vote électronique sûr est un exercice délicat. En particulier, la vérifiabilité et la résistance à la coercition sont des propriétés antagonistes : il faut à la fois démontrer qu’un certain vote a été inclus dans le résultat et ne pas pouvoir montrer à un tiers comment on a voté.

    Le système Civitas implémente un protocole qui vise à la fois la vérifiabilité et la résistance à la coercition. Les systèmes Helios et « Pretty Good Democracy » assurent la vérifiabilité et l’anonymat. Contrairement à Civitas, ils ne garantissent pas la résistance à la coercition, mais ils sont plus faciles à mettre en œuvre. Le fonctionnement d’Helios est aussi plus simple à exposer.  Pour approfondir le sujet, nous vous conseillons d’aller découvrir sur Interstices deux articles qui explorent plus en détail la partie cryptographie et le système Helios.

    L’exemple d’Helios

    Helios est un protocole développé sous licence libre par des chercheurs de l’Université d’Harvard et de l’Université catholique de Louvain (Ben Adida, Olivier de Marneffe et Olivier Pereira), basé sur une proposition originale de Josh Benaloh. Helios a été retenu pour élire le recteur — équivalent du président — de l’université catholique de Louvain et a également été utilisé à plusieurs reprises dans des élections étudiantes, par exemple à Princeton et Louvain. L’association internationale des chercheurs en cryptographie (IACR) l’a aussi choisi pour élire les membres de son bureau.

    Il s’agit d’un protocole en deux phases, comme le système de vote papier classique : la phase de vote à proprement parler et la phase de dépouillement. Pour simplifier la présentation, le cas présenté est l’exemple d’un référendum où chaque électeur peut voter 0 (pour non) ou 1 (pour oui).

     

    schema-helios2Helios : phase de vote. Illustration © skvoor – Fotolia.com.

    Phase de vote

    Le système Helios utilise un chiffrement à clef publique. C’est un système de chiffrement dit asymétrique : la clef de chiffrement est publique — tout le monde peut chiffrer — alors que la clef de déchiffrement est privée — seules les personnes ayant la clef de déchiffrement peuvent déchiffrer.

    Pour voter, chaque électeur, au travers de son navigateur, chiffre son choix (0 ou 1) avec la clef publique de l’élection. Il fournit également la preuve qu’il a bien chiffré l’une des deux valeurs 0 ou 1 et non une autre valeur. Cela est possible grâce à une technique cryptographique particulière, appelée preuve à divulgation nulle de connaissance, qui permet de prouver que le contenu d’un chiffré vérifie une certaine propriété, sans fournir aucune autre indication sur le contenu du chiffré.

    Le vote chiffré, accompagné de la preuve de validité, forme le bulletin qui est envoyé à une urne. Une des caractéristiques importantes d’Helios est que l’urne affiche sur une page web publique tous les bulletins reçus.

    Ainsi, chaque électeur peut vérifier que son bulletin est présent dans l’urne.

    Phase de dépouillement

    La phase de dépouillement est plus complexe et les explications sont données sur l’article complet Helios sur le site d’Interstices. En résumé, les propriétés mathématiques des algorithmes mis en œuvre empêchent le votant malhonnête de chiffrer autre chose que 0 ou 1 et d’ajouter des bulletins dans l’urne. Elles permettent également à chacun de vérifier le résultat de l’élection, à nouveau à l’aide de preuves à divulgation nulle.

    Les points forts d’Helios

    Helios est un système de vote relativement simple comparativement aux autres systèmes existants. Il est facile à mettre en œuvre et il s’agit d’un logiciel libre, ce qui signifie que le code source est disponible. Helios assure bien sûr la confidentialité des votes mais son principal avantage est d’être entièrement vérifiable et par tous : tout électeur peut suivre son bulletin dans l’urne, calculer le résultat de l’élection sous une forme chiffrée et vérifier les calculs effectués par les autorités de déchiffrement. Il s’agit d’une différence fondamentale par rapport à la plupart des solutions commerciales actuellement déployées : même si les entreprises développant ces solutions font un effort pour que leurs systèmes soient audités par des experts habilités, elles ne permettent pas à tout un chacun de vérifier que le résultat proclamé est conforme.

    20 ans après le vote est révélé !

    Dans Helios, les votes sont affichés de manière chiffrée avec l’identité des électeurs ce qui comporte des risques pour l’anonymat. En effet, des systèmes de chiffrement qui sont sûrs aujourd’hui pourraient ne plus l’être dans 20 ou 30 ans. Les avancées scientifiques et technologiques permettront très probablement de casser ces chiffrés et de connaître ainsi comment chacun des électeurs a voté. D’autre part, en France, la liste d’émargement n’est pas publique en général. Ainsi, les recommandations de la CNIL en matière de vote électronique précisent que : « Les fichiers comportant les éléments d’authentification des électeurs, […] ne doivent pas être accessibles, de même que la liste d’émargement, sauf aux fins de contrôle de l’effectivité de l’émargement des électeurs. » Une solution très simple pour corriger Helios consiste à ne plus afficher l’identité des électeurs. Malheureusement, cela affaiblit également la sécurité du système : dans le cas où l’urne serait attaquée (par exemple si des hacker parviennent à contrôler le système informatique déployé pour l’élection), il serait alors facile d’ajouter quelques bulletins sans se faire remarquer. Le développement d’un système de vote sûr est un sujet de recherche très actif à l’heure actuelle. Ainsi, une évolution d’Helios, appelée Belenios, comporte une protection cryptographique contre le bourrage d’urne.

    Quand (ne pas) choisir d’utiliser Helios ?

    Des systèmes ouverts et vérifiables comme Helios représentent une avancée pour les élections qui ont lieu à distance. Cependant, il est important de souligner qu’Helios, comme tout système de vote en ligne, ne nous semble pas adapté à des élections à forts enjeux, comme des élections politiques (présidentielles, législatives…). En effet, un ordinateur compromis pourrait transmettre la valeur du vote d’un électeur à une tierce personne, et à l’insu de l’électeur. Il pourrait également voter pour une autre personne (même si Helios comporte quelques protections contre cela, non décrites ici). Ces faiblesses ne sont pas dues au système Helios, mais au fait qu’on ne peut tout simplement pas avoir une totale confiance dans la sécurité d’un ordinateur personnel.

    De manière générale, certains problèmes de sécurité sont inhérents au vote par Internet. Ainsi, des logiciels malveillants comme des virus ou un enregistreur de frappe (keyloggers) peuvent enregistrer et divulguer les votes, brisant ainsi l’anonymat. D’autres logiciels peuvent non seulement divulguer les votes mais également changer leur valeur, sans être détectés. En 2012, lors des votes des Français de l’étranger aux élections législatives, Laurent Grégoire, ingénieur français travaillant aux Pays-Bas, en a fait la démonstration en mettant au point un logiciel capable de remplacer le choix de l’électeur pour un parti pirate, au moment où l’électeur votait. En 2007, en Estonie, un étudiant en informatique, Paavo Pihelgas, a également construit un logiciel pour produire des bulletins valides, pour le candidat de son choix. Dans les deux cas, il s’agissait de systèmes de vote dont le fonctionnement et le code source n’étaient pas connus. Ceci démontre que le secret du fonctionnement du système ne garantit pas la sécurité. Au contraire, il est souhaitable que la description du système et le code source soient ouverts pour permettre à un maximum de personnes de procéder à une analyse de sécurité.

    Même pour les systèmes les plus sûrs et les plus vérifiables, les mécanismes de vérification font appel à des théories mathématiques complexes dont la compréhension détaillée est réservée à des experts. Les autres utilisateurs doivent faire confiance à ces experts, contrairement au vote papier où les procédures sont comprises par une vaste majorité des citoyens.

    Election technology
    © The Economist on October 27th 2012, un article qui explique comment le vote à domicile sur Internet pose des problèmes d’acceptabilité, mais change aussi létat d’esprit de l’électeur au moment du vote.

     

    Vote à l’urne/Vote par correspondance/Vote par Internet ?

    Pour toutes ces raisons, il semble prématuré d’utiliser le vote par Internet pour des élections à forts enjeux comme des élections politiques importantes. Par contre, il serait réducteur de penser que le vote par Internet est plus dangereux que les autres systèmes de vote en général. Ainsi, le vote par Internet est souvent utilisé pour remplacer le vote par correspondance, qui lui-même n’est pas un système totalement sûr comme nous en avons discuté dans un précédent billet.

    En conclusion, le choix d’utiliser un système de vote électronique dépend très fortement du système déjà en place et du type d’élection.

    Véronique Cortier, CNRS – Nancy, et Steve Kremer, INRIA Nancy Grand-Est, chercheurs au LORIA.

     

  • Et un, et deux, et trois femmes Prix Turing !

    Après Ada Lovelace et Grace Hopper, et à l’occasion de la Journée internationale de la femme, Anne-Marie Kermarrec nous parle de plusieurs grandes informaticiennes et scientifiques, toutes Prix Turing. Elle achève ainsi sa démonstration – s’il était possible de douter – l’informatique est aussi pour les filles !  Serge Abiteboul.

    En 1966, l’ACM crée le prix Turing, l’équivalent du Nobel pour l’informatique, qui récompense les plus grands scientifiques du domaine. Il faudra attendre quarante ans pour voir entrer une femme au palmarès. Depuis, deux autres femmes ont été récompensées par le prestigieux trophée. Ce n’est pas si mal, quand la médaille Fields a récompensé une femme pour la première fois en 2014 !!

    Frances Allen,  source Wikipedia
    Frances Allen Source Wikipedia

    2006 : Frances Allen, née en 1932, après voir été la première femme à recevoir le titre d’IBM fellow,  est la première à se voir récompenser par le prix Turing pour ses  contributions pionnières tant pratiques que théoriques dans l’optimisation des compilateurs. Lors de ses études de mathématiques à l’Université du Michigan, Ann Arbor, elle y prend aussi des cours d’informatique, parmi les premiers dispensés. Elle est engagée par IBM avec l’envie de revenir à ses premières amours et de revenir enseigner les mathématiques quand son prêt étudiant serait soldé. Elle restera 45 ans chez IBM. Sa passion pour la compilation lui vient de la lecture attentive du compilateur Fortran en 1957 quand d’autres lisent des romans ! En bref,  un compilateur traduit un langage de programmation de haut niveau, comme le langage Cobol dont Grace Hopper est à l’origine rappelez-vous, un langage adapté à des humains, en instructions qu’un ordinateur peut exécuter. Un compilateur est donc par définition dépendant d’un langage de programmation et d’une architecture machine. Avec son équipe, elle conçoit le premier environnement de compilation multi-langages (Fortran, Autocoder qui est un langage proche de Cobol de Grace Hopper et Alpha). Les trois langages partageaient en particulier un socle d’optimisation qui permettait de produire du code pour les deux architectures du supercalculateur Stretch et de son co-processeur Harvest. Elle travailla ensuite à la conception du premier ordinateur superscalaire (ACS) capable d’exécuter plusieurs instructions simultanément, y compris dans le « désordre ». Il va de soi qu’écrire des compilateurs associés à ce nouveau type d’architecture représentait un incroyable défi, qu’elle a su relever en représentant le code source comme un graphe plutôt que comme une séquence d’instructions. Cette représentation a permis en particulier de pouvoir détecter des relations entre différentes parties du code difficiles à détecter autrement. Son dernier projet a consisté à compiler des programmes séquentiels pour des architectures parallèles.

    L’une des grandes vertus scientifiques de Frances Allen, a été à l’instar de Grace Hopper, non pas de réinventer des nouveaux paradigmes en langage de programmation mais de concevoir des mécanismes nouveaux d’analyse et d’optimisation permettant de traiter les langages tels qu’ils étaient utilisés en pratique.

     
    Barbara Liskov Source Wikipedia
    Barbara Liskov
    Source Wikipedia

    2008 : Barbara Liskov reçoit le prix Turing pour ses travaux dans le domaine des langages de programmation et de la méthodologie polymorphe. Barbara Liskov, née en 1939, fait ses études à Berkeley, passe un doctorat à Stanford avant de rejoindre Mitre Corp où elle crée le système d’exploitation pour l’ordinateur Venus, un système d’exploitation qui permettait d’isoler, en utilisant la notion de machine virtuelle (ça vous rappelle quelque chose ?) pour isoler les actions, et donc potentiellement les erreurs, d’un utilisateur sur une machine partagée entre plusieurs utilisateurs : les débuts du temps partagé. Elle devient professeur au prestigieux MIT en 1971. Elle y conçoit un langage de programmation, appelé CLU, qui introduit les notions de modularité, d’abstractions de données et de polymorphisme (ce qui permet d’utiliser le même code pour des types d’objets différents), notions fondatrice des langages orienté-objet dont le plus connu est le plébiscité Java. Le langage Argus, sur lequel elle travaille plus tard, étend ces concepts  pour faciliter la programmation au dessus d’un réseau. C’est d’ailleurs dans le domaine des systèmes distribués, quand plusieurs machines connectées par un réseau exécutent ensemble une application, qu’elle continuera son illustre carrière. Elle est encore extrêmement active aujourd’hui et les travaux actuels du domaine reposent sur bien des concepts qu’elle a introduit en terme de réplication, tolérance aux défaillances, etc. Elles s’est en particulier attaquée à l’algorithmique Byzantine, qui consiste à tolérer la présence d’entités malicieuses (attaques ou fautes matérielles ou logicielles aléatoires) dans un système.

    L’avantage de mettre autant de temps à récompenser les femmes dans cette discipline jeune est qu’elles sont toujours actives !  J’ai eu la chance de rencontrer Barbara Liskov, une grande dame de ma discipline, que nous admirons tous beaucoup et qui est en particulier une fervente défenseure de la cause féminine. Elle a beaucoup contribué à renforcer la présence des femmes professeurs au MIT, et met beaucoup d’énergie pour animer la communauté des femmes en système en particulier.

    Shafi Goldwasser Source Wikipedia
    Shafi Goldwasser
    Source Wikipedia

    2012 : Shafi Goldwasser  reçoit, avec Silvio Micali, le prix Turing pour ses travaux  dans le domaine de la cryptographie et de la preuve informatique. C’est un peu comme si Babbage avait partagé son prix de la Royal Academy of Astronomy avec Ada… Shafi Goldwasser est née seulement en 1958 et son nom est déjà célèbre dans le domaine de la cryptographie. Cette volontaire et énergique Professeure au MIT est connue en particulier pour ses contributions pionnières dans le domaine de la cryptographie et des « preuves interactives connaissance-zéro ».

    Durant ses études à Carnegie Mellon University, Shafi effectue un stage à RAND Corporation qui lui fait découvrir la Californie et surtout Berkeley où elle commence un doctorat sous l’égide du très connu Dave Patterson. Elle rencontre son brillant collaborateur Silvio Micali et commence à s’intéresser à la cryptographie. La cryptographie est un cauchemar à expliquer. Pour simplifier disons que l’une des contributions majeures de Shafi a été cette « preuve interactive connaissance-zéro », qui désigne une méthode dans laquelle une entité prouve à une autre entité qu’une proposition est vraie mais ne donne aucun autre élément que la véracité de la proposition. La dernière fois que l’on m’a expliqué ce concept, c’était justement Shafi Goldwasser, qui nous avait fait le plaisir d’honorer de sa présence un évènement scientifique que nous organisons pour les étudiants. Une célébrité très accessible.

    zeroPreuve interactive connaissance-zéro, Wikipedia

    Le principe de la « preuve interactive connaissance-zéro » est souvent expliquée de la manière suivante (source wikipedia). Imaginons Peggy (en rose sur l’image, une fois n’est pas coutume) et Victor (en vert), Victor souhaite savoir si Peggy connaît le code d’un passage secret entre une allée A et une allée B d’une cave. L’objectif de Peggy est de lui montrer qu’elle connaît le code sans le divulguer. Peggy entre dans la cave sans que Victor ne sache par quelle allée elle est entrée. Victor lui demande de sortir par l’une des allées, A ou B.  Si Peggy connaît le code et que Victor lui demande de sortir par l’allée A, peu importe l’allée par laquelle elle est entrée, elle sortira par A (en ouvrant le passage secret si elle est entrée par B). Sinon elle a seulement une chance sur deux de sortir par l’allée demandée. En répétant cette opération (interactive) plusieurs fois, la probabilité que Peggy sorte par l’allée demandée devient très petite si elle ne connaît pas le code. Ainsi ceci fournit un moyen de  vérifier que Peggy connaît le code (preuve) sans que Peggy ait à divulguer d’information (connaissance-zéro). Expliquer cet exemple est déjà un défi, quand à le prouver, cela vaut bien un Turing Award  !

    À quand la super production Hollywoodienne qui nous portera tout ça à l’écran ?

    Anne-Marie Kermarrec, Inria Bretagne

     

  • Des robots et des humains

    Sur Interstices, la revue scientifique sur les sciences du numérique, Jean-Pierre Merlet, enrichit la rubrique sur la robotique d’une réflexion sur les problèmes soulevés par l’apparition de la robotique de service, et le fait que les robots évoluent de plus en plus au contact des humains. Un grand merci de nous permettre de reprendre ce billet ici. Thierry Viéville.

    © Inria / Photo H. Raguet

    Jusqu’à une période récente, l’utilisation des robots se cantonnait à des lieux où la présence humaine était totalement prohibée. Dans la plupart des cas, ces applications justifiaient l’étymologie du mot robot, qui vient de robota : corvée, travail pénible. Nous assistons actuellement à une évolution phénoménale de ce domaine avec, en particulier, l’apparition de la robotique de service. Les robots vont pénétrer dans tous les milieux, y compris dans la sphère privée. Ce changement s’accomplit suivant deux directions :

    • Des dispositifs spécialisés dans l’exécution d’une tâche. On peut citer en exemple les aspirateurs ou les tondeuses robotisées. Ils dérivent d’objets déjà présents dans les milieux humains, c’est l’évolution technologique et scientifique qui les a rapprochés de la robotique. Les drones s’apparentent aussi à cette catégorie.
    • Des dispositifs multi-fonctionnels, qui affichent en particulier des objectifs de symbiose avec l’humain. Pour simplifier, appelons-les « robots futuristes ». Les plus popularisés médiatiquement sont  les robots humanoïdes. Lorsque est affichée l’ambition que le robot devienne un véritable partenaire pour l’homme, on parle de robot compagnon. On est ici très proche des mythes antiques comme les servantes artificielles du dieu boiteux Héphaïstos ou de la machine servante de Saint Albert le Grand qui, selon la légende, a été démolie à grands coups de canne par Saint Thomas d’Aquin qui y voyait un suppôt de Satan. Il existe également des animaux de compagnie robotisés comme le chien AIBO ou le phoque PARO. Les exo-squelettes comme l’ATLAS du CEA ont pour objectif de suppléer à des déficits de mobilité, voire d’augmenter la mobilité humaine. Les robots de collaboration (cobot) assistent au plus près le travailleur humain.

    Un débat s’est engagé dans la communauté robotique pour déterminer si dans un futur relativement proche ces robots s’imposeraient. Examinons cette question non seulement d’un point de vue scientifique et technologique mais aussi d’un point de vue sociétal, sous l’angle de l’acceptation, des enjeux éthiques, etc.

    Des progrès matériels

    Arduino316Carte Arduino – Photo by Nicholas Zambetti
    [CC BY-SA 3.0 or CC BY-SA 3.0], via Wikimedia Commons

    Les dispositifs spécifiques se développent grâce aux nouveaux matériels informatiques, des processeurs à très bas coût comme le Raspberry ou les Arduino qui ont été conçus pour permettre d’interfacer en quelques minutes les capteurs nécessaires aux robots, capteurs dont les coûts ont considérablement baissé. La recherche en robotique bénéficie de cette évolution : il est désormais possible de réaliser en quelques heures et pour quelques centaines d’euros seulement des robots qui auraient nécessité, ne serait-ce qu’il y a 10 ans, des centaines d’heures de travail et des dizaines de milliers d’euros.

    Les robots futuristes bénéficient eux aussi des progrès en informatique, qui leur permettent de disposer d’une puissance de calcul importante, nécessaire même pour des fonctions basiques. Ainsi, le robot humanoïde NAO, un gros succès de la robotique française dont on a tout lieu de se réjouir, compte 25 servomoteurs qu’il faut simultanément contrôler pour que le robot puisse simplement marcher. Toutefois, cette puissance de calcul reste insuffisante. Ainsi, des robots encore plus sophistiqués, comme ceux utilisés pour les derniers challenges DARPA, souffrent d’une lenteur d’exécution visible sur les vidéos de présentation.

    C’est une chose d’obtenir des flux de données massifs issus des capteurs sensoriels. Mais, même en disposant d’une multitude de moteurs, c’en est une autre d’exploiter ces flux, très bruités, pour réaliser une tâche simple comme ouvrir un placard quel qu’en soit le mode d’ouverture, ceci en dépit des progrès réalisés en apprentissage automatique (machine learning). Les robots humanoïdes peuvent réaliser avec élégance quelques tâches spécifiques, ce qui a toutefois nécessité un long travail de la part des mathématiciens et des automaticiens. Bien que la complexité de ces robots justifie pleinement un effort de recherche, il faut cependant reconnaître, au risque de heurter certains roboticiens, que l’expression « robots intelligents » prête à sourire, tant ils font preuve dans beaucoup de cas d’une stupidité déconcertante. Il convient d’ailleurs de ne pas se leurrer sur certaines vidéos spectaculaires comme celle du robot ASIMO serrant la main du premier ministre chinois… alors qu’il est discrètement téléopéré.

    Des barrières techniques et économiques

    Outre ces limitations « intellectuelles », les robots humanoïdes sont confrontés à des barrières physiques et économiques. La première de ces barrières est liée à la physique de la manipulation : un NAO, malgré son incroyable succès médiatique, aura du mal à soulever un boulon de voiture, tandis qu’un robot capable de soulever 30 kilos en pèsera 600 et requerra 7 kW de puissance électrique, soit un rendement de 5 à 10 %. Cette faible efficacité n’est pas due à un mauvais rendement des actionneurs, qui au contraire est excellent, mais à la structure même du robot : la recherche de l’universalité dans l’exécution des tâches a imposé des architectures mécaniques où une partie importante de l’énergie est consacrée à l’équilibre de la structure au détriment de l’énergie affectée à la tâche.

    Et ce mauvais rendement conduit à se heurter à une autre barrière : l’autonomie énergétique. Certaines tâches courantes comme relever une personne ou monter une roue de voiture requièrent une énergie importante. De ce fait, elles sont hors de portée des robots humanoïdes, dont l’autonomie se limite à quelques dizaines de minutes sans réaliser ce genre de tâches.

    Une autre barrière est le coût. Les robots humanoïdes font appel à un nombre important d’actionneurs et de capteurs. Ces derniers ont vu leur prix considérablement baisser, mais restent encore souvent relativement coûteux, entre 1000 et 5000 euros pour un scanner laser par exemple. Pour les actionneurs, on fait actuellement appel à des composants industriels très standards et massivement diffusés, dont il semble peu probable que le prix puisse fortement baisser. On entend souvent parler de nouveaux types d’actionneurs, moins coûteux, mais sans mentionner leur rendement. Par ailleurs, une intégration plus poussée faciliterait certainement leur mise en œuvre, mais ne devrait pas avoir un impact considérable sur le coût. Actuellement, il faut compter plusieurs milliers d’euros pour un simple robot de téléprésence, 15 000 euros pour un NAO et plusieurs centaines de milliers d’euros pour un humanoïde de taille plus conséquente. Il y a aussi eu quelques effets d’annonce pour les cobots avec des prix très attractifs comparés aux robots industriels classiques. Mais un examen des robots présentés montre qu’ils ont une puissance et une dextérité réduites, ce qui en limite forcément les usages.

    Des mécanismes d’acceptation

    Spreading the Gospel of Robot Love« Les robots sont vos amis » – Source : Flickr / Photo Thomas Hawk

    Une barrière commune à tous ces robots est le problème de l’acceptation par l’humain. Il est probablement moins critique pour certains robots spécifiques, simplement dérivés d’objets du quotidien. D’autres, dont le design s’éloigne de l’objet équivalent, peuvent susciter une appropriation forte. Par exemple, il existe des sites qui proposent des habits pour personnaliser des robots aspirateurs, comme s’il s’agissait d’un animal de compagnie.

    Toutefois, d’autres robots spécifiques posent des problèmes d’acceptation : par exemple, l’utilisation des drones offrant la possibilité de pénétrer dans la sphère privée de tout individu a fait l’objet de réactions très violentes, allant jusqu’à la menace de les abattre.

    Pour les robots humanoïdes, le mécanisme psychologique de l’acceptation, qui peut être extrême — du rejet brutal et définitif à une appropriation proche du fétichisme —, n’est pas bien compris.

    Une théorie de l’acception est très en vogue en robotique humanoïde : la « vallée dérangeante » (Uncanny Valley). Elle explique que la non-acceptation est liée à des défauts d’apparence entre le robot et l’humain, qui sont jugés d’autant plus repoussants que sur d’autres aspects il peut faire illusion. En conséquence, un robot presque parfait peut être encore plus violemment rejeté que son prédecesseur. Mais la théorie stipule qu’une proximité encore plus proche permettra de passer ce creux, cette vallée du rejet, pour atteindre une acceptation complète. Cette théorie est toutefois très contestée car certaines études, comme celle menée par Christoph Bartneck, semblent montrer que même le plus parfait des humanoïdes n’atteindra jamais le seuil d’acceptation de robots plus simples dont l’apparence les fait classer clairement dans la catégorie des « machines » : la vallée serait plutôt une falaise inaccessible.

    On sait en tout cas que les outils classiques d’évaluation comme les questionnaires sont souvent biaisés, car l’objet évalué est très proche de l’humain.  Ainsi, les réponses traduisent plus l’image que l’utilisateur veut donner de lui vis-à-vis des nouvelles technologies que sa réelle appréciation du robot. Pourtant, l’étude de l’acceptation potentielle, en interaction avec des disciplines de sciences humaines et sociales,  devrait intervenir très en amont de la conception, car elle peut imposer des contraintes scientifiques et technologiques très fortes. Par exemple, le président d’une association mondiale de handicapés, en fauteuil roulant, à qui l’on demandait quelles fonctionnalités il aimerait pouvoir ajouter à son fauteuil, a simplement répondu « qu’il soit beau, sinon c’est un frein à mes relations sociales, en particulier avec les enfants ».

    Des questions éthiques

    Les robots humanoïdes posent aussi de nombreux problèmes d’éthique. La liste en est trop longue pour tous les exposer, mais l’on peut en citer quelques-uns. La proximité avec des humains de machines qui peuvent être relativement puissantes  ou qui sont censées les assister soulève des questions de risque et de responsabilité en cas d’accident. On évolue dans un domaine où la législation est encore extrêmement sommaire. Il est parfois invoqué l’implantation dans les robots des trois lois de la robotique d’Isaac Asimov pour assurer la protection des humains. Indépendamment du fait qu’on n’ait actuellement aucune idée du comment, c’est un peu vite oublier qu’Asimov s’est lui-même amusé à expliquer comment les détourner (dans son roman Face aux feux du Soleil par exemple).

    Outre la gestion des risques, on peut se poser des questions sur le rôle des robots dans l’interaction sociale. En admettant que cela soit possible, est-il souhaitable qu’un robot devienne un substitut aux relations humaines ? On peut par exemple parfaitement envisager que la société, poussée par des contraintes économiques ou par sa propre évolution, réduise l’aide humaine aux personnes fragiles pour la remplacer par des machines. Dans Face aux feux du Soleil, Asimov décrit d’ailleurs une société qui a poussé la substitution jusqu’au bout, avec des humains devenus incapables d’assumer la présence physique de leurs semblables.

    Dans un autre registre, la robotique, ou des technologies qui en sont dérivées, laissent entrevoir la possibilité de dispositifs d’assistance et de monitoring de la santé qui incontestablement pourraient avoir des impacts positifs. Elles permettraient par exemple de gérer voire de prévenir la chute des personnes âgées qui, chaque année, cause en France la mort de 10 000 personnes. Le premier problème éthique concerne la protection des données médicales recueillies, dont on ne peut pas exclure qu’elles soient utilisées à des fins malveillantes ou pour des escroqueries. Un second problème est soulevé par des psychologues qui craignent un risque de changement de comportement chez les utilisateurs. Les adeptes du Quantified self pourraient en effet devenir totalement fascinés par ces données, même s’ils s’en défendent vigoureusement. Ces psychologues soulignent que ces données peuvent modifier, parfois en mal, la perception d’événements de la vie courante.

    Reconstitution d’un appartement complet expérimental. Cet appartement sera équipé d’une grue à cables, MARIONET-ASSIST, permettant d’aider au lever et à la marche et offrant des possibilités de manipulation d’objets. Il comportera aussi des objets communicants qui aideront à résoudre des problèmes de détresse, comme une chute.
    © Inria / Photo Kaksonen.

     

    Ces mêmes psychologues parlent aussi du risque de perte de l’imprévu, un élément pourtant essentiel dans la vie humaine, dans le cas où l’on suivrait trop strictement les recommandations de ces dispositifs, par exemple, ne pas goûter un aliment exotique parce que sa composition est inconnue ou qu’elle n’est pas à 100% compatible avec les recommandations de l’appareil. Des robots « prescripteurs » ne seraient pas simplement des machines destinées à supprimer ou alléger l’exécution de certains robota, car ils pourraient aller bien plus loin dans leur influence sur leur partenaire humain, de façon parfois fort subtile. La position des autorités de régulation sur ces problèmes est encore incertaine : par exemple, l’autorité américaine de la santé a récemment indiqué que les applications mobiles qui sont censées ne fournir que des informations sur l’état de santé de l’utilisateur, sans émettre de recommandations, ne seraient pas tenues d’être enregistrées auprès de cet organisme et ne font donc l’objet d’aucune vérification de fiabilité. Qu’en serait-il si l’application résidait dans un robot compagnon ?

    Conclusion

    L’évolution scientifique et technologique permet d’envisager l’utilisation de robots au plus proche de l’humain, certainement avec des effets bénéfiques et des perspectives scientifiques très riches et multidisciplinaires combinant théories et expérimentations. Toutefois, cette potentialité d’impact et la richesse scientifique des problématiques représentent paradoxalement un obstacle au développement du domaine. En effet, elles compliquent l’évaluation de cette recherche, qui nécessite un regard croisé d’experts de sphères différentes. De plus, les développements et les impacts potentiels sont forcément de long terme. Ils sont donc peu compatibles avec le fonctionnement par appel à projet, courant sur des délais relativement courts, alors que le montage d’une seule expérimentation avec des humains peut nécessiter plusieurs années.

    Néanmoins, la perspective de robots « intelligents », capables d’accomplir de manière autonome un large éventail de tâches, incluant une interaction profonde avec un humain allant au-delà d’un rapport entre humain et animal, semble être une vision très lointaine dans le temps, même si la présentation médiatique de la robotique peut laisser croire le contraire. Les raisons de cet éloignement dans le temps, outre la difficulté d’élaborer des schémas intellectuels convaincants, repose sur des problématiques physiques et technologiques dont la résolution suppose un nombre important de ruptures technologiques majeures. Et, bien entendu, resteront posés des problèmes d’éthique, de droit et de choix de société qui sont pour le moment très peu traités.

    Jean-Pierre Merlet. Version originale : https://interstices.info/robots-et-humains.

  • Dominik, collégien et citoyen

    Journée Concertation Nationale à Nantes. J’anime un atelier sur l’éducation au numérique – vaste chantier. Dans les participants, Dominik Abbas, en 4ème au collège Saint Stanislas de Nantes.
    Des hobbies ? Astronautique, Sciences, Littérature, Citoyenneté.
    Un jeune très sympa qui m’impressionne par sa compréhension du sujet traité. J’ai rencontré des décideurs avec plein de diplômes qui devraient l’écouter. Alors je lui ai proposé de prendre la parole dans Binaire. L’informatique à l’école par un des élèves qui la vit. Serge Abiteboul.
    PS : je précise que le texte est intégralement de lui.

    BLS Maisoncelles du Maine du 20 au 26 juillet 2014, 25 juillet (11)Dominik Abbas, © Dominik Abbas

    Ce matin là, comme tous les lundis,  il est un peu plus de 8 heures lorsque je franchis le portail du collège. Ce matin là,  débat sur les programmes scolaires.  En général, les élèves aiment bien se disputer, mais il y a une question qui a toujours la même réponse : « Dans quel domaine l’école a-t-elle le plus de retard ? ». La réponse est donnée en chœur : « L’informatique!  »

    Pour s’en rendre compte,  il ne faut pas aller bien loin, il suffit d’ouvrir les yeux durant un cours de Géographie réalisé dans LA salle informatique,  celle où l’imprimante ne marche pas,  celle où il y a Internet tant qu’il n’y a pas plus de deux ordis allumés. Quand ceux-ci veulent bien s’allumer. Très vite les questions fusent :

    • Où c’est qu’on allume Google ?
    • Pourquoi ma session ne marche plus ?
    • Etc…

    Alors, comment en est-on arrivé là ? En effet, on ne prend pas dix ans de retard du jour au lendemain.

    Voici comment je l’ai vécu. En CE1, on possédait au fond de la classe un seul ordinateur, une véritable antiquité,  et ce fut comme ça jusqu’en CM2. Et c’est encore comme ça dans bien des écoles.  Les rares professeurs qui n’étaient pas découragés par le matériel devaient se débrouiller tant bien que mal afin d’élaborer des activités dignes de ce nom.
    Aujourd’hui encore,  dans mon collège, le matériel manque,  la couverture wifi est inexistante, etc…

    Le problème vient de tout un tas de choses. À commencer par les fournitures en matériel informatique, qui relèvent trop souvent du gadget. Pourquoi investir dans des tableaux blanc interactifs dernier cri alors que la plupart des salles de cours n’ont même pas de vidéo-projecteur ? Comme bien souvent, pas de réponse.

    Vient ensuite la formation de nos chers professeurs. Comment se fait-il qu’une grande partie d’entre eux ne sait même pas utiliser correctement un traitement de texte ? Encore une fois, pas de réponse.

    La liste, on pourrait la continuer encore longtemps, mais je vais l’écourter ici. Mais la vraie origine de tout cela, vient tout simplement du fait qu’il y a quelques années,  le ministère de l’éducation nationale n’a pas su prendre le tournant du numérique et de l’informatique.

    Il n’est cependant, à mon avis,  pas encore trop tard. Ce retard, on peut le rattraper, et on le rattrapera grâce à l’action du gouvernement, mais aussi des citoyens. Un exemple simple est la concertation citoyenne qui s’est close à Nantes il y a quelques semaines. À l’initiative du conseil national du numérique, des citoyens se sont rencontrés et ont débattus sur les changements qu’il est temps de faire. Il en résultera une synthèse qui sera remise très bientôt au gouvernement. Mais je pourrais  également citer le rapport Jules Ferry 3.0, qui a dressé un tour d’horizon du numérique à l’école et qui a proposé des solutions aux problèmes.

    Oui, j’en suis persuadé,  le retard sera comblé, même si ce ne sera pas tout de suite, …

    Dominik Abbas, @DominikAbbas collégien

  • Neutralité du réseau : Et si on faisait comme les ricains ?

    Merci Obama ! 
    On s’attend à ce que La Federal Communications Commission aux États-Unis d’Amérique reconnaisse jeudi les services Internet comme un bien public. C’est un changement majeur pour qu’Internet reste un espace de liberté et pas une jungle trustée par quelques uns. Yes!

    Pour en savoir plus :

    Et, en complément, grâce à l’Isoloir nous apprenons que :

    « La Neutralité de l’Internet est tout simplement le principe de non-discrimination des utilisateurs : un utilisateur, quel qu’il soit – grand média ou petit blog, célébrité ou anonyme -, doit pouvoir accéder et diffuser de la même manière les informations. C’est cette extrême égalité qui a permis que se développent les services ultra-innovants sur Internet.  Cela signifie concrètement plusieurs choses :

    • D’abord, acheminer les données sans en examiner le contenu, sans en altérer le contenu, et sans tenir compte de la source, de la cible et de la façon dont on communique (on parle du protocole de communication). C’est la neutralité au niveau des « tuyaux » de l’information.
    • Mais il faut aussi garantir la visibilité de l’information (c’est-à-dire garantir qu’elle ne sera pas « noyée » dans une masse d’informations davantage mises en valeur.

    C’est pourquoi, au sujet de la neutralité d’Internet, le CNNum (Conseil National du Numérique) recommande que : « la neutralité des réseaux de communication, des infrastructures et des services d’accès et de communication ouverts au public par voie électronique garantisse l’accès à l’information et aux moyens d’expression à des conditions non-discriminatoires, équitables et transparentes ».

    Serge Abiteboul, Thierry Vieville

     

  • Le vote papier est-il réellement plus sûr que l’électronique ?

    Pourquoi donc remettre en cause la supériorité du vote «papier», en matière de garanties de sécurité et transparence ? Le vote électronique suscite à raison de nombreuses craintes, en partie évoquées dans un précédent billet de Véronique Cortier, directrice de recherche au CNRS. Comment s’assurer de la confidentialité des votes ? Comment se convaincre que son bulletin a bien été pris en compte ? Comment assurer la sincérité du scrutin ? Ces questions sont parfaitement légitimes et les systèmes de vote électronique n’y apportent pas encore de réponse claire. Mais les mêmes questions se posent pour les scrutins qui ont recours au « papier ».

    Le cas du vote traditionnel à l’urne

    Le premier système de vote qui vient à l’esprit est le vote traditionnel à l’urne, où chaque électeur dépose son bulletin dans une urne. L’isoloir et l’enveloppe visent à assurer la confidentialité des votes. L’urne transparente et le dépouillement public permettent à tout à chacun de vérifier le décompte des voix. Même si des fraudes peuvent avoir lieu, le vote à l’urne offre un très bon niveau de sécurité, sous réserve que l’urne soit surveillée sans relâche, de l’ouverture du scrutin au dépouillement, par un groupe de personnes représentant si possible chaque partie en lice. La surveillance de l’urne semble une évidence mais n’est pas toujours facile à réaliser pour des élections à enjeux modérés où il est souvent difficile de trouver des volontaires pour tenir l’urne et assister au dépouillement.

    Le vote par correspondance, un faux sentiment de sécurité

    Si le vote traditionnel à l’urne est bien compris et offre de bonnes garanties en matière de confidentialité et de transparence, il en est autrement du vote par correspondance. Comment voter par correspondance ? Le principe le plus simple consiste à mettre son bulletin dans une première enveloppe, glissée dans une deuxième enveloppe signée par l’électeur (pour permettre l’émargement), le tout envoyé dans une troisième enveloppe expédiée au centre gérant l’élection. Comment s’assurer que les trois enveloppes ne seront pas ouvertes en même temps, brisant ainsi la confidentialité du vote ? Comment être certain que des bulletins n’ont pas été ajoutés (ou supprimés) avant le dépouillement ? L’électeur doit faire une entière confiance aux organisateurs de l’élection ainsi qu’à toute la chaîne de traitement. Des fraudes provenant de personnes malveillantes extérieures à l’organisation de l’élection sont également possibles. Il est techniquement facile d’imiter la signature de quelques abstentionnistes pour ajouter des votes de son choix. La participation étant souvent faible, le nombre de bulletins nécessaires pour modifier le résultat de l’élection est en général peu important.

    Des attaques existent aussi sur des systèmes plus complexes

    Des systèmes de vote par correspondance plus complexes ont été mis au point pour permettre un dépouillement mécanisé. Certains systèmes utilisent ainsi des codes à barres, notamment pour identifier (de façon anonyme) l’électeur. Le fait d’utiliser du papier rend le système rassurant mais pas sûr pour autant. Il a été démontré que, pour certains systèmes, il est possible de reconstituer l’ensemble des matériels de vote envoyés aux électeurs, ouvrant ainsi la porte à un « bourrage d’urne ».

    Un bilan nuancé

    À l’heure actuelle, il n’y a pas de raison de penser que le vote électronique puisse remplacer avantageusement le vote traditionnel à l’urne, pour les scrutins où l’urne est correctement surveillée. Non seulement le vote électronique soulève de nouveaux défis techniques en matière de sécurité mais les solutions proposées sont complexes et accessibles uniquement à des spécialistes du sujet. Il semble impossible d’atteindre la simplicité du vote à l’urne.

    La comparaison entre vote électronique et vote papier amène des conclusions plus nuancées en matière de vote par correspondance. Dans les deux cas, l’électeur n’a plus de contrôle direct sur l’urne et le dépouillement. Il s’agit donc d’exercer le même esprit critique sur les systèmes de vote électronique que sur leurs homoloques « papier », en analysant les risques liés aux enjeux du scrutin.

    Véronique Cortier, CNRS – Nancy

  • 69, année informatique

    Retour vers le passé. On situe parfois les premières expériences de l’enseignement de l’informatique dans l’Éducation Nationale  dans les années 1970 ou 80. Une enseignante de classe préparatoire raconte à Binaire qu’elle a rencontré ses premiers algorithmes en 1969, alors qu’elle était en 5ème, au lycée  Paul Bert, à Paris. Un beau moment nostalgie. Serge Abiteboul et Colin de la Higuera.

    Depuis 1968, notre classe expérimentait les nouveaux programmes de « mathématiques modernes », sous la houlette de notre professeur, Mme Juliette Berry. Notre lycée comportait une classe équipée pour des cours de cuisine – normal pour un lycée de filles, à l’époque … – et c’est là qu’un jour nous avons eu notre premier contact avec la machine «  Curta ». Ce calculateur, dont je me souviens particulièrement du cliquetis assez bruyant, fonctionnait avec un système de codage assez primitif …

    exercices_berry
    Extrait du cahier de cinquième, des feuilles reproduites avec des machines à alcool (d’où l’encre violette) que distribuait le professeur.

    et bien sûr, pas d’écran, pas de souris : uniquement un gros rouleau de papier, et l’allure de ces anciennes machines de caisses dans les magasins. Personne ne prévoyait à ce moment-là l’essor de l’informatique !

    Pour ma part, j’ai passé quatre années merveilleuses (tout le collège) dans la classe de Mme Berry. (Je profite de l’occasion pour rendre hommage à cette enseignante charismatique et si inspirée !) Nous travaillions sur des thèmes qui ne sont maintenant abordés qu’en classes préparatoires aux grandes écoles, hélas ! Les raisonnements rigoureux à l’époque ne nous faisaient pas peur, même si ce n’était pas toujours facile, et cinquante ans après, je bénéficie toujours de cette formation de qualité.

    Après la découverte des Sciences Physiques au Lycée, dans la classe de Mme Charue, je me suis orientée vers cette discipline. Après un passage par les classes prépa de Louis le Grand, et l’ENS de Fontenay, puis l’agrégation,  j’enseigne depuis 1988 en classes préparatoires.

    A priori, j’aurais pu ne jamais repenser à ce premier contact avec l’informatique. C’était sans compter sur l’Éducation Nationale, qui a demandé il y a deux ans aux enseignants de nos classes de prendre en charge un nouvel enseignement d’informatique. Aucun enseignant spécialisé n’ayant été prévu, je me suis donc retrouvée embarquée dans cette nouvelle aventure. J’ai découvert sur des livres d’informatique le nom de Gérard Berry, un des enfants de Juliette : Il était devenu un grand spécialiste de la discipline. Les souvenirs sont revenus, et en fouillant dans des cartons, j’ai  retrouvé mes cahiers de l’époque. La boucle était bouclée… J’y ai retrouvé des algorigrammes(*), dont j’avais oublié le détail, à vrai dire. Quel choc de constater que la forme était si proche de ce qui se fait d’aujourd’hui !

    J’ai souvenir d’avoir alors travaillé  – déjà – à ces classiques de l’informatique : comment savoir si un nombre est premier ? Comment chercher un pgcd, ou un ppcm ? Des expériences équivalentes ont-elles eu lieu dans des lycées de garçons ? C’est probable, mais je n’ai aucune information sur le sujet.

    Alors, en ce début de l’année 2015, destinée à promouvoir les femmes en informatique, il faut le dire haut et fort : oui, les filles ont été des pionnières en ce domaine !

    Catherine Leiser

    (*) Organigramme de programmation, c’est-à-dire une représentation graphique de l’enchaînement des opérations et des décisions effectuées par un programme d’ordinateur.

    organigramme_Berry_2
    Extrait du cahier de cinquième, des feuilles reproduites avec des machines à alcool (d’où l’encre violette) que nous distribuait notre professeur, et que nous devions coller dans le cahier.
    Berry_Organigramme
    Algorigramme. Les coloriages sont garantis d’époque.

    Et pour finir, deux poèmes écrits à Mme Berry par ses élèves. Ils ont été lus par Madame la Ministre Najat Vallaud-Belkacem lors de la remise de la médaille d’or du CNRS à Gérard Berry.


    PoèmeClasse-1PoèmeClasse-2

  • Qu’est-ce qu’un bon système de vote ?

    C’est la question que Binaire a posée à Véronique Cortier, Directrice de recherche au CNRS à Nancy. Cette spécialiste de la sécurité informatique nous répond.

    De nombreux scrutins se font désormais par voie électronique. L’actualité est très riche en la matière avec les élections au sein de l’UMP (qui finalement seront faites en version papier) ou les élections professionnelles au sein du Ministère de l’Éducation Nationale. Le vote électronique concerne également de nombreux scrutins dont le nombre d’électeurs est plus limité comme l’élection de conseils (conseil d’administration, conseil scientifique, ou simplement conseil de collège ou de lycée). L’irruption des scrutins par voie numérique (on parle de « vote électronique ») soulève de nouveaux enjeux en termes de garanties de bon fonctionnement et de sécurité informatique : comment m’assurer que mon vote sera bien pris en compte ? Est-ce qu’un tiers peut savoir comment j’ai voté ? Puis-je faire confiance au résultat annoncé ? Nous faisons ici un tour d’horizon des propriétés souhaitables pour le vote électronique en nous appuyant sur l’exemple du vote traditionnel à l’urne tel qu’il est organisé en France lors des élections municipales par exemple.

    Vote à New-York vers 1900Salle de vote à New-York en 1900 (E. Benjamin Andrews – Source Wikimedia)

    1. Confidentialité : le maître mot !

    Nul ne doit connaître le vote d’un électeur. Dans le cas d’un vote à l’urne, on parle alors d’un vote à bulletins secrets : l’électeur glisse son bulletin dans une enveloppe, à l’abri des regards dans l’isoloir. Pour des élections à enjeux importants, la confidentialité stricte ne suffit pas : un électeur ne doit pas pouvoir révéler comment il a voté, même s’il le souhaite. Pourquoi donc ? Tout simplement pour se protéger contre l’achat de vote ou la coercition. Si je peux prouver comment j’ai voté, alors il m’est possible de vendre mon vote : contre une certaine somme d’argent (ou sous la menace), je peux donner une preuve que j’ai bien voté comme un tiers l’aurait souhaité. C’est pour cette raison que, lors d’un vote à l’urne, ni l’enveloppe ni le bulletin ne doivent porter un quelconque signe permettant d’identifier l’électeur, sous peine d’être considérés comme nuls. Notons au passage que le vote traditionnel à l’urne permet donc l’abstention forcée : il est possible de forcer un électeur à voter « nul » en lui demandant d’apposer sur son bulletin un signe particulier, convenu à l’avance. La présence de signe peut être vérifiée lors du dépouillement public.

    2. Sincérité et transparence du scrutin : un contrat de confiance

    Le principe même d’une élection est que les électeurs dans leur ensemble acceptent de se conformer au résultat de l’élection. Encore faut-il avoir confiance en la sincérité du scrutin, c’est-à-dire pouvoir se convaincre que le résultat de l’élection correspond bien aux votes exprimés par les électeurs. On parle alors de vérifiabilité. Toujours dans le cas d’un vote traditionnel à l’urne, et quitte à surveiller l’urne toute la journée, il est possible de s’assurer que son bulletin est bien présent dans l’urne (vérifiabilité individuelle) et que les bulletins proviennent tous bien d’électeurs légitimes (vérifiabilité de la légitimité). Puis lors du dépouillement public, chacun peut se convaincre que le décompte des voix correspond bien aux bulletins déposés par les électeurs (vérifiabilité universelle).

    3. Disponibilité et accessibilité : le vote pour tous !

    Tous les électeurs doivent pouvoir voter. Voter ne doit pas demander de compétence technique particulière et doit rester accessible à des personnes en situation de handicap. D’autre part, il doit être possible de voter à tout moment pendant la durée du scrutin. Dans le cas du vote à l’urne, il est ainsi important que les bureaux de vote soient accessibles, en nombre suffisant et suffisamment longtemps pour éviter de longues files d’attente.

    Qu’en est-il dans le cas du vote électronique ?

    Si chaque électeur peut juger de la disponibilité et de l’accessibilité d’un système de vote, force est de constater qu’il est difficile de juger de la confidentialité et de la transparence en matière de vote électronique puisque le fonctionnement de ces systèmes est inconnu dans la grande majorité des cas. Par exemple, le fonctionnement du système mis en œuvre lors des précédentes élections au sein de l’UMP n’est pas public. On peut alors se tourner vers les recommandations de la CNIL (Commission Nationale de l’Informatique et des Libertés) en matière de vote électronique. La CNIL insiste notamment sur le fait que le bulletin doit être chiffré avant d’être envoyé : « Le bulletin de vote doit être chiffré par un algorithme public réputé « fort » dès son émission sur le poste de l’électeur et être stocké dans l’urne, en vue du dépouillement, sans avoir été déchiffré à aucun moment, même de manière transitoire. » Lors du dépouillement, il doit être impossible de faire le lien entre un bulletin et l’électeur correspondant. Ces recommandations visent à empêcher des personnes malveillantes d’avoir accès aux votes des électeurs lors du déroulé du scrutin ou du dépouillement, même s’il reste difficile de se prémunir contre des attaques menées directement sur l’ordinateur de l’électeur (un ordinateur infecté par un virus pourrait modifier le choix de l’électeur ou tout simplement l’envoyer à une personne tierce).

    La transparence, grande oubliée des systèmes électroniques actuels.

    Si la confidentialité des votes semble être au centre des préoccupations des sociétés commercialisant des systèmes de vote électronique (d’après leurs brochures commerciales), la transparence du scrutin est actuellement le parent pauvre du vote électronique. Point d’urne visible, point de dépouillement public ! Et bien sûr, toujours pas d’information sur les méthodes utilisées. Même si des précautions sont prises et que des « experts en informatique » ont pu avoir accès au système, l’électeur, lui, n’a a priori aucun moyen de s’assurer que son bulletin a bien été déposé dans l’urne, ni que le résultat annoncé correspond aux bulletins reçus. Les électeurs n’ont actuellement pas d’autre choix que de faire confiance aux autorités de l’élection et aux éventuels experts indépendants qui ont analysé le système.

    De « nouvelles » solutions existent (depuis 20 ans déjà !)

    La recherche en informatique a réalisé des progrès importants dans les 20 dernières années en matière de vote et de cryptographie. Il est désormais possible de mettre en œuvre des systèmes de vote qui ont une urne publique, sur une page web par exemple. Tout électeur peut vérifier que son bulletin est présent dans l’urne et peut vérifier le décompte des voix, sans remettre en cause la confidentialité des votes. Les lecteurs curieux pourront lire l’article « Vote par Internet » sur Interstices pour en apprendre un peu plus sur cette nouvelle génération de systèmes de vote électronique. Bien sûr, ces systèmes sont eux-mêmes loin de résoudre tous les problèmes du vote électronique, mais il est certainement possible de faire mieux que ce qui est proposé par les dispositifs actuellement déployés.

    Je vous donne rendez-vous dans un prochain article pour tenter de répondre à la question suivante : le vote papier est-il réellement plus sûr que le vote électronique ?

    Véronique Cortier CNRS – Nancy

  • Pour un joint…

    Serge et Colin nous parlent d’une opération très importante dans notre vie quotidienne, « la jointure », et nous expliquent même un algorithme pour la réaliser. Vous verrez que vous utilisez des jointures souvent sans le savoir et que si une bonne jointure peut toujours servir, une mauvaise peut porter atteinte à votre liberté.

    Prenons cette question hypothétique posée à un concours de la fonction publique. Peut-on lier par une jointure les bases de données de l’éducation nationale et de l’immigration ?

    1. Oui. Cela permet de détecter des personnes en situation irrégulière.
    2. Non. Cela pourrait décourager les personnes en situation irrégulière d’envoyer leurs enfants à l’école.

    Le choix entre (1) et (2) est un choix de société. Pour nous, c’est une obligation humaniste de décider (2). Aujourd’hui la plupart des élèves qui sortent de l’éducation nationale ne savent pas, peut-être vous ne savez pas, ce que c’est qu’une jointure. Nous pensons qu’il n’est pas possible de comprendre le monde numérique qui nous entoure sans comprendre ce que c’est que la jointure. Nous pensons qu’il n’est pas possible de faire de manière éclairée certains choix de société si on ne comprend pas ce que c’est que la jointure ? C’est pourquoi nous allons vous expliquer cette fameuse jointure…

    Vous utilisez quotidiennement des jointures

    Imaginez que vous voulez aller au cinéma ce soir. Vous demandez à Allociné « où puis-je voir Mommy ce soir près de chez moi ». L’information est probablement structurée chez Allociné dans une base de donnée de la manière suivante (très simplifiée) :

    joinL’information est répartie entre deux tables. La première dit quel cinéma passe quel film à quelle heure. La seconde donne le nom et l’adresse du cinéma. Observez l’utilisation d’identifiant pour chaque cinéma. C’est ce qui permet de faire une « jointure » (comprenez un pont) entre les deux tables et de trouver par exemple que « Imitation game » passe à 17:00 au Gaumont Opéra ».  Pour donner un autre exemple, quand vous cherchez les contacts de votre amie Alice sur Facebook, que faites vous ? Vous allez dans votre liste d’amis (une première table). Vous sélectionnez Alice et allez chercher ses contacts – dans une autre table. Une jointure ! Quand vous regardez les tweets que Twitter vous propose, que l’un d’entre eux, par exemple vient d’Inria et que vous cliquez pour voir les tweets récents d’Inria, une autre jointure ! On pourrait multiplier les exemples. Mais vous avez saisi l’importance de cette opération.

    Imaginez maintenant que la première table soit les services de l’immigration et la seconde, une base de données de l’éducation nationale. Oups ! Wikipédia nous raconte : « Le 21 mars 1974, la révélation par le quotidien Le Monde d’un projet gouvernemental tendant à identifier chaque citoyen par un numéro et d’interconnecter, via ce numéro, tous les fichiers de l’administration créa une vive émotion dans l’opinion publique. » C’est cette émotion qui a conduit à la création de la CNIL. Des jointures entre les tables de l’administration risquaient de mettre en cause des libertés fondamentales. Cet identifiant aurait joué le rôle de l’identifiant de salle de cinémas de l’exemple précédant. C’est donc bien une histoire de jointure.

    Pour conclure, nous allons vous présenter, en nous appuyant sur l’exemple du cinéma, l’algorithme le plus standard pour réaliser la jointure. Comme cela, nous espérons démystifier un peu pour vous cette opération.

    Un algorithme simple pour réaliser des jointures

    C’est peut-être ce que vous choisiriez si on vous demandait de réaliser manuellement la jointure.

    L’algorithme Tri-fusion 

    1. Tri : Vous commencez par trier la première table par ID-ciné croissant. Vous faites de même de la seconde table. Dans cet algorithme, ce qui prend le plus de temps c’est d’ailleurs typiquement ce tri des deux tables. Pour faire ce tri, vous utilisez votre algorithme de tri préféré. Voir plus loin un exemple d’algorithme de tri.
    2. Fusion : Vous inspectez ensuite les identifiants de ID-ciné par ordre croissant et pour chacun vous construisez (si c’est le cas) des résultats. C’est la partie la plus simple.

    Maintenant nous allons vous proposer un algorithme de tri – il en existe des tonnes. Interstices nous en propose une synthèse. Et on peut même le découvrir en dansant:

    Nous en donnons un qui est d’une simplicité effrayante :

    Algorithme Tri par diviser pour conquérir

    1. Coupez la relation en deux.
    2. Triez chaque morceau
      1. Si le morceau n’a qu’un élément, il est trié.
      2. Sinon réutilisez Tri par diviser pour conquérir
    3. Fusionnez les deux relations triées.

    Maintenant, heureusement que ce n’est pas l’algorithme qui est utilisé quand vous demandez un film. Le système utilise un « index » – qui ressemble dans l’idée à l’index à la fin d’un livre. On donne à l’index un identifiant de salle et il trouve directement l’enregistrement correspondant à ce cinéma en quelques millisecondes quand Tri-fusion pourrait prendre quelques secondes voire plus pour de grosses tables.

     

    La jointure n’est qu’une des opérations de l’algèbre relationnelle. Pour découvrir les autres, consultez ce Wandida.

    Voilà. Maintenant vous savez ce que c’est qu’une jointure. Et vous pouvez comprendre la question : Peut-on lier par une jointure les bases de données de l’éducation nationale et de l’immigration ? Ou pas.

    Serge Abiteboul et Colin de la Higuera

     

  • La nuit de l’info 2014

    Et voilà, la 7ème édition de la nuit de l’info s’est terminée le vendredi 5 décembre 2014 à 8h04 sur un nouveau record de participation avec plus de 2900 étudiants.

    Cette année, en lien avec l’actualité, les étudiants avaient à leur disposition toute une nuit pour inventer un système d’information a vocation humanitaire. C’était pour eux l’occasion de mettre leurs compétences au service des autres, dans un monde en crise où l’informatique pourrait être utilisée pour aider des populations en péril. Les scénarios sur lesquels ils ont travaillé permettraient d’aider les zones victimes d’épidémies ou de crise sanitaire, des réfugiés de guerre à la recherche de leurs proches, ou encore les ONG en charge des campagnes de prévention dans les zones à risques.

    Et cette année encore, les organisateurs de la nuit ont su répondre présent avec probablement l’un des plus beaux thèmes depuis le début de l’évènement : « UNE NUIT POUR INVENTER LES SYSTÈMES D’INFORMATION HUMANITAIRES DE DEMAIN »

    Les équipes, au nombre de 337, se sont affrontées dans ce challenge festif autour de l’informatique. Pendant toute la nuit, ils pouvaient répondre aux défis lancés par les nombreux partenaires industriels, pour tenter de décrocher les cadeaux associés. Défi du projet le plus surprenant, défi de la meilleure modélisation, il y en avait pour tous les gouts ! Chaque partenaire industriel, porteur de défi, amène dans la Nuit son cœur de métier, et défie les participants sur des problématiques qui lui sont chères, comme l’ergonomie ou encore la prise en compte du handicap.

    Mais la Nuit c’est plus que ça.  C’est avant tout un lieu de rencontres, d’échanges, de discussions où les entreprises partenaires viennent conseiller et soutenir les étudiants tout au long de la nuit. C’est l’occasion pour chacun de se faire remarquer, dans une ambiance festive : difficile d’imaginer dans un autre contexte de pouvoir discuter de développement logiciel avec un directeur d’agence alors que l’on est déguisé en panda ! La Nuit est aussi une formidable opportunité pour décrocher un stage ou un emploi auprès des entreprises soucieuses de faire connaitre leur nom mais aussi de repérer les petits génies de demain.  C’est une occasion unique où les étudiants de tous niveaux (DUT, Licence Pro, Master ou Ingénieur) éprouvent leurs compétences et sont confrontés à des exigences professionnelles sur une période inhabituelle.

    N’hésitez pas à consulter le site de la Nuit de l’info pour plus d’information. Qui sait, peut-être participerez-vous à l’édition 2015 ?

    Gaëtan Rey et Sébastien Mosser

  • Osons les cours d’informatique à l’école

    Tout le monde s’accorde (ou presque) pour dire que l’informatique est indispensable. En revanche, il y a un point qui fait frémir : quels cours supprimeriez-vous pour l’enseigner ? Retrouvez la tribune sur Slate.fr datée du 8 décembre 2014 de Colin de la Higuera, président de la Société Informatique de France (SIF) et Gilles Dowek, président du conseil du scientifique de cet espace de réflexion, de concertation sur les enjeux de l’informatique qu’est la SIF.

     

  • Barbie est moins conne qu’on le dit

    Barbie est moins conne* qu’on le dit.
    Barbie is ultimately not that a dummy**.

    Lorsque Casey Fiesler, Doctorante en Sciences Informatiques, a vu les fils de ces média sociaux déborder d’indignation à propos de l’incommensurable maladresse de la bande dessinée « Barbie: I Can Be a Computer Engineer » elle a fait une chose tout à fait constructive et utile pour toutes et tous nos enfants. Elle a réécrit ce qu’aurait du être une telle histoire. Et met en partage « Barbie, remixed : je peux (vraiment !) être ingénieure en informatique ». Un auteur du blog voisin bigbrowser.blog.lemonde.fr nous explique sa démarche.

    À notre tour*** d’aider parents et enfants à ne pas être victimes de tels poncifs. À réaliser que nous avons besoin des deux moitiés de l’humanité à égalité pour avancer au mieux sur tous les sujets. Voici la version française, à lire, offrir et partager sans modération ! Même la Mère ou le Père Noël pourrait glisser ces huit feuillets au pied du sapin.

    Barbie revisitée : « Je peux être ... ingénieure en informatique »

    Colin, Marie-Agnès, Pierre, Serge, Sylvie et Thierry.


    (*) Ici dans le sens de femme sotte, manquant d’intelligence et éventuellement prétentieuse.

    (**) [english traduction of this text] When Casey Fiesler, PhD student in Computer Science, discovered that her social media feeds have been full of outrage over the unboudned awkwardness of the comic « Barbie I Can Be a Computer Engineer » she simply did the constructive and useful think to do. For all small girls and boys: She rewrote what should have been such a story, i.e., « Barbie, remixed: I (really!) can be computer engineer« , as explained on bigbrowser.blog.lemonde.fr.
    It is our turn to contribute, helping parents and children not to be victims of such cliches. To help realizing that we need the two halves of humanity equaly treated to get the best on all subjects. Here is the French version of Casey’s work, to read, offer and share without moderation! Even Mother or Father Christmas can put some of them under the Christmas tree !

    (***) La traduction du travail de Casey Fiesler a été faite par Provence Traduction avec le soutien d’Inria .

  • Un algorithme : PageRank de Google

    Que se passe-t-il si on cherche Michael Jackson  sur Google ? On voit apparaître des liens vers des pages concernant le chanteur : sa vie, ses photos, ses clips, sa famille, ses fan clubs, sa mort, etc. Tout cela nous paraît bien logique a priori. Mais si l’on creuse un peu, cela devrait nous intriguer. Après tout, il y a des millions de pages avec la chaîne de caractères « Michael Jackson » sur le Web. Pourquoi Google ne nous propose rien sur Michael Jackson menuisier à Dallas ? Ou Michael Jackson professeur de chant à San Francisco ? Si vous étiez ce menuisier, vous pourriez même être outré de ne voir aucun lien vers une page qui parle de vous, alors que vous en avez publié des dizaines, en y incluant à chaque fois votre nom. Pourquoi de telles injustices ?

    En fait, Google propose des liens sur les pages du chanteur, car il suppose que c’est le chanteur qu’un internaute va chercher. Et il y a une forte probabilité que ce soit le cas… le plus souvent. Mais comment Google peut-il savoir qu’il y a une forte probabilité qu’un internaute recherche en général le chanteur plutôt que le menuisier ?

    Google ne le sait pas. Ce que Google sait, par contre, c’est que parmi toutes les pages qu’il gère et qui parlent de Michael Jackson (d’un certain Michael Jackson), celles concernant le chanteur sont les plus « importantes » (comprenez les plus « populaires »). La notion d’importance est mesurée par un algorithme, un de plus, parmi ceux qui régissent notre vie quotidienne.

    L’algorithme PageRank, inventé par Sergeï Brin et Larry Page, les deux fondateurs de Google, s’inspire des travaux de Jon Kleinberg d’IBM. PageRank était à l’origine du classement des résultats du moteur de recherche Google. Aujourd’hui, plus de deux cents autres critères sont utilisés pour classer ces résultats. La recette est secrète, ce qui ouvre la porte à toutes sortes de spéculations sur ce classement. Est-il vraiment neutre au sens de la neutralité des plateformes du Web ?

    Nous allons parler ici de l’algorithme PageRank original, dans une version très simplifiée, pour le rendre accessible à des non-informaticiens. Avant de se lancer dans sa description, il est important de savoir que PageRank travaille sur des pages indexées par des mots-clés, comme les mots « Michael » et « Jackson », des pages qui sont donc susceptibles d’être proposées à des utilisateurs comme réponses à une requête « Michael Jackson ». À l’heure actuelle, Google indexe près de 1012  pages. Il en indexait 109 en 2000. On est encore loin du 10100 : le fameux nombre « googol » qui a inspiré son nom à la société.

    En gros, PageRank calcule périodiquement l’importance relative des pages indexées sous forme d’un score. Lorsqu’on soumet une requête à Google, il nous affiche celles qui ont le score le plus élevé (id est celles du chanteur) parmi celles qui correspondent à cette requête (par exemple parmi toutes les pages connues du moteur de recherche contenant les mots  « Michael » et « Jackson »).

    Pour calculer le score des pages, PageRank se base sur les liens entre ces pages. En effet, chaque page cite un certain nombre d’autres pages : elle a des liens vers ces pages. Quelqu’un qui se trouve pendant sa navigation sur une page p peut y trouver un lien vers une page q et y aller directement. C’est ce qui se passe quand, dans une page Wikipedia sur PageRank, on rencontre un lien vers la page de Larry Page.

    L’idée de PageRank est de représenter le score d’une page p par la probabilité qu’un utilisateur qui se baladerait « au hasard » dans une bibliothèque constituée de toutes les pages du Web se retrouve sur la page p.  Cette probabilité est d’autant plus grande que :

    1. Il y a de nombreuses pages q qui ont des liens vers p ;
    2. Ces pages q ont elles-mêmes un score important (on a une forte probabilité de tomber sur elles) ;
    3. Ces pages q ont peu de liens vers d’autres pages qui pourraient distraire notre attention.

    Une manière de synthétiser (1), (2) et (3) est de faire la somme des scores des pages q ayant un lien vers p en divisant chacun par le nombre de liens sortant de q. Ainsi, en première approximation, si l’on représente par liens (q) le nombre de liens sortant d’une page q :
    Score(p) = Somme(Score(q)/liens(q))
    – pour toutes les pages q ayant un lien vers p

    Intuitivement, c’est comme si chaque page avait un certain nombre de votes, représenté par son score, et qu’elle pouvait partager ses votes entre toutes les pages qu’elle référence. Considérons le petit dessin ci-dessous représentant quatre pages : q ayant un lien vers p et p’ et q’ ayant un lien vers p’. Supposons par ailleurs que les scores de q et q’ sont 1.  On aura : Score(p) = 0.5 et Score(p’) = 1.5.

    En fait, l’algorithme PageRank prend aussi en compte le fait qu’un utilisateur qui se balade dans la bibliothèque peut aller directement d’une page à une autre sans passer par des liens, un peu comme s’il se téléportait par-dessus les murs de la bibliothèque. Plus précisément, PageRank relativise le score ci-dessus en le multipliant par un facteur d’atténuation d entre 0 et 1, auquel il rajoute (1-d) pour avoir une probabilité. Le facteur d’atténuation est pris par exemple 0.85.  Ainsi :

    PageRank(p) = 0.15 + 0.85 * Somme(PageRank(q)/liens(q))
    – pour toutes les pages q ayant un lien vers p

    Comme on calcule le score d’une page en fonction de scores d’autres pages, il est légitime de se poser la question : comment ont été calculés les scores des pages initiales q et q’ ci-dessus ? PageRank prend la même valeur pour toutes les pages du Web. Ensuite il applique les équations ci-dessus pour toutes pages. Il s’arrête quand les valeurs ne changent plus.

    On vous a caché des tas de détails. On pourrait dire pour vous effrayer qu’on calcule le « point-fixe d’une équation matricielle avec une matrice avec des milliards de lignes et de colonnes ». Plus prosaïquement, imaginez qu’il faut calculer plusieurs fois la fonction ci-dessus pour les milliards de pages indexées. C’est un gros calcul ? Non ! C’est vraiment un très, très… très gros calcul. Et il faut des tas d’ordinateurs pour le réaliser. Et ce n’est qu’une des fonctions d’un moteur de recherche…

    Rachid Guerraoui, professeur à l’Ecole polytechnique fédérale de Lausanne

    (*) Pour en savoir plus en vidéo: http://wandida.com/en/archives/571

  • Choisis ton camp camarade !

    Mozilla, c’est un petit coin de liberté dans l’océan commercial numérique. Mais il ne faut pas se tromper : de tels havres sont indispensables pour éviter que l’écosystème ne dérive. À l’occasion de l’anniversaire de Mozilla, Binaire donne la parole à Tristan Nitot.

    nitot-rayclid-binaire@rayclid

    Tristan nous explique pourquoi, avec les téléphones intelligents, nous sommes en train de revivre la guerre des Operating Systems et pourquoi il va falloir choisir son camp. Binaire a choisi, le camp de Tristan, celui de Mozilla…

    Joyeux anniversaire Mozilla !

    annivGâteau d’anniversaire Firefox

    Il y a quelques jours, Mozilla fêtait les 10 ans de son logiciel Firefox, et un ami me demandait si développer un navigateur Web était toujours un problème d’actualité. Après tout, expliquait-il, le futur de l’informatique se joue sur les smartphones et leurs applications, pas sur les PC ni sur le Web, une technologie qui vient de fêter ses 25 ans. La vraie question aujourd’hui, est de savoir s’il faut un iPhone de chez Apple ou un Android de chez Google, souvent fabriqué par la marque Samsung.

     tnTristan Nitot © Christophe Rabinovivi – photographe@rabinovici.fr

    C’est alors que j’ai réalisé à quel point l’histoire à tendance à se répéter, dans le domaine de l’informatique comme ailleurs… En effet, dans les années 1980, l’utilisateur  d’ordinateur personnel (le fameux PC) se posait la question d’acheter une machine Windows ou un Mac. De même, les informaticiens se demandaient s’il fallait écrire des logiciels pour Windows ou pour Mac, car bien entendu, ces deux systèmes étaient incompatibles entre eux.

    Dans les années 1990, avec l’arrivée des services en ligne comme AOL ou Compuserve, on se demandait aussi lequel il fallait choisir. Ils étaient bien entendu incompatibles entre eux.

    Et puis à la fin des années 1990, une invention étrange appelée « Web » a changé toute la donne : peu importait Mac ou Windows, car si on avait un navigateur Web, on avait accès au Web. Le Web était dès le début « multi-plateforme », c’est à dire qu’il était prévu pour fonctionner sur tous les types d’ordinateurs. C’est même un de ses principes fondateurs. Son inventeur, Tim Berners-Lee était chercheur au CERN à Genève, et a inventé le Web pour que ses confrères scientifiques puissent partager des documents en s’affranchissant des incompatibilités entre ordinateurs.

    Le Web eu un effet comparable pour les services en ligne : pourquoi se limiter à un service ou à un autre, puisque le Web était universel ? Du coup, les services en ligne se sont vites transformés en fournisseurs d’accès à Internet (et donc au Web).

    Aujourd’hui, on accède aux grands services comme Facebook ou Google via un navigateur Web. Peu importe votre fournisseur d’accès à Internet ou la marque de votre PC (Mac ou Windows) ou le nom de votre navigateur Web : les développeurs écrivent des applications Web qui tournent sur tous les ordinateurs équipés d’un navigateur Web ; autrement dit, tous les ordinateurs.

    Pourtant, en 2014, on voudrait nous faire croire que pour ces petits ordinateurs tactiles qui tiennent dans la poche et qu’on appelle « smartphones », le problème est différent : il va falloir choisir son camp.

    Ne nous laissons pas succomber aux sirènes du marketing. Le Web a évolué ces dernières années, et il est capable de faire tourner des applications mobiles, des « apps », tout aussi performantes que des applications dites natives, c’est à dire spécifiques à un genre de téléphone.

    On aimerait nous faire croire le contraire, car cela pousse les consommateurs à une fidélité forcée au fabricant de leur smartphone : une fois qu’on a acheté pour des dizaines ou des centaines d’euros d’applications, et qu’on y a stocké toutes ses données personnelles, le coût de changer de système devient très élevé. Ah! Voilà un problème qu’on n’avait pas anticipé en entrant dans la boutique de téléphonie mobile et en choisissant le smartphone sur des critères souvent esthétiques ou par recommandation de proches. On pensait se faire plaisir avec une décision anodine, et nous voilà coincé, marié presque, à une marque de smartphone !

    C’est là qu’il faut avoir en mémoire les leçons de l’histoire de l’informatique… Si on n’utilise que des applications Web, il est alors facile d’utiliser ces applications sur tous types de smartphones et même d’ordinateurs, et nos données suivront.

    Tout le monde a intérêt à ce que le Web devienne l’outil de référence sur smartphone comme il l’est sur PC. Tout le monde, sauf les 2 ou 3 grosses sociétés américaines qui fabriquent des smartphones, trop contentes de coincer — pardon, de fidéliser — malgré eux des centaines de millions de clients.

    Il existe déjà un système pour smartphone qui fonctionne sur les principes du Web, il s’agit de Firefox OS. Il est pour l’instant destiné aux smartphones d’entrée de gamme car il est encore jeune, mais il monte progressivement en gamme. Malgré sa jeunesse, il pourrait bien être l’avenir du smartphone, et ceux qui ont compris les leçons de l’histoire de l’informatique le comprendront avant les autres.

    Tristan Nitot, fondateur de Mozilla Europe,
    « Principal Mozilla Evangelist », membre du Cnnum, @nitot

    5566851825_975635bdf9_bTristan sur sa Royal Enfield Bullet 500 EFI Classic
    Auteur : Fab. krohorl.free.fr/