Catégorie : Actualité

  • Bonne année 11111100011

    Toute l’équipe de binaire vous souhaite une belle année  [11111100011]

    L'(I)Allié par Saint-Oma

     

    L’artiste Saint-Oma (@saintoma_thomas sur Instagram) dessine les humanités numériques. Réalisées dans le cadre de l’initiative Digit_Hum, ses illustrations dressent le contour de métiers en profonde mutation. Portée par le CAPHÉS et le labex TransferS, Digit_Hum vise à créer un espace d’échange sur les différents usages qui sont faits des humanités numériques et à structurer ces nouvelles pratiques à l’échelle de l’ENS et de l’Université PSL. Cette initiative se décline en ateliers annuels, portraits et enquête sur les acteurs et activités en humanités numériques, à retrouver sur le site Digit_Hum : https://transfers.huma-num.fr/digithum/

  • L’informatique en stream

    Concours de vidéos : #ScienceInfoStream
    « L’informatique en stream »

    • Vous êtes passionné(e)s de science informatique ?
    • Vous aimez les défis ?
    • Vous vous sentez l’âme d’un ou d’une vidéaste ?


    N’attendez plus ! Prenez votre smartphone, webcam, ou caméra : vous avez moins de 256 secondes pour partager ces pépites de science qui vous fascinent.

    La Société informatique de France vous invite à participer à la deuxième édition de son concours.

    Votre vidéo, tournée en français, aura une durée comprise entre 27 (128) et 28 (256) secondes. Elle sera au format de votre choix (les formats libres, comme ogv, sont encouragés) et mise à disposition sur le web (via votre page personnelle ou via un site de streaming). La soumission se fera par email à l’adresse, une déclaration d’intention est attendue avant le 1er décembre 2018, la soumission finale devra arriver avant le 7 janvier 2019. Le mail contiendra, outre le lien, le titre de la vidéo et les noms et prénoms de son ou de ses auteur(s) avec une présentation succincte (âge, rôles respectifs dans le projet…).

    “Ressources humaines” 1er prix du concours 2018

    Un jury composé notamment d’informaticien(ne)s et de spécialistes de la médiation scientifique réalisera une première sélection de vidéos dont la diffusion et la promotion seront assurées par la SIF et ses partenaires. Trois d’entre elles seront ensuite choisies et recevront des récompenses allant de 500 à 1500 euros.  Les vidéos seront mises en ligne aussi par la SIF, de manière ouverte avec une licence Creative Commons choisie par l’auteur(e).  La remise des prix se déroulera lors du congrès de la SIF qui se déroulera les 6 et 7 février 2019 à Bordeaux en présence de nombreux intervenants prestigieux.

    Faire parler une machine à café” accessit ex aequo du concours 2018

    Le jury appréciera particulièrement les vidéos qui satisfont un ou plusieurs des critères suivants :

    – Originalité du sujet ou du point de vue utilisé pour le traiter,

    – Aptitude à susciter une vocation pour la science informatique,

    – Sensibilisation aux enjeux sociétaux de la science informatique,

    – Capacité à expliquer en langage simple un point de science informatique.

    Qui peut participer ?

    “Un ordinateur en lego pour votre salon” accessit ex aequo du concours 2018

    Toutes et tous, en individuel ou en équipe, de 5 à 105 ans

    Règlement et informations accessibles ici

    N’hésitez pas à regarder les vidéos primées lors de l’édition 2018

  • Bonnes vacances !

    Vous êtes épuisés par votre victoire à la coupe du monde et par le cagnard. Un repos bien mérité vous attend peut-être.

    La joyeuse équipe de binaire vous souhaite une belle pause estivale ensoleillée, reposante et solidaire.

    Vous aurez enfin le temps de vous régaler des articles de binaire que vous n’avez pas eu le temps de lire pendant l’année. Nous vous les avons gardés bien au chaud.

    Retrouvez-nous fin août pour parler informatique et culture numérique !

    L’équipe binaire

  • Les selfies de binaire : Charlotte

    Suite et fin provisoire de notre série les selfies de binaire. Après Thierry, Pascal,  Antoine et Marie-Agnès, Serge,  Charlotte Truchet nous dévoile un secret.

     

    Charlotte Truchet,
    Chercheuse sans contrainte.

     Ton parcours

    Quand j’étais petite, je faisais Licence d’informatique. Mais comme je n’étais pas trop heureuse dans mon école, j’ai envoyé des CV à des journaux scientifiques pour trouver un stage. Et là, paf, surprise, le magazine La Recherche me prend à l’essai comme pigiste ! J’ai pris une claque comme jamais : les bouclages, la rédaction, les enquêtes… je ne savais rien faire. Ça a été très dur au début, et puis petit à petit j’ai appris et j’ai adoré : c’est tellement important de transmettre la science nue, crue, pure. Tout le monde ou presque est d’accord là dessus, mais peu de gens s’y collent vraiment… Peu importe que l’audience soit parfois en deçà des espérances, peu importe que le public ne comprenne pas tout – le lien entre scientifiques et grand public doit être entretenu, à tout prix.

    Bref, je suis restée 3 ans à La Recherche, je suis passée rédactrice, et après je suis retournée à l’école : j’ai fait une thèse et je suis devenue universitaire. Cette histoire m’a rendue durablement schizophrène : comme ancienne journaliste, je trouve que les chercheurs abusent grave quand ils vulgarisent (à pinailler sur deux virgules, à tout compliquer, à exiger des affiliations illisibles longues de 10 km…). Comme chercheuse, je trouve que les journalistes se foutent de la gueule du monde (à trop simplifier, à ne pas assez vérifier, à chercher le buzz). Grâce à Binaire, au moins, ma schizophrénie sert à quelque chose !

    Ton domaine de recherche

    © users.cecs.anu.edu.au/~jks/G12

    Je fais de la programmation par contraintes, mais je vais pas m’étendre parce que j’en ai déjà parlé ici. J’aime bien travailler sur des problèmes mal formulés, surtout si c’est en collaboration avec des non-informaticiens : j’ai fait ma thèse en informatique musicale, puis j’ai travaillé avec des urbanistes et maintenant des chimistes. C’est difficile, on ne se comprend pas mais on s’enrichit. Tout le monde a plein de problèmes fondamentalement informatiques, sans le savoir ! Et c’est joli quand on arrive à s’y attaquer sans que personne n’y perde son identité.

     Quelle est l’évolution de ton domaine ?

    © mnemonas

    Comme tout le monde, je suis ébahie par l’irruption de l’IA dans le débat public. La programmation par contraintes, c’est de l’IA au sens scientifique, mais pas au sens grand public. Alors forcément, la vie est compliquée. C’est un peu inquiétant de voir l’essentiel des ressources scientifiques du moment concentrées sur un domaine connu pour une seule techno visible (l’apprentissage), et aux contours soigneusement mal définis. Enfin, on survivra. De toutes façons mon domaine, traditionnellement centré sur les méthodes de résolution (qu’on veut toujours plus rapides et plus efficaces), s’ouvre maintenant sur d’autres disciplines, et c’est une bonne chose. L’informatique est trop jeune pour être cloisonnée.

    Le plus et le moins dans ton activité de recherche

    Le plus : Je ne saurais pas le formuler, j’adore mon métier, c’est tout. J’aime particulièrement travailler au tableau avec des belles notations et d’autres personnes. Le côté esthétique est très important. La qualité des autres personnes, aussi ! Travailler au tableau, c’est partager beaucoup de choses : des intuitions, des idées lumineuses ou foireuses, des blagues, des échecs… L’avantage à l’Université c’est qu’on peut partager ça avec des gens fantastiques (et qu’on n’est pas obligé de le partager avec des gens pas fantastiques). C’est une liberté fondamentale qui nous permet de survivre à presque tout, je pense.

    Le moins :  C’est plus facile à identifier, c’est l’administration qui nous bouffe. Quand j’entends un chef dire « ça on va demander aux enseignants-chercheurs de le faire, ça ne prend pas trop de temps », j’ai envie de tuer quelqu’un.

  • Numérique et éducation … vous avez dit #CreaSmartEdtech ?

    Et si on donnait des tablettes à tous les enfants pour qu’ils apprennent par eux-mêmes en jouant ? Ou … pas ! Les liens entre numérique et éducation provoquent des débats d’opinion sans fin. Mais qu’en est-il dans les faits ? Et surtout : comment outiller les professionnel·le·s de l’éducation face à ce que le numérique peut apporter, pour accompagner la transformation de l’éducation vers plus de sens et le développement de compétences clés du 21e siècle.. Il y a maintenant des formations qui adressent spécifiquement ces enjeux et aident à fournir des réponses, allons en découvrir deux. Thierry Vieville

    Le Master Education et Technologie (EdTech) [dit AIRE] du Centre de Recherches Interdisciplinaires (CRI Paris / Université Paris Diderot et Université Paris Descartes) est la première formation universitaire consacrée à ce nouveau champ d’activité en France. Il prépare, à Paris, des chercheur·e·s, entrepreneur·e·s, enseignant·e·s, médiateur·e·s, à comprendre la transformation de l’éducation à l’heure du numérique et à concevoir des projets utiles, pertinents et ambitieux avec les meilleurs outils numériques. Ce master repose sur une pédagogie créative et interdisciplinaire.

    ©UCA

    L’Université Côte d’Azur (UCA) ouvre un nouveau programme pour former les professionnels du numérique éducatif, avec 90% de cours en ligne et deux semaines intensives pour faciliter la participation d’étudiants internationaux. On y développe une approche du numérique à la fois participative, critique et créative, tout en incluant résolument les enjeux sociaux et économiques. On y aborde tant la compréhension des sciences du numérique, que les processus d’innovation dans l’intégration du numérique en éducation, les démarches de co-création ou encore l’apprentissage par le jeu et l’approche « par le faire ».

    https://margaridaromero.files.wordpress.com/2016/11/diapositive11.png
    © margaridaromero.wordpress.com

    Une démarche et une méthode commune.

    À notre connaissance, ce sont les deux seules formations disponibles sur notre territoire, au delà de formations limitées à l’utilisation de technologies. Les deux formations ont la particularité d’enseigner l’innovation et la différenciation en pédagogie de manière… innovante et différenciée : faisons, ensemble, ce qu’on dit qu’on va faire. Elles ont un objectif commun : former aux pédagogies du 21e siècle afin d’apprendre à utiliser et à comprendre les atouts du numérique pour l’éducation, mais aussi ses limites. Sans oublier le nécessaire questionnement à propos du sens et de l’impérieuse nécessité de l’éducation, dans un monde connecté où cohabitent démocratisation  de l’accès à de nombreuses ressources en ligne, et inégalités toujours plus criantes entre pays comme entre individus. Le numérique offre de nombreuses opportunités pour les enseignants comme pour les professionnels de la création de ressources. Mais, face aux nombreux « mythes » qui entourent le numérique éducatif (panacée ou repoussoir…) il est plus que jamais nécessaire de travailler ensemble, afin d’irriguer pédagogie et didactique au sein des EdTech, et de permettre aux enseignant·e·s et autres professionnel·le·s de l’éducation de maîtriser les EdTech.

    Tout au long du programme, l’étudiant est amené à réfléchir sur son propre projet à l’éclairage des différents enseignements qui lui sont proposés. Il est accompagné pendant son parcours de manière personnalisée grâce à l’expertise d’enseignants-chercheurs et de partenaires industriels. Le programme permet aussi de découvrir certains domaines dits “disruptifs” de la pédagogie : remise en cause des modèles pédagogiques et des savoirs dominants, recentrage de l’apprentissage sur la créativité et l’analyse critique,  mise en place de pratiques d’enseignements alternatives hors classe. Les processus d’innovation dans l’intégration du numérique sont questionnés, les processus d’apprentissage décortiqués afin d’ouvrir les espaces pédagogiques à la co-création, à l’apprentissage par le jeu et à une pédagogie de l’expérience.

    Comprendre aussi comment se passe l’éducation ailleurs, ouvrir des possibilités de collaborations internationales sont deux des bénéfices de cette volonté d’ouverture.

    Trois exemples de cours du Msc #CreaSmartEdtech

    ©UCA

    Introduction à la démarche de “maker” et à la robotique éducative. Ce cours développe une approche de curiosité et de construction participative en éducation dans laquelle les participants s’engagent activement dans une démarche de construction tangible pour apprendre à apprendre. Le travail d’équipe et les attitudes co-créative (curiosité, tolérance de l’ambiguïté, tolérance à l’erreur, prise de risque) seront valorisées durant le cours.

    ©Inria

    Initiation à l’informatique éducative. Ce cours, basé sur Class´Code, amènera l’étudiant à comprendre et prendre la main sur les outils informatiques en lien avec les technologies éducatives, et à se forger une vision des grandes notions actuelles (apprentissage machine, web sémantique…) en lien avec la pensée informatique. Les prérequis techniques sont minimaux, et les différences de niveaux serviront de levier pour pratiquer une pédagogie différenciée.

    ©Skema

    Introduction à l’éducation et à la pédagogie “disruptive”. Ce cours a pour but de développer la compréhension de diverses formes de création. À travers des séries d’activités et de recherche, les participants utiliserons de nouvelles méthodes de pensées issues des principes de l’effectuation pour créer leur propre vision de la disruption en abordant un problème complexe qu’ils veulent résoudre.

    Pour toute demande de renseignements sur cette formation un contact mail: msc-edtech@univ-cotedazur.fr, facebook ou twitter est disponible.

    Une formation de Master et un MSc.

    Mais les modèles économiques de ces deux formations sont très différents. La première aboutit à un diplôme national et est entièrement financée avec l’argent de l’État ; elle est donc accessible aux étudiant·e·s avec des frais d’inscription minimaux. L’autre est une formation universitaire (nommée MSc en anglais) qui offre le même niveau Bac+5 en sortie, mais qui doit être autofinancée. C’est un profond sujet de controverse. Un camp va défendre la quasi-gratuité de l’enseignement universitaire, un autre la nécessité que l’université devienne plus attractive, donc soit mieux financée (sans augmenter encore les impôts). Bon, alors : on … fait quoi ? Le MSc #CreaSmartEdtech a pris le risque d’essayer de trouver une « voie du milieu ».
    – Formation payante, certes, mais en utilisant au maximum les formations en ligne, en recherchant des financements multiples qui permettent de doter les étudiants de bourses, en restant dans un cadre sans but lucratif, on passe de montants de l’ordre de 4000 € à environ 1500 € par an, avec ces bourses. Concrètement, pour ces étudiant·e·s la barrière financière est le fait de vivre en faisant des études, et proposer une formation majoritairement en ligne aux horaires flexibles cumulable avec un emploi leur offre une vraie solution.
    – Formation performative, la problématique du coût des études (surtout à l’échelle internationale) est en soi un enjeu majeur de l’éducation du 21ème siècle ; les étudiant·e·s de ce MSc suivront un enseignement sur ce sujet et sont déjà confrontés à des travaux pratiques ! À savoir financer leur voyage et leur séjour pour venir profiter de cette formation, par exemple avec des financements participatifs.
    – Formation qui joue collectif au sein de l’offre de formation de son université, loin de vouloir faire disparaître les enseignements nationaux actuels, cette formation va surtout essayer de renforcer l’attractivité de toutes les formations que propose son université d’accueil.
    Sommes nous complètement utopistes ? Voir même naïfs ? Essayons ! Au moins nous saurons.

    Mélanie Ciussi, Nathalie Colombier, Saint-Clair Lefèvre, Irina Yastrebova Otmanine, Margarida Romero, Cindy De Smet, Thierry Viéville.

  • La naissance du numérique

    Il y a 70 ans, à l’université de Manchester, un ordinateur fonctionnait pour la première fois dans l’histoire. Le Manchester Museum of Science and Industry célèbre cet exploit par une exposition et une série de conférences sur les débuts de l’informatique. Le clou de cette manifestation est une réplique du Baby computer de 1948, construite à l’identique avec ses lampes radio et sa mémoire à tube cathodique, qui effectue des calculs sur des logiciels d’époque. Un historien, Pierre Mounier-Kuhn, nous raconte cette histoire histoire et souligne que la Grande-Bretagne sait admirablement mettre en valeur son patrimoine numérique (mieux que nous ?). Serge Abiteboul et Thierry Viéville.

     

    Manchester Small-Scale Experimental Machine, ou Baby pour ses pères.
 La machine originale, testée en 1948, a été rapidement cannibalisée pour assembler un ordinateur opérationnel. Le Musée des sciences et de l’industrie de Manchester a réuni en 1998 les pionniers survivants pour en construire une réplique fidèle, en état de fonctionner.
  Photo Lorette & Musée des sciences et de l’industrie, Manchester.

    Du concept à l’ordinosaure

    En 1945, tirant les leçons des réalisations électroniques secrètes menées pendant la guerre, deux documents ont défini une structure de machine radicalement nouvelle : le calculateur numérique à programme enregistré en mémoire — auquel les Français donneront plus tard le nom bien pratique d’ordinateur.

    Le premier, le rapport Von Neumann, publié dès juin 1945, aura un large impact en raison même de sa disponibilité (on peut l’acheter à Washington pour une poignée de dollars) et de la notoriété de son auteur : John von Neumann, l’un des esprits les plus brillants et les plus universels du xxe siècle, est bien connu dans le monde scientifique et a ses entrées chez les dirigeants civils et militaires.

    Le deuxième, élaboré quelques mois plus tard à Londres, est un plan beaucoup plus détaillé d’ordinateur, conçu par le mathématicien Alan Turing pour le National Physical Laboratory. Il cite d’ailleurs le rapport Von Neumann comme référence principale.

    La dématérialisation complète du programme, passant de cartes perforées ou de bandes de papier à des impulsions électroniques, permet d’accélérer énormément le traitement des instructions et ouvre de nouvelles possibilités algorithmiques : il est beaucoup plus facile, dans une machine, d’accéder à n’importe quelle adresse mémoire électronique que de dérouler et rembobiner en permanence une bande de papier !

    Si l’architecture définie par Von Neumann constitue potentiellement une solution élégante et prometteuse, elle commence par poser un problème technique ardu : comment réaliser les mémoires ? Cet organe essentiel pour stocker les instructions et les données est en principe au cœur de la nouvelle machine. Mais il n’existe rien de tel dans les technologies matérielles disponibles à l’époque, pour mémoriser des impulsions binaires.

    Au cours des années qui suivent, une dizaine d’équipes à travers le monde se lancent dans le développement d’ordinateurs, surtout en Angleterre et aux États-Unis. Elles expérimentent divers procédés de mémorisation, empruntés souvent au radar et aux télécommunications.

    L’une de ces équipes se rassemble à l’université de Manchester. Elle est issue en partie de Blechtley Park et du laboratoire des Télécommunications britanniques, qui a participé au développement de machines secrètes pendant la guerre. Les responsables du département de génie électrique, Williams et Kilburn, parient sur la possibilité d’enregistrer des données sur l’écran d’un tube cathodique – d’un écran de télévision. En simplifiant beaucoup, disons que chaque bit d’information serait représenté sur l’écran par un pixel, inscrit, renouvelé ou lu à chaque balayage de l’écran par le faisceau cathodique. Un peu comme, pendant la bataille d’Angleterre, les opératrices radar voyaient sur leur écran s’afficher des points lumineux représentant les avions ennemis, et qui bougeaient à chaque balayage du radar.

    Pour tester cette idée, ils construisent une maquette de laboratoire : un « tube de Williams » avec ses circuits de commande, connecté à un calculateur électronique minimal. Chaque tube cathodique peut mémoriser entre 512 et 2048 bits, régénérés chaque milliseconde. Le processeur ne sait faire qu’une opération : la soustraction ! Nous avons tous appris à l’école qu’en combinant deux soustractions on obtient une addition (« moins par moins fait plus »), qu’en combinant des additions on obtient une multiplication et qu’en soustrayant plusieurs fois on effectue une division… Un processeur arithmétique réduit au minimum permet donc de calculer ce que l’on veut en économisant le matériel, si l’on accepte une certaine lenteur d’opération. C’est suffisant pour vérifier la faisabilité pratique de la mémorisation dans des tubes cathodiques, but de cette Manchester Small-Scale Experimental Machine, surnommée Baby par ses développeurs.

    Le 21 juin 1948, pour la première fois dans l’histoire, un programme enregistré servant de test effectue un calcul dans cette machine. Tom Kilburn a écrit et codé en binaire un algorithme, une simple recherche du plus grand facteur propre de 218. L’intérêt de ce calcul banal n’est pas mathématique, mais technique : nécessitant beaucoup d’opérations, il prend beaucoup de temps… donc permettra de vérifier si la machine est fiable. Après 52 minutes et 3,5 millions d’instructions exécutées, le système produit la réponse correcte (131 072). On peut dater de ce jour la naissance de l’ordinateur, en considérant que l’enregistrement d’un programme dans une mémoire directement accessible par le processeur est l’innovation qui va permettre les développements algorithmiques ultérieurs.

    Le premier programme enregistré de l’histoire : 17 instructions (ici, la version modifiée en juillet 1948). Photo School of Computer Science, The University of Manchester.

    De l’expérience de laboratoire à l’ordinateur commercial

    La Baby Machine sera la base d’un grand ordinateur, Manchester Mark I, construit l’année suivante et industrialisé ensuite par une grande entreprise locale de matériels électriques, Ferranti.

    Le mathématicien qui a initié et supervisé tout le projet, Max Newman, n’est autre que le professeur de Cambridge qui avaient enseigné la logique au jeune Turing en 1936, puis l’avait rejoint au service de cryptanalyse. À la rentrée 1948, il invite Alan Turing à Manchester pour prendre en charge la programmation du nouvel ordinateur. Turing ne se contentera pas de développer des méthodes de codage et de vérification de programmes : il y testera ses modèles mathématiques de morphogenèse et spéculera sur les possibilités de simuler la pensée. Dès octobre 1949, le département de philosophie de l’université accueille un colloque de cogitations cybernéticiennes sur « The Mind and the Computing Machines ».

    En 1950, une dizaine d’ordinateurs sont en construction, certains même déjà en service, en Angleterre, aux États-Unis et en Union Soviétique. Le caractère extrêmement risqué de ces projets justifie qu’ils soient menés généralement dans les laboratoires de recherche publics : ceux-ci, financés par des agences gouvernementales ou des académies, peuvent explorer librement des voies absolument nouvelles susceptibles d’être des impasses, prendre plus de temps que prévu pour surmonter des difficultés inédites, échanger ouvertement informations et leçons de l’expérience, là où des laboratoires privés seraient contraints par le secret industriel.

    Rapidement, toutefois, d’assez nombreuses entreprises de toutes tailles organisent les transferts de technologies (généralement par des transferts d’hommes), mettent au point et industrialisent les nouvelles machines. En les mettant à la disposition d’utilisateurs de plus en plus nombreux, elles favorisent la multiplication des expériences et l’acquisition de savoir-faire, donc de nouveaux progrès qui ne s’arrêteront plus.

    Comme toujours au stade initial du développement d’une technologie, les pionniers de l’ordinateur ont expérimenté des voies très diverses, avant de resserrer l’éventail des possibles sur quelques techniques devenues des standards. La plupart des dispositifs de mémoire essayés à la fin des années 1940 étaient trop fragiles et trop limités en taille et en vitesse. Ils furent rapidement rejetés au profit de procédés d’enregistrement magnétique, qui allaient dominer pendant 25 ans dans les mémoires vives et existent toujours dans nos disques durs.

    Les fondateurs de l’informatique ont eu une vision assez claire de l’évolution future du matériel, mais ont largement sous-estimé l’importance et la difficulté de la programmation. Bien qu’universels en principe, les premiers ordinateurs étaient conçus en vue de la résolution d’une certaine classe de problèmes — souvent pour produire des tables numériques. Ils étaient utilisés par des ingénieurs, physiciens et mathématiciens qui indiquaient à la machine la suite des opérations à effectuer et récupéraient les résultats ; sans être triviale, l’écriture de programmes ne représentait pas une difficulté majeure. Avec le développement des premiers systèmes commerciaux dans les années 1950, les possibilités et domaines d’utilisation exploseront et la programmation deviendra le facteur critique de la réussite d’un projet — elle l’est encore de nos jours.

    Alan Turing (à gauche) et la console du Ferranti Mark I.
 Photo Ferranti / School of Computer Science, The University of Manchester.

    Pierre Mounier-Kuhn, CNRS & Université Paris-Sorbonne

    Bibliographie indicative

    • Thomas Haigh, Mark Priestley & Crispin Rope, Eniac In Action: Making & Remaking the Modern Computer, Cambridge (MA), MIT Press, 2016.
    • Simon Lavington, Alan Turing and His Contemporaries: Building the World’s First Computers, Londres, Computer Conservation Society (BCS), 2012.
    • Emmanuel Lazard et Pierre Mounier-Kuhn, Histoire illustrée de l’informatique, (préface de Gérard Berry, professeur au Collège de France), Paris, EDP Sciences, 2016.
    • Pierre Mounier-Kuhn, L’Informatique en France de la seconde guerre mondiale au Plan Calcul. L’Émergence d’une science, préface de Jean-Jacques Duby, Presses de l’Université Paris-Sorbonne, 2010.
    • Brian Randell, The Origins of Digital Computers, Springer Verlag, Berlin et New-York, 1982.
  • La transparence à l’école de Parcoursup

    Le psychodrame du printemps, c’est Parcoursup, c’est à dire le nouveau système mis en place pour l’affectation des bacheliers et bachelières dans l’enseignement supérieur. On ne parle plus de tirage au sort comme dans son prédécesseur, Admission Post-Bac (APB). Les sujets de controverse sont plutôt : le nombre d’élèves qui attendent toujours leur affectation et l’opacité des classements locaux. Le public prend sans doute conscience de la complexité de l’exercice. Néanmoins, on ne peut que se féliciter de voir le sujet de la transparence des algorithmes progresser en France dans la vie publique. Claire Mathieu qui a travaillé sur l’algorithme de Parcoursup et collaboratrice régulière de Binaire nous en parle. Serge Abiteboul, Marie-Agnès Enard.

    Depuis le 22 mai 2018, nous assistons à  un apprentissage accéléré de concepts d’informatique et d’algorithmique par la société française. Avec le démarrage de la phase principale de la plateforme Parcoursup, des concepts informatiques de base deviennent soudain très concrets. La publication des algorithmes et du programme Java permet de voir la différence entre algorithme et programme, sur un sujet qui passionne le public. La publication des rangs d’attente des candidats, qui évoluent quotidiennement, donne une réalité saisissante à  la notion d’exécution d’algorithme. Sur les réseaux sociaux, nous voyons se multiplier les questions, non pas simplement sur l’interface avec la plateforme, mais aussi sur le fonctionnement de l’algorithme de Gale-Shapley. A mesure que les lycéens et leurs professeurs se familiarisent avec l’algorithme et le voient en action jour après jour, nous assistons à  une prise de conscience progressive de l’impact de leurs choix, et des notions de théorie des jeux apparaissent. La transparence de la plateforme met en lumière les éléments déterminants, le classement des dossiers par les formations, le taux de boursiers et de résidents, la méthode pour modifier ces classements de façon à  incorporer ces taux. Une discussion publique s’engage sur ces éléments, autour de questions qui auparavant auraient semblé largement théoriques et déconnectées de la vraie vie.

    D’un seul coup, toute une génération constate l’impact sur leur vie individuelle de décisions politiques publiques réalisées par des algorithmes. A mesure que les gens comprennent mieux ce qui se passe, la réflexion s’engage sur les conséquences pour notre société,  et nous assistons à  une éducation des citoyens à vitesse grand V. Il faut espérer que ceux de la génération 2000 qui auront passé quelques jours ou quelques semaines sur la plateforme Parcoursup seront motivés pour s’inscrire sur les listes électorales, suivre les campagnes électorales en étant mieux armés pour évaluer les arguments, et voter avec discernement aux prochaines élections.

    En ce qui concerne l’enseignement de l’informatique à  proprement parler, on peut prédire que l’an prochain les enseignants d’informatique auront d’évidentes sources de problèmes à  proposer à  leurs élèves. Le programme Java disponible sur le site https://framagit.org/parcoursup/algorithmes-de-parcoursup sera réécrit dans d’autres langages de programmation, avec des variantes dans les structures de données et les détails d’implémentation. Ce programme a naturellement vocation à  être exemplaire, et la communauté informatique va donc certainement contribuer à  l’améliorer, que ce soit pour l’efficacité, la présentation, la certification, ou d’autres aspects. C’est surtout à la société civile de discuter comment cette affectation doit être réalisée. Avec la publication de l’algorithme et du code, le sujet est sur la place publique.

    Ce succès de la transparence de Parcoursup fait souhaiter que d’autres algorithmes et programmes soient à  leur tour rendus publics. Par exemple, si certaines formations  publiaient leurs méthodes de classement des dossiers, cela enrichirait la discussion sur l’évaluation.  Autre exemple, il serait passionnant que tous puissent comprendre comment notre impôt est calculé. [note de Binaire : voir « Dessine-moi les impôts »] Si le citoyen avait accès à  l’algorithme et au programme, une discussion publique pourrait s’engager, à  l’instar de celle qui est en train de naître de la transparence de Parcoursup, sur les possibilités ou non de manipulation du système, les critères, et leur équité.

    La transparence des algorithmes utilisée par le gouvernement est un moteur puissant pour une société plus démocratique.

    Claire Mathieu, Directrice de recherches au CNRS, Professeur au Collège de France (chaire annuelle Informatique et Sciences Numériques) et chargée de mission Parcoursup.

     

  • Libertés numériques, ça va être votre fête !

    Le numérique s’est installé dans nos vies ; les lecteurs de binaire l’ont bien compris. Il s’invite de plus en plus au parlement. En ce moment, citons entre autres :

    ⇒ La proposition de loi sur les « fake news ».
    ⇒ Le projet de loi Elan, évolution du logement, de l’aménagement et du numérique.
    ⇒ Le plan d’action pour la transformation des entreprises (des aspects sur leurs transformations numériques).
    ⇒ Le projet de loi relatif aux violences sexuelles et sexistes (cyberharcèlement).
    ⇒ Le projet de loi de programmation militaire (cyberattaques).
    ⇒ Le projet de loi de programmation et de réforme pour la justice (plusieurs volets sur le numérique).
    ⇒ Le projet de loi sur l’audiovisuel (volets numériques).

    Parmi tous ces projets, le projet de loi RGPD va particulièrement transformer nos vies. Nous vous en avions déjà parlé lors d’un précédent billet, ce 25 mai marquera une étape importante au niveau législatif dans l’ensemble de l’union européenne. Le règlement général sur la protection des données (RGPD) entre officiellement en vigueur. Ce texte de référence européen renforce et unifie la protection des données pour les individus.

    Depuis plusieurs mois, le web regorge d’articles sur le sujet. Sur les réseaux sociaux, le hashtag #RGPD affiche complet. Tous les sites web qui collectent ou utilisent nos données sont contraints de se mettre en conformité avec le nouveau cadre légal et nous inondent de messages en ce sens.

    Parmi toutes les ressources existantes, nous vous conseillons d’aller visionner cette petite vidéo réalisée par le youtubeur Samson Son – alias Cookie Connecté qui nous explique en 6 minutes et en Emoji le RGPD. Elle permet de comprendre ce qui change vraiment pour nous aujourd’hui.

    Et une autre vidéo du même auteur a été réalisée en partenariat avec la CNIL qui s’adresse principalement aux professionnels. Si vous n’avez pas encore mis en application ce règlement, il est grand temps !

     

    Pour célébrer cette journée particulière, nous vous donnons rendez-vous pour faire la fête des  libertés numériques lors d’événements organisés dans toute la France.

    Marie-Agnès Enard et Serge Abiteboul

  • Manipulation informationnelle et psychologique

    Nous étions déjà nombreux à nous inquiéter de ce qui est fait de nos données personnelles que les services du web entassent. L’affaire Cambridge Analytica, avec des données de Facebook, n’a fait qu’accentuer cette prise de conscience. Pour mieux comprendre les utilisations pernicieuses de telles données, Binaire a demandé à un spécialiste de ces questions, Claude Castelluccia, de nous parler des manipulations informationnelles et psychologiques. Serge Abiteboul
    Claude Castelluccia

    Nos données personnelles sont collectées et analysées par diverses entreprises ou entités à des fins de personnalisation, catégorisation ou de surveillance. Ces techniques d’analyse sont très puissantes et permettent, par exemple, d’identifier nos états émotionnels ou nos profils psychologiques. Il a par exemple été montré que l’analyse des données Facebook permettent d’identifier précocement les utilisateurs qui ont des tendances suicidaires.

    Ce qu’on sait moins, c’est que nos données personnelles sont de plus en plus utilisées pour nous influencer, voire nous manipuler. En contrôlant les informations que nous recevons en ligne et en les adaptant à nos comportements, un service comme Facebook peut être utilisé pour influencer nos comportements de clients, nos opinions, nos émotions, voire, comme le suggère l’affaire récente «  Cambridge Analytica », nos choix politiques. Ces manipulations, très étudiées en marketing comportemental (neuromarketing), sont les conséquences même du modèle économique de l’Internet et de ses services « gratuits ».

    Les techniques de manipulation par les données sont nombreuses et variées. On peut cependant les classer en deux grandes catégories : les techniques basées sur la « manipulation informationnelle » et celles basées sur la « manipulation psychologique ».

    La manipulation informationnelle

    Les techniques de cette catégorie tentent de modifier notre système cognitif en polluant les informations/connaissances que nous utilisons pour le construire. C’est typiquement le cas des fausses informations publiées sur le web ou les réseaux sociaux (les fake news) dont l’objectif est d’influencer nos opinions, et parfois nos votes. Dans un rapport récent, le conseil de l’Europe fait la distinction entre deux classes de publications d’information fausses :

    • La désinformation consiste à diffuser une information fausse dans le but de nuire (on parle alors de dis-information ou fake news en anglais), ou par ignorance ou erreur (on parle alors de mis-information en anglais). Un exemple de dis-information est l’information, qui a circulé pendant la campagne présidentielle, prétendant faussement que la campagne du candidat Macron était financée par l’Arabie Saoudite.
    • La malinformation est une information correcte, souvent confidentielle ou privée, mais publiée à grande échelle dans un but spécifique. C’est l’exemple des courriels privées, volés et publiés sur Internet pendant la dernière campagne présidentielle aux États-Unis.

    La manipulation psychologique

    Les techniques de cette catégorie sont plus subtiles car, au lieu de modifier nos systèmes cognitifs, elles cherchent à exploiter ses faiblesses en tirant parti de nos biais cognitifs. Un biais cognitif est un mécanisme de la pensée qui dévie de la pensée rationnelle, et qui fait porter des jugements ou prendre des décisions sans tenir compte d’un raisonnement analytique.

    Il existe globalement différents biais cognitifs comme les biais qui découlent d’une saturation d’informations, d’informations incomplètes ou vagues, de la nécessité d’agir rapidement et des limites de la mémoire.

    L’exemple de la figure 1 illustre comment les biais liés à la « nécessité d’agir rapidement » peuvent être exploités par un site marchand, ici expedia.com. En affichant le message In high demand – We have 1 left (« Très demandé – seulement un seul restant »), le site donne l’impression que le produit est très demandé et risque de ne plus être disponible rapidement. L’utilisateur est alors incité à finaliser son achat, sans trop réfléchir.

    Figure 1 : un exemple d’exploitation de biais cognitifs sur expedia.com

    La figure 2 montre un exemple intéressant de manipulation basée sur la perception. Sur cette figure, le troisième visage est obtenu en combinant les deux premiers visages selon un ratio 40:60. Des chercheurs ont montré que les intentions de vote pour un candidat, ici G. Bush, augmentaient considérablement lorsque le visage du candidat était combiné avec celui du votant (*) ! Cette manipulation exploite le biais qui stipule, selon le célèbre adage « qui se ressemble, s’assemble », que les gens tendent inconsciemment à être attirés par les personnalités qui leur ressemblent physiquement. Ces techniques de manipulation, personnalisées et imperceptibles, sont aujourd’hui tout à fait envisageables à grande échelle grâce aux données disponibles sur les réseaux sociaux.

    Figure 2 : manipulation par image morphing. Extrait de l’article (*).

    Le profilage psychologique OCEAN

    Les publicités sur Internet sont souvent personnalisées selon les centres d’intérêt des utilisateurs. Par exemple, un internaute qui visite un site de vente de piscines aura une grande chance de recevoir des publicités pour des piscines par la suite. Des résultats récents ont montré que les performances de ces publicités ciblées dépendraient aussi des profils psychologiques des cibles (**). Pour un même produit, par exemple un téléphone X, les personnes catégorisées comme « introverties » auraient une probabilité supérieure à 40% par rapport aux personnes « extraverties » de cliquer sur une publicité dont le message est : « Soyez en sécurité et toujours joignable avec le téléphone X ». Les personnes « extraverties » seraient plus réceptives à un message de type : « Soyez toujours branchée et au bon endroit avec le téléphone X ». Un annonceur pourrait donc optimiser ses campagnes publicitaires s’il connaissait les profils psychologiques de ces clients potentiels.

    La construction du profil psychologique d’une personne peut reposer sur le modèle OCEAN qui évalue, pour chaque personne, les 5 facteurs suivants :

    • (O) Ouverture d’esprit : tendance à être ouvert aux expériences nouvelles.
    • (C) Conscienciosité : tendance à être prudent, vigilant et consciencieux.
    • (E) Extraversion : tendance à chercher la stimulation, l’attention et la compagnie des autres.
    • (A) Agréabilité : tendance à être compatissant et coopératif plutôt que soupçonneux et antagonique envers les autres.
    • (N) Neuroticisme : tendance persistante à l’expérience des émotions négatives (anxiété, colère, culpabilité, déprime, etc.).

    Voir Figure 3.

    Ces profils sont établis en analysant les réponses données par la cible à une longue liste de questions telles que : « Croyez-en en l’importance de l’art ? » ou « Avez-vous régulièrement des moments de déprime ? ». Il s’agit donc d’une tâche laborieuse, nécessitant la coopération des cibles et pouvant difficilement être mis en œuvre à grande échelle.

    Figure 3 : 2 exemples de profils OCEAN

    Cependant, une équipe de l’université de Cambridge a récemment démontré qu’il était possible d’établir le profil psychologique d’une internaute uniquement en analysant ses likes sur Facebook (+) ! Plus spécifiquement, ces travaux ont montré que 250 likes suffiraient pour obtenir un profil aussi précis que celui établi par son époux (ou épouse) ! Il est donc complètement envisageable d’établir des profils psychologiques très précis, à grande échelle, en utilisant des plateformes comme Facebook et complètement à l’insu des cibles ! Ce sont d’ailleurs ces résultats que l’entreprise Cambridge Analytica auraient utilisés lors de la campagne présidentielle de D. Trump pour cibler les électeurs indécis et influençables ! La plateforme de Facebook est idéale pour ce type de ciblage et de manipulation car elle permet à tout annonceur de définir des critères très fins (comme le niveau d’éducation, de revenus, les centres d’intérêt, les lieux géographiques, etc.). Ces critères peuvent, sans aucun doute, être choisis pour cibler différents profils psychologiques sans avoir à collecter les données personnelles. Les rôles sont bien partagés. L’annonceur définit les critères de ciblage et les messages à transmettre. Facebook a la charge, en utilisant toutes les données personnelles qu’elle possède, d’identifier les personnes à cibler et de leur transmettre les annonces.

    Conclusion

    Avec le développement de l’Intelligence Artificielle, les techniques de détection des émotions et de l’utilisation de la neuroscience en marketing ainsi que les techniques de manipulation vont devenir de plus en plus efficaces, dangereuses et insidieuses. Les fake news seront de plus en plus réalistes et difficilement détectables, et utiliseront des nouveaux formats comme le son ou la vidéo (les deep fakes).

    La manipulation de masse en ligne par les données est un danger croissant pour nos libertés et nos démocraties. Il s’agit d’un problème étonnamment sous-estimé aujourd’hui et qui mériterait beaucoup plus d’attention, de transparence et de recherche ! ”

    Claude Castelluccia, Inria Rhône-Alpes, @PrivaticsInria

    (*) Facial Similarity between Voters and Candidates Causes Influence, Jeremy N. Bailenson, Shanto Iyengar,Nick Yee, Nathan A. Collins, Andrew Orin, Megan Miller and Kathryn Rickertsen, Public Opinion Quarterly, Vol. 72, No. 5 2008, pp. 935–961

    (**)  Psychological targeting as an effective approach to digital mass persuasion by S. C. Matz, M. Kosinski, G. Nave, and D. J. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2017.

    (+) Computer-based personality judgments are more accurate than those made by humans by W. Youyou, M. Kosinski*, D. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2015

     

  • Reprenons la maîtrise de nos données !!

    Une date : le 25 mai et une multitude d’évènements pour la Fête des Libertés Numériques.

    Ce jour là, le règlement général sur la protection des données (RGPD), qui constitue le texte de référence européen en matière de protection des données à caractère personnel sera applicable dans l’ensemble des 28 États membres de l’Union européenne.

    Le RGPD renforce et unifie la protection des données pour les individus au sein de l’Union européenne.

    Plus d’information sur le RGPD, avec les éléments de la CNIL et l’article très complet de Wikipedia.

    Et donc….

    Le 25 mai prochain affirmons nos libertés numériques !

    Pour tout savoir sur la fête du numérique, inscrire un évènement, voir les évènements autour de chez vous : c’est ici.

     

  • Après la moto-crotte, le robot-crotte autonome

    Les robots-crottes d’Anne Hidalgo sont, depuis la semaine dernière, déployés dans tout Paris. Vous en avez peut-être croisés. Ils s’attaquent à ce qui a été longtemps considéré comme une des plaies parisiennes, les crottes de chien.

    Selon consoGlobe, les quelques 300 000 chiens de propriétaires parisiens indélicats « chient » chaque année environ vingt tonnes de crottes sur les trottoirs de la capitale. Les tentatives pour s’en débarrasser ont été nombreuses comme la Chiraclette, la célèbre moto-crotte des années 80. Ses résultats mitigés et son coût conséquent l’ont fait abandonner.

    La Chiraclette, ©Mairie de Paris

    Plus récemment, PoopleMaps a choisi une approche « crowd sourcing ». L’internaute armé de son smartphone traque l’étron, le photographie, et le dénonce.

    Pour trouver une solution au problème, il fallait convoquer la high tech, et  plus précisément Parrot, une entreprise française spécialiste des objets connectés. Parrot s’est attaquée au problème et a conçu Poop-buster, l’arme ultime contre les fèces des rues de la capitale.

    Poop-buster est un drone autonome qui survole les rues parisiennes pour traquer les déjections canines. Il utilise aussi la base de données de la plateforme PoopleMaps.

    Le drone utilise deux caméras stéréoscopiques et des capteurs olfactifs et haptiques. Son programme d’apprentissage automatique (machine learning) lui permet de reconnaitre sa proie. Il fond dessus et la capture à l’aide d’un bras articulé. Il la dépose ensuite soit dans des conteneurs de la ville de Paris prévus pour ça, ou sur des parterres de fleurs où ils serviront d’engrais.

    A droite, poubelle à crotte © Ville de Paris

    Poop-buster a été testé évidemment dans le 16ème arrondissement. Quelques erreurs de jeunesses ont été à déplorer.

    Dans un premier temps, ce sont surtout des erreurs de décharges qui ont été notées. Une citoyenne ayant par exemple commis l’erreur de porter une robe trop colorée a été confondue avec un parterre de fleurs et s’est vue bombardée de colombins par une escadre de Poop-busters qui venaient de nettoyer un tronçon de la rue de la Pompe. Un petit malin qui avait cru intelligent de voler le boitier électronique placé sur les poubelles s’est retrouvé cerné et bombardé lui aussi de projectiles malodorants.

    Poop-buster place Victor Hugo

    Le plus dramatique a pourtant été atteint quand un Poop-buster a pris un chiot chihuahua pour un simple caca de chien. Si esthétiquement la ressemblance est flagrante, les deux ne jouent pas le même rôle social.

    Poupette dans la main de son maitre © wikipedia

    Les amis des bêtes se tranquilliseront : Le chiot Poupette en a été quitte pour une belle frayeur après une balade aérienne dans Paris. Comme les petits paquets récupérés sont  identifiés et géolocalisés avec une parfaite traçabilité, son maitre a pu le retrouver batifolant dans une poubelle de l’Avenue Foch.

    Ces incidents ont donné lieu à une belle passe d’arme entre deux Mairesses, Danièle Giazzi pour 16ème, et Anne Hidalgo, pour Paris. La Maire de Paris a déclaré : « je nettoie la capitale. Je vous laisse défendre les fientes de nos trottoirs. »

    Nous avons demandé à un chercheur d’Inria comment le logiciel avait pu prendre un chihuahua pour une chiure. T. Viéville nous a expliqué que l’algorithme de reconnaissance de déjection canine s’appuyait surtout sur la forme et la taille de l’objet du délit, et peu la couleur. Le drone s’est approché et le chiot tétanisé s’est immobilisé. L’algorithme a alors décidé qu’il s’agissait d’une crotte. Monsieur Viéville a ajouté : « L’odeur a probablement été l’élément déterminant ».

    Des progrès sont encore à venir : la technologie devrait permettre bientôt, grâce à l’analyse ADN, de retrouver les producteurs d’excréments et donc les propriétaires indélicats. Une telle mesure est à l’étude et serait sans doute très impopulaire chez les cynophiles. La SPA s’est élevée contre ce fichage des chiens et a saisi la CNIL.

    Pour ce qui est de la reconnaissance d’étron, le logiciel a été amélioré depuis et les problèmes ne devraient plus se reproduire. Vous pouvez à tout hasard vous procurer des étiquettes (technologie RFID) « Je ne suis pas une crotte » disponibles gratuitement en mairie. Si vous ne les avez pas, nous vous conseillons quand même d’éviter les robes à fleurs et de surveiller vos caniches et bébés. On ne sait jamais.

    Étiquettes de la Mairie : Je ne suis pas une crotte

    En attendant, réjouissons-nous ! Grace à Poop-buster, nos rues ne transformeront plus en champs de coprolithes.

    Sterko Dung, Institut National de Recherche en Intelligence Artificielle, Paris

     

  • #ScienceInfoStream

    Parce que la science peut aussi être ludique, parce que parler de science avec des mots simples permet à un plus grand nombre de s’approprier des connaissances, la Société informatique de France (SIF) a initié cette année un concours vidéo valorisant des réalisations courtes et mettant en scène l’informatique. L’objectif est de montrer que l’on peut, en quelques minutes (moins de 28 secondes !), expliquer en langage simple un point de science informatique, traiter d’enjeux sociétaux, voire susciter des vocations et ce dès le plus jeune âge. Les organisateurs nous racontent. Faites-vous plaisir en regardant les vidéos. Serge Abiteboul
    Ressources humaines, Premier prix

    1er prix : « Ressources humaines »

    Accessits :

    Mention spéciale pour l’implication des enfants dans une action de sensibilisation auprès du jeune public. à :« Programmation manuelle des thymio »

    Comment inventer un algorithme efficace pour résoudre un puzzle ? Quel langage comprend votre machine à café ? Pourquoi ne pas construire votre propre ordinateur en lego ? Telles sont les trois questions de science et technique informatique que les vidéos primées par le concours #ScienceInfoStream ont choisi d’aborder. Mais l’informatique n’est pas seulement une science et technique, elle est aussi un terrain fertile pour le travail en équipe et une source (inépuisable) d’amusements. Aussi le sens du collectif, un certain humour ainsi qu’une pincée de suspens pimentent-ils les vidéos lauréates du concours.

    Toujours dans cet esprit, une belle aventure humaine, de partage et transmission nous est contée par une vidéo proposée par un groupe d’élèves de CE2 et CM1, orchestrée par une étudiante de Master 2 sous la supervision de l’enseignante de la classe. Cette vidéo s’est vu décerner une mention spéciale du jury.

    Alors si, vous aussi, vous aimez l’informatique, si vous avez entre 5 et 105 ans (il est possible de demander des dérogations 🙂 ), guettez la prochaine édition de #ScienceInfoStream pour partager vos pépites de science informatique. Les soumissions seront, cette année, attendues à l’automne et le concours s’ouvrira également à de nouveaux supports… Il vous faudra un peu de patience pour découvrir les détails de cette nouvelle édition.

    En attendant, régalez-vous avec le Palmarès 2018 de ce concours parrainé et dont les résultats ont été proclamés par Mounir Mahjoubi, Secrétaire d’État auprès du Premier ministre, chargé du Numérique.

    Sylvie Alayrangues, Univ. de Poitiers, Christine Froidevaux, Univ. Paris-Saclay, Fabian Tarissan, CNRS

    Merci au jury 2018 composé de :

    • Sylvie ALAYRANGUES, Présidente du jury, vice-présidente médiation SIF, Maître de conférences en informatique – Université de Poitiers
    • Philippe AIGOUY, Réalisateur, Video Sud Production
    • Fred COURANT, Cofondateur, Rédacteur en chef de l’Esprit Sorcier
    • Marie DUFLOT-KREMER, Maître de conférences en informatique – Université de Lorraine
    • Stéphane FAY, Responsable Unité informatique et sciences du numérique, Palais de la découverte
    • Christine FROIDEVAUX, Professeur en informatique – Université Paris Sud / Paris-Saclay, vice-présidente SIF
    • Fabien TARISSAN, Chargé de recherche CNRS – ENS Paris-Saclay – vice-président adjoint médiation SIF
    • Stéphane VIALETTE, Directeur de recherche CNRS – Chargé de mission INS2I CNRS – LIGM – Université Paris-Est Marne-la-Vallée
  • (a voté) Euh non : a cliqué

    Vous devez organiser un vote, pourquoi ne pas le réaliser de manière électronique ? Malheureusement, les systèmes proposés aujourd’hui  ne sont pas sûrs et c’est compliqué… Alors, pourquoi ne pas prendre une plateforme libre proposée par des chercheurs et éviter ainsi plusieurs écueils liés au vote électronique. 3 chercheurs spécialistes de ce domaine qui travaillent au LORIA à Nancy nous parlent du sujet. Pierre Paradinas

    Voter électroniquement avec Belenios

    L’objet de ce billet est d’annoncer un nouveau-venu dans le monde du vote électronique : la plateforme de vote Belenios. Cette plateforme, libre et gratuite, permet d’organiser une élection en quelques clics. Lancée il y a un peu plus d’un an, elle a déjà permis d’organiser environ 200 élections, essentiellement dans le milieu académique : élection des membres d’un conseil de laboratoire, d’un centre de recherche, d’un comité universitaire, élection de responsables d’un groupe de travail, etc.

    Nous évoquons ci-dessous quelques éléments de contexte pour comprendre le positionnement de Belenios et encourager les lecteurs non seulement à l’utiliser mais surtout à se poser des questions lors des élections dématérialisées auxquelles ils sont invités à participer.

    Promouvoir plus de transparence

    Le vote électronique, de manière générale, mais de façon encore plus criante en France, n’est pas assez transparent. Quand on vote par Internet, comme cela se fait de plus en plus souvent, on n’a aucune information sur les algorithmes utilisés. Tout au plus a-t-on les noms des expert·e·s ayant étudié et validé la solution. Sans remettre en cause ce nécessaire travail d’expertise par un tiers, nous considérons que le secret de l’algorithme utilisé va à l’encontre d’une des propriétés fondamentales du vote électronique : la vérifiabilité. Chaque votant doit pouvoir vérifier que son bulletin est bien présent dans l’urne et chacun doit pouvoir vérifier que le résultat de l’élection correspond aux bulletins dans l’urne. On souhaite ainsi reproduire la situation d’un vote traditionnel, même si dans le cas du vote électronique, certaines vérifications ne peuvent provenir que de preuves mathématiques difficiles à lire pour le commun des mortels. Cette propriété de vérifiabilité, ainsi que d’autres propriétés requises ou souhaitables d’un système de vote électronique ont déjà été décrites dans un précédent billet. Belenios est un exemple parmi d’autres (comme Helios dont il est une variante) d’un système vérifiable dont la spécification est publique. Nous souhaitons ainsi convaincre les acteurs du vote électronique (vendeurs de solutions, donneurs d’ordre, voire la CNIL) que la transparence n’est pas trop demander : on a largement atteint le stade où c’est techniquement faisable sans mettre en danger le secret du vote, au contraire.

    Du vote électronique aux présidentielles ?

    Non. Ce n’est pas une bonne idée d’utiliser le vote électronique pour les grands rendez-vous politiques. Le vote électronique a fait des progrès, mais à l’heure actuelle il n’offre pas d’aussi bonnes garanties de sécurité qu’un scrutin papier à l’urne, tel qu’il est organisé en France pour les grandes élections. Parmi les propriétés très délicates à mettre en œuvre dans le cas du vote électronique figure la résistance à la coercition. Comment garantir le libre-choix du vote lorsque l’isoloir devient virtuel et que le vote s’effectue depuis chez soi ? Des solutions académiques existent mais elles restent incomplètes ou difficilement mises en pratique. Toujours dans le même précédent billet se trouve une discussion plus détaillée sur les limites du vote électronique. Le protocole Belenios n’échappe pas à ce constat. Il n’y a pas de protection contre la coercition ou la vente de vote (il suffit de vendre son matériel électoral). Il n’en reste pas moins que Belenios et le vote électronique en général est une alternative intéressante en remplacement du vote par correspondance qui n’offre souvent que de piètres garanties de sécurité.

    La plateforme publique Belenios

    Dans l’isoloir…

    La sécurité a un prix. Un élément incontournable est de répartir la confiance entre plusieurs personnes : donner trop de pouvoir à une unique personne (par exemple celle qui administre le serveur) signifie qu’on offre la possibilité à un·e attaquant·e de faire pression sur celle-ci pour changer le résultat, voire dévoiler les votes de chacun. Utiliser Belenios nécessite donc l’implication de plusieurs personnes distinctes qui vont se partager les rôles. Ainsi, la clef de déchiffrement sera répartie entre plusieurs assesseur·e·s, et il faudra les corrompre tou·te·s pour déchiffrer les votes individuels. Nous encourageons d’ailleurs les lecteurs à se poser la question à chaque scrutin électronique auquel ils sont confrontés : qui possède les clefs de déchiffrement, comment ont-elles été générées, et comment sont-elles utilisées lors du dépouillement ?

    Pour finir, nous insistons sur le fait que la plateforme Belenios, hébergée au laboratoire LORIA de Nancy, n’est qu’une plateforme de démonstration fournie « en l’état », sans garantie de disponibilité de fonctionnement, même si nous faisons de notre mieux. Dans le même esprit, chaque élection est limitée à 1000 électeurs. Cependant, tout le code est libre, et il est tout à fait possible de déployer sa propre instance chez une société d’hébergement offrant des garanties de disponibilité 24/7 et des services de résistance au déni de service.

    Dans bien des contextes à enjeu modéré et où le report de l’élection n’est pas dramatique en cas d’indisponibilité imprévue du serveur, notre plateforme peut rendre service, et offrir une solution à l’état de l’art, en remplacement notamment du vote par correspondance ou de systèmes non prévus pour le vote (LimeSurvey, pour ne citer qu’un seul exemple). Les remarques et les contributions sont les bienvenues !

     Véronique Cortier (Directrice de recherche au CNRS) Pierrick Gaudry (chercheur au CNRS) et Stéphane Glondu (Ingénieur de recherche Inria).

  • L’IA est–elle sexiste, elle aussi ?

    A l’occasion de la Journée Internationale des Droits des Femmes, nous nous intéressons cette année non aux informaticiennes, mais aux usagères des technologies d’Intelligence Artificielle : devront-elles, ici comme ailleurs, affronter un sexisme malveillant ? Comme d’habitude, plus, moins ? Et surtout, pourquoi ? Au détour de cette question certes un peu bateau, Anne-Marie Kermarrec nous offre à la fois un panorama des différentes sources de biais qu’on trouve dans les technologies informatiques et une réflexion sur l’IA, miroir de nos propres sexismes et autres déplorables habitudes. Binaire

     

    L’Intelligence Artificielle (IA pour les intimes) a le vent en poupe et est partout : elle traduit vos documents, guide vos recherches, vous recommande des films, vous suggère quoi manger, quand courir, nourrit votre fil d’actualité, vous aide à trouver un job, à vous garer, à vous marier, à vous soigner, à vous informer et ce n’est que le début. Avec tout cela, l’IA est autant un sujet de fantasme que d’incertitude, d’optimisme que d’inquiétude, le monde oscille entre admiration et crainte, s’épate de voir un programme apprendre « tout seul » comment gagner aux échecs, s’inquiète de savoir quels métiers vont disparaître et à quel point nous allons être manipulés, aidés, augmentés et j’en passe.

    Dans cet enchevêtrement de questionnements et de doutes, d’aucun peut s’interroger sur la capacité de l’IA à corriger les maux de notre société. Ou est-ce qu’au contraire, elle reproduit voire amplifie les travers d’un monde rongé par les inégalités en tous genres ? Si ces biais potentiels peuvent concerner de multiples volets de notre société, inégalités sociales, raciales, que sais-je, je ne m’intéresse en cette journée internationale du droit des femmes 2018 qu’aux inégalités hommes/femmes que peut continuer à colporter l’IA. Est ce que nos dernières inventions numériques continuent bien gentiment de véhiculer le sexisme ou est ce qu’au contraire tenons nous là un puissant remède aux stéréotypes de genre ?

    L’IA est-elle neutre ?

    L’IA est un « vieux » domaine académique, à l’échelle temporelle de l’informatique, qui doit son succès récent à la présence de données massives combinées à des capacités de calcul gigantesques. Plus précisément, l’IA repose sur trois éléments essentiels : des algorithmes, des données et des ordinateurs. On peut accorder aux ordinateurs, dont la taille a diminué au fil des années à mesure que leur puissance de calcul a augmenté qu’ils adoptent un principe « matériel » intrinsèque de neutralité et ne peuvent être taxés de biais. Qu’en est-il des algorithmes et des données ? Les deux peuvent être biaisés à des degrés arbitraires. Et si on parle tant de la transparence des algorithmes aujourd’hui, c’est que justement on craint ces biais, pour une large part parce qu’ils sont algorithmiques. La plate-forme APB en est un excellent exemple, qui a été jugée beaucoup plus sévèrement qu’un autre algorithme, plus ancien, mais mis en œuvre par les humains qui consistait à faire la queue et à accepter les étudiants sur la base du premier arrivé premier servi. Pas tellement plus juste qu’une sélection aléatoire algorithmique en dernier recours pourtant.

    Transparence des algorithmes

    Les données sont-elles biaisées ?

    Mais il est aussi tout aussi légitime de parler de besoin de transparence des données. Rappelez vous Tay, un bot, planqué derrière une image de jeune fille, lancé par Microsoft en 2016, qui imitant un millenial se retrouve après quelques tweets à tenir des propos sexistes comme gamergate is good and women are inferior, alors même que la promesse du géant américain était que, plus Tay s’entretiendrait avec des humains sur les réseaux sociaux, plus son « intelligence » s’aiguiserait. Même si Tay a été manipulée (et ça n’a pas été très difficile du reste), ce comportement est simplement dû au fait que les données sur lesquelles elle avait été entrainée sont juste un reflet navrant de la société. Comme souvent, les algorithmes ont juste un peu accéléré le mouvement.

    Plus récemment la jeune doctorante du MediaLab du MIT, Joy Buolamwini, en étudiant plusieurs algorithmes de reconnaissance faciale a constaté qu’ils marchaient très bien sur… les hommes blancs. Pourquoi ? Simplement parce que ceux-ci sont beaucoup plus représentés dans les banques de données utilisées par l’apprentissage d’une part et que d’autre part, les benchmarks pour les évaluer, c’est à dire les ensembles de tests, sont tout aussi biaisés. Pour simplifier, un algorithme de reconnaissance faciale est considéré comme bon par la communauté, s’il obtient de bonnes performances sur ces benchmarks, c’est-à-dire qu’il est capable de reconnaître des hommes blancs avec une forte probabilité.

    Ainsi, on peut assez facilement imaginer qu’un algorithme qui guide dans le choix des formations proposera plus naturellement à une jeune fille de faire médecine ou du droit et à un jeune homme de tenter une prépa scientifique s’il repose uniquement sur les statistiques et corrélations des dix dernières années. On comprend aussi pourquoi une femme négociera moins bien son salaire qu’un homme à poste équivalent car si elle interroge  son application favorite sur le sujet, les statistiques sont claires et donc les données utilisées pour rendre l’algorithme intelligent sont  évidemment biaisées. De fait les résultats de l’algorithme aussi.

    Et les exemples sont nombreux. Ainsi, des expériences lancées à l’université de Boston ont montré que des algorithmes d’intelligence artificielle, entrainés sur des textes issus de Google news, à qui on demandait de compléter la phrase : Man is to computer programmers as woman is to x,  répondaient homemaker [1]. Sans commentaire. Dans une autre étude [2], il est encore montré que les collections d’images utilisées par Microsoft et Facebook pour les algorithmes de reconnaissance d’images associent les femmes aux cuisines et au shopping quand le sport est plutôt relié aux hommes. Et évidemment, les algorithmes, non seulement reproduisent ces biais, mais les amplifient, accentuant au cours du temps ces associations. De même, lorsque les traducteurs automatiques traduisent une phrase d’un langage sans genre à un langage ou le genre doit être explicite, les biais sont évidents. They are programmers sera naturellement traduit en français par « ils sont programmeurs » et They are nurses par « elles sont infirmières ». Essayez vous-même comme je viens de le faire !

    Deux visages - sculptureEt si les algorithmes pouvaient rectifier le tir ?

    Les exemples précédents sont autant d’exemples où les machines sont neutres, les algorithmes sont neutres et l’IA résultante est biaisée uniquement car les données le sont.

    Encore une fois il est difficile de biaiser une machine, mais un algorithme est conçu et développé par des informaticien.ne.s qui peuvent en faire à peu près ce qu’ils en veulent. Si l’IA a été conçue initialement pour imiter l’ « intelligence » humaine, avec des algorithmes qui tentaient de reproduire au plus près les comportements humains, reflétés par les données, son emprise est telle aujourd’hui que l’on peut imaginer saisir cette opportunité pour rationaliser cette « intelligence » et surtout lui éviter de reproduire ces biais dont la société n’arrive pas à se débarrasser naturellement. Ainsi les algorithmes ne représenteraient plus une menace mais pourraient devenir les vrais Zorros du 21ème siècle.

    Est-ce si simple quand on compte autant d’obstacles éthiques que techniques ?  Tout d’abord, les industriels aujourd’hui n’ont pas tous accusé réception de ce problème de biais [3]. En fait, détecter les biais est une première étape qui n’est pas complètement naturelle car nous sommes malheureusement très habitués à certains d’entre eux. Quand bien même on observe ces biais, les traiter n’est pas non plus nécessairement évident. Imaginons un algorithme de ressources humaines qui doit sélectionner 10 personnes pour un entretien parmi n candidats à un poste de développeur Web. Il est clair que si on laisse faire un algorithme d’apprentissage classique, compte tenu de la disproportion notoire femmes/hommes de ces filières, il risque de sélectionner 10 hommes. Imaginons maintenant que nous forcions de manière explicite, le nombre de candidates à être supérieur ou égal à 5, ou de manière probabiliste en augmentant la probabilité de retenir une femme, malgré le biais des données. Ceci est alors équivalent à instaurer un quota, stratégie sur laquelle de nombreux comités n’ont pas réussi à converger indépendamment d’une mise en œuvre algorithmique.

    Techniquement, il n’est pas simple de garantir la validité des modèles et leur évaluation si on « nettoie » les données pour éviter les biais. En outre le problème de certains algorithmes d’intelligence artificielle aujourd’hui est qu’on a du mal à expliquer leurs résultats, c’est le cas de l’apprentissage profond (Deep Learning), selon les experts du domaine eux-mêmes. On sait et on observe que ces algorithmes fonctionnent plutôt bien, mais sans complètement comprendre pourquoi. C’est d’ailleurs l’un des prochains défis scientifiques du domaine. Quels seraient donc alors les paramètres à ajuster pour que le tout fonctionne de manière non biaisée ?

    Un autre problème concerne la détection et la génération des biais : la sous-représentation des femmes dans le domaine est telle que les algorithmes qui ressemblent à leurs concepteurs, véhiculent leur mentalité, leurs biais et donc leur culture masculine à 90%. De là à les taxer de sexisme, c’est peut-être y aller un peu fort mais clairement notre société est si « genrée » aujourd’hui qu’il n’est pas exclu que le manque de diversité dans ce domaine soit un frein à la détection et l’évitement de biais. Ceci ne fait que confirmer le fait que nous avons besoin de plus de femmes en informatique, également pour le bien de nos algorithmes.

    Pour conclure, il est assez clair que si l’IA cherche à modéliser le monde au plus près, elle absorbera ses travers et les normes culturelles biaisées de tous cotés et en particulier concernant les inégalités hommes femmes, voire les exacerbera en les renforçant, grâce à ces immenses capacités à calculer des corrélations en tous genres et surtout les plus présentes. Il est donc urgent de saisir cette opportunité algorithmique pour soigner notre société. Ce n’est pas simple mais un grand nombre de scientifiques sont d’ores et déjà sur le front !

    Anne-Marie Kermarrec, Mediego, Inria
    @AMKermarrec

    Pour aller plus loin :

    1. http://www.telegraph.co.uk/news/2017/08/24/ai-robots-sexist-racist-experts-warn/
    2. http://www.newsweek.com/2017/12/22/ai-learns-sexist-racist-742767.html
    3. https://www.technologyreview.com/s/608248/biased-algorithms-are-everywhere-and-no-one-seems-to-care/

     

  • Plus silencieux que la grande muette

    Après avoir présenté la certification de systèmes informatiques à l’occasion d’un article de binaire et l’émergence de débats sur le fait que les états doivent ou pas déléguer certaines de leurs prérogatives dans la sécurité numérique. Binaire a reçu le point de vue de deux collègues à propos d’un des acteurs de ces questions : l’ENISA. L’agence européenne de sécurité des réseaux est une agence de cybersécurité, qui est au centre de ce débat.
    Pierre Paradinas

    L’agence européenne de sécurité des réseaux ne craint plus sa disparition

    https://www.enisa.europa.euOn a presque oublié son existence :  l’Union Européenne dispose d’une agence de cybersécurité, l’ENISA. On ne l’a jamais beaucoup entendue mais ce n’est pas sa faute : son rôle opérationnel a été limité dès sa naissance, par la volonté des grands Etats membres qui voyaient d’un mauvais œil une incursion européenne dans leur sécurité nationale.

    C’est aussi la raison pour laquelle l’ENISA a été la seule agence européenne avec un mandat non permanent, à l’issue duquel son existence était chaque fois remise en question. Elle était de ce fait incapable de se projeter dans le futur et de développer une vision.

    Son mandat actuel se termine en 2020 (il a commencé en 2013 : ces 7 ans de mandat sont le maximum jamais attribué à cette agence) mais en septembre la Commission a proposé une nouvelle stratégie pour la cybersécurité qui fait la part belle à cette agence. Son budget annuel doublerait : de 11,2 à 23 millions € et son personnel passerait de 84 à 125. L’agence aurait aussi un rôle opérationnel pour coordonner la réaction des Etats membres en cas de cyber-attaque.

    L’ENISA va aussi être un acteur clé pour la cyber-certification. Si on veut considérer la sécurité dès la conception du produit (on parle alors de « security by design »), la certification est nécessaire mais chaque état membre, s’il s’en préoccupe, le fait à sa sauce.  Il y a bien la norme ISO 15408 qui sert de socle à un accord international (le Common Criteria Recognition Arrangement ou CCRA) de reconnaissance mutuelle mais seuls 13 Etats membres  l’ont signé et seuls deux niveaux de certifications sur sept sont reconnus mutuellement. Avoir une certification propre à chaque état membre est évidemment insupportable pour la Commission qui y voit une entrave au marché unique. Chaque Etat membre doit mettre en place une autorité chargée d’accréditer des organes qui peuvent délivrer les certificats. Ainsi c’est l’ENISA qui serait chargée de préparer le contenu de ces certifications en coopération avec un groupe d’experts constitué des autorités d’accréditation. À moins d’être obligatoire via une autre législation de l’Union, la certification resterait volontaire. En gardant un caractère volontaire à la certification, la Commission veille à ne pas imposer cette lourdeur aux services ou produits peu critiques et dont le prix augmenterait de ce fait. S’il y a une certification européenne en place, les Etats membres ne pourront plus avoir une certification nationale propre. Un fabricant pourra aller chez l’organe d’accréditation de son choix.

    La directive « cybersécurité  » avait déjà revu à la hausse le champ de responsabilité de l’ENISA en la transformant en cheville ouvrière pour son implémentation et son suivi. C’était une bonne raison de transformer l’ENISA en agence permanente.

    Dans sa proposition de régulation qui fixe le contour de l’ENISA, nouvelle formule, cette dernière aura les compétences suivantes :

    • Développer une politique cohérente européenne de sécurité de l’information et dans d’autres secteurs sensibles (énergie, transport, finance) et dans les domaines de l’identité électronique et des services de confiance;

    • Améliorer de la capacité de réponse de l’Union Européenne et de ses Etats membres en cas d’attaque (1);

    • Conseiller le nouveau centre de recherche en cybersécurité : le European Cybersecurity Research and Competence Centre qui verra le jour en 2018;

    • Faciliter la coopération entre les Etats membres volontaires (on imagine de fait que peu de grands Etats le feront), en analysant en cas d’incident des informations reçues des Etats membres pendant leur déroulement.

    Justifier un rôle pour l’ENISA

    La Commission justifie une action au niveau de l’Union Européenne via le test de subsidiarité, qui doit prouver qu’une action au niveau européen ne peut qu’être plus efficace comparée au niveau national. Ce qui, quand on parle de sécurité est une une gageure, les arguments devront être solides pour résister aux grands Etats membres qui ont, c’est vrai, entériné lors d’un conseil européen la nécessité pour l’Europe de se doter d’une cyber-stratégie.

    Pour la Commission, les réseaux, les systèmes d’information, les infrastructures critiques sont toutes interconnectées au niveau européen. Aucun pays ne peut plus gérer seul un cyber-incident qui se propagera automatiquement à tous ses voisins de surcroit. Vu ainsi, il ne s’agit pas comme le prétendent d’aucuns d’un transfert de compétences qui privent les Etats membres de leur capacité d’analyse [1]. Accepter une coordination de l’Europe, c’est faire un premier pas vers l’Europe de la défense qui nous a tellement manqué. La France, qui est le plus crédible des Etats membres en la matière, peut montrer la voie.


    Charles Cuvelliez, École Polytechnique de Bruxelles (ULB), Jean-Jacques Quisquater, École Polytechnique de Louvain, UCL

    Pour en savoir plus:

    Review of ENISA Regulation and laying down a EU ICT security certification and labelling, European Commission, July 7, 2017

    Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on ENISA, the « EU Cybersecurity Agency », and repealing Regulation (EU) 526/2013, and on Information and Communication Technology cybersecurity certification ( »Cybersecurity Act »), Brussels, 13.09.2017

    [1] Les Etats ne doivent pas déléguer leur sécurité numérique  Nicolas Arpagian / directeur scientifique du cycle Sécurité Numérique à l’INHESJ, Les Echos du 30.11.2017

    (1) On peut se demander pourquoi elle ne devient pas elle-même cette capacité de réponse, une option qui figurait dans une consultation à son égard. Elle doit se contenter de contribuer à l’établissement d’ISACS (Information Sharing and Analysis Centres) par secteur en diffusant bonnes pratiques et guidance.

  • Avec le Minitel, il y avait du rose…

    Photo Maggie Richards

    Le 19 décembre, l’ISCC (Institut des sciences de la communication CNRS / Paris-Sorbonne / UPMC) avait invité Julien Mailland, auteur avec Kevin Driscoll de « Minitel :  Welcome to the Internet ». Julien Mailland a préparé pour binaire un petit texte sur le Minitel en lien avec les questions actuelles sur la neutralité du Web, avec un regard incluant l’expérience du Minitel…
    Thierry Vieville et Pierre Paradinas

    Pour penser le futur du Net, interrogeons le passé

    Une campagne d’affichage de La Quadrature du Net nous rappelle à juste titre que « Google filtre ta pensée, » « Apple sait où est ta mère, » et « Facebook contrôle ce que tu peux lire. »  Aux États-Unis, une récente décision du régulateur des télécoms (la FCC) a enterré la neutralité du Net et permet donc à des FAI en position de monopole, ou au mieux d’oligopole, de bloquer des pans entiers de l’internet, à leur guise, pour des raisons purement mercantiles et qui ne bénéficient en rien aux utilisateurs.  Et on a appris récemment qu’Apple, qui peut prendre contrôle à distance de tout iPhone, ralentit délibérément ses vieux modèles – dans l’intérêt du consommateur, nous dit-on, ou est-ce plutôt un cas d’obsolescence programmée ?  Partout, l’intérêt public est sacrifié à celui de quelques multinationales qui contrôlent les différentes couches de l’internet : l’infrastructure physique,  les terminaux, et les applications.  Cette tendance vers un monde déjà orwellien, et qui risque de le devenir de plus en plus à la mesure que les régulateurs n’agissent pas à la hauteur des responsabilités qui sont les leurs, est-elle cependant inéluctable ?

    Photo J. Mailland

    Un cas d’espèce venu du passé – le réseau Minitel – nous invite à imaginer un futur différent de celui proposé par Google, Apple, Facebook, et consorts, un avenir où l’intérêt public serait ancré dans l’écosystème digital.  Si le réseau Minitel, qui a fermé en 2012, est souvent raillé pour sa lenteur et sa primitivité, il était pour l’époque une merveille technologique.  Mais ce qui est surtout important aujourd’hui est que l’exemple Minitel démontre que l’innovation privée et l’intérêt public ne sont pas toujours incompatibles, bien au contraire.  Avec Minitel, le fait que l’infrastructure physique au cœur du réseau était opérée par une entité publique (les PTT), offrait tant aux usagers qu’aux fournisseurs de contenu certaines garanties : l’égalité de traitement et la neutralité (celle-là même que les fournisseurs d’accès internet privés souhaitent voir abolir), et le respect de la vie privée (ce qui a permis par exemple l’explosion du Minitel rose), qui est garantie par le Code Civil, mais dont Mark Zuckerberg nous assure que nous ne voulons plus, afin qu’il puisse, sans restriction, monétiser nos vies.  Non seulement ces garanties n’ont pas empêché l’innovation, mais elles ont contribué à la catalyser : à l’aube du Web au début des années 90, la France entière était en ligne, contrairement aux pays où le secteur privé était seul en charge ; aux États-Unis par exemple, le futur Vice-Président Al Gore estimait en 1991 le nombre d’Américains connectés sur les systèmes tels Compuserve et Prodigy à moins d’un demi-million, soit une pénétration de 0.2%.

    Ce n’est pas dire que les états devraient nationaliser les réseaux internet.  Simplement, l’exemple du Minitel nous montre qu’une intervention publique stratégique et de qualité peut catalyser l’innovation numérique plutôt que la ralentir, ce qui est d’ailleurs exactement ce qu’arguait Al Gore en réclamant un financement public d’un réseau national, ce qu’il obtint, pavant un gros bout de chemin vers l’Internet moderne.  Demain, cette intervention publique pourrait, en France, prendre plusieurs formes.  D’abord, une application attentive des règles de neutralité dans la durée par l’Autorité de Régulation des Communications Électroniques et des Postes (ARCEP) afin de les pérenniser et de garantir l’égalité de traitement en aval, par les FAI, des contenus et applications auxquels les utilisateurs souhaitent accéder.  D’autre part, une application ferme de règles de protection de la vie privée aux plateformes digitales afin, par exemple, que Facebook ne puisse conserver les données d’un utilisateur se désinscrivant de ses services, ou que Google ou Samsung ne puisse plus vous enregistrer à votre insu.  Ce type d’intervention publique, l’expérience Minitel nous l’indique, n’est pas en contradiction avec l’innovation par le secteur privé, quoi qu’en pensent Mark Zuckerberg et Stéphane Richard.

    Ecran minitel : Photo J. Mailland

    Julien Mailland

    Pour aller plus loin, de Julien Mailland

  • La preuve en boucle

    Amina Doumane

    Quand on interroge Amina Doumane sur son domaine de recherche, on réalise vite que l’on va devoir la suivre dans une certaine gymnastique intellectuelle, façon mise en abyme à la Inception. Le but de sa thèse était de prouver qu’une preuve est bien une preuve. Mais évidemment pas n’importe quelle preuve…

    Cette post-doctorante au Laboratoire d’informatique du parallélisme (LIP – CNRS/ENS Lyon/Université de Lyon), qui a mené sa thèse entre l’Institut de Recherche en Informatique Fondamentale (IRIF – CNRS/Université Paris-Diderot) et le Laboratoire Spécification et Vérification (LSV – CNRS/ENS Paris-Saclay) vient d’obtenir à la fois le prix de thèse Gilles Kahn décerné par la SIF, et le Prix La Recherche, pour le domaine sciences de l’information, pour son article présenté au LICS2017.

    Dans les preuves mathématiques « normales », celles que l’on a pu faire au lycée, on nous a appris à s’appuyer sur des axiomes, c’est-à-dire des énoncés qui sont trivialement vrais, pour les utiliser pour démontrer des choses de plus en plus complexes. « Dans une démonstration infinitaire, aussi appelée preuve circulaire, lorsqu’on me donne un théorème T à démontrer,  je peux utiliser T  comme axiome pour démontrer … T !  précise la chercheuse. Les preuves circulaires sont très utiles, puisqu’elles facilitent la recherche de preuve,  mais on n’avait pas jusque-là pu prouver  qu’elles  « méritaient » le nom de preuve », en d’autre termes qu’elles avaient les propriétés structurelles  pour être désignées comme telles ».

    Machine à caféCes preuves circulaires, un peu inhabituelles vont s’avérer utiles pour la vérification de systèmes. Un système réactif correspond à peu près à n’importe quoi qui interagit avec son environnement, et qui évolue dans le temps : un ascenseur, une machine à café, une centrale nucléaire… La vérification d’un système correspond au fait de s’assurer que le système satisfait certaines propriétés, répond aux attentes qu’on peut en avoir, appelées spécifications : si j’appuie sur le bouton de la machine à café, j’obtiens un café… Pour pouvoir utiliser ces notions, on va alors abstraire, remplacer le système et les spécifications par des objets de logique que l’on sait manipuler. En l’occurrence, Amina Doumane s’est intéressée au µ-calcul, une forme de logique spécifique pour la description du comportement de système, notamment avec la prise en compte de la notion de temps.

    Une première formule du µ-calcul va ainsi décrire le système, et une deuxième formule détaillera les propriétés attendues de ce système. Une 3e formule doit englober les deux premières, pour que la formule du système implique nécessairement la formule de la spécification. « Appelons cette formule « la grande implication », précise-t-elle. Si on ne parvient pas à prouver la grande implication, c’est que le système ne vérifie pas les spécifications. Mais si on la prouve, on est sûr que le système satisfait  la spécification. De plus, cette preuve peut être vue  comme un certificat, qui peut être communiqué et même exécuté. Cette technique est d’ailleurs plus informative que d’autres : la preuve nous apprend pourquoi le système vérifie la propriété, ce qui donne des éléments explicatifs et donc une confiance supplémentaire. »

    Le tour de force d’Amina Doumane a été de réussir à concevoir un algorithme capable de prendre une formule de µ-calcul (par exemple et en particulier la grande implication) et d’en construire automatiquement une preuve. Comme souvent dans le cas d’avancées remarquables en recherche, l’ingéniosité a été de concilier des outils de disciplines différentes. Amina Doumane a ainsi pioché dans les algorithmes qu’utilise la théorie des automates, qu’elle a interprétés comme des algorithmes de recherche de preuve, dans les systèmes de preuves circulaires.

    Par ses travaux dans sa thèse, elle a ainsi pu démontrer que les preuves circulaires se comportent réellement comme des preuves, et de façon secondaire fournir des algorithmes de traitement de µ-calcul en vue d’applications pour la vérification des systèmes.

    Laure Thiébault, CNRS

    Publication commune avec CNRS – INS2I.

    Pour aller plus loin

  • Le temps des prix

    En janvier 2017, nous vous faisions part de la sortie du livre « Le temps des algorithmes » écrit par Serge Abiteboul et Gilles Dowek aux éditions Le Pommier. Aujourd’hui, nous avons l’occasion d’en reparler car cet ouvrage vient de recevoir le prix  « La Science se livre » catégorie adulte. Cette manifestation destinée à valoriser la culture scientifique auprès du grand public est organisée par le Département des Hauts-de-Seine en partenariat avec l’association BiB 92 et la Bibliothèque Nationale de France.  » Le temps des algorithmes« a été primé pour « l’originalité des sujets abordés, la rigueur scientifique de son contenu, et les qualités de transmission des connaissances au public ».

    Couverture Livre le temps des algorithmes par Serge Abiteboul et Gilles DowekNous avions partagé avec vous notre enthousiasme pour cet ouvrage cité en référence à maintes reprises pour la qualité de son approche et la pertinence de son contenu. Il permet en effet de comprendre la notion d’algorithme, de nous faire découvrir comment ils façonnent notre société actuelle et surtout il invite le citoyen à acquérir un socle de connaissance suffisant pour pouvoir appréhender les enjeux liés à ses algorithmes.

    Dans un tout autre domaine, le prix « la Science se livre » catégorie adolescent a été attribué à Hélène Rajcak et Damien Laverdunt pour leur ouvrage « Le monde invisible des animaux microscopiques » paru aux éditions Actes Sud Junior.

    Très bonne lecture à toutes et tous.

    Marie-Agnès Enard

    PS : le comité éditorial de binaire (sauf Serge Abiteboul) a jugé pertinent d’annoncer ce prix.

  • Parce qu’elle le vaut bien

    La Fondation L’Oréal remettait le 11 octobre 2017 à 30 jeunes femmes leurs bourses 2017 L‘Oréal-UNESCO Pour les Femmes et la Science en partenariat avec l’Académie des sciences et la Commission nationale française pour l’UNESCO. Ce programme identifie et récompense de jeunes chercheuses talentueuses dans les sciences formelles, les sciences du vivant et de l’environnement, les sciences de la matière, les sciences de l’ingénieur et technologiques. Florence Sèdes qui anime à la Société Informatique de France le groupe « femmes & informatique » partage ici le beau succès en informatique de Tahina Ralitera. Serge Abiteboul et Thierry Viéville.

    30 jeunes femmes scientifiques au parcours d’excellence ont reçu la bourse « Pour les Femmes et la Science » doté de 15 000€ pour les doctorantes et de 20 000€ pour les post-doctorantes. Elles ont été sélectionnées parmi plus de 1 000 candidates par un jury indépendant composé d’académiciens qui ont tenu à récompenser l’excellence de leur niveau académique, l’originalité de leur projet scientifique, mais aussi leur désir de transmettre leur passion aux plus jeunes.

    « Depuis 10 ans, la Fondation L’Oréal s’engage en faveur des femmes dans le monde afin de les soutenir et de les valoriser. A travers le programme Pour les Femmes et la Science, nous avons déjà pu soutenir plus 2700 jeunes femmes scientifiques pour les aider à briser le plafond de verre », déclare Alexandra Palt, Directrice Générale de la Fondation L’Oréal.

    Tahina Ralitera, jeune informaticienne malgache, actuellement en troisième année de doctorat au Laboratoire d’Informatique et de Mathématiques de l’Université de La Réunion, figure parmi les lauréates.

    Tahina Ralitera a 24 ans. En 2009, elle obtient à Madagascar, son île natale, un baccalauréat série C et réussit le concours d’entrée à l’École Supérieure Polytechnique d’Antananarivo, dans la filière télécommunications. En 2013, elle reçoit une bourse du gouvernement français pour poursuivre des études d’ingénieur en informatique et télécommunications à l’École Supérieure d’Ingénieurs Réunion Océan Indien à La Réunion. Elle obtient un Master 2 en 2016, major de promotion. Diplômée ingénieure en Informatiques et Télécommunications, elle se lance dans une thèse d’informatique.

    Laissons parler Tahina Ralitera : cette bourse représente une réussite pour moi, j’en suis très fière. Étant moi-même dans une discipline dite « masculine », la promotion de la participation de la femme dans la recherche scientifique est une cause qui m’importe beaucoup. Dès mon plus jeune âge, mes parents m’ont orientée vers un parcours scientifique, par le choix des dessins animés ou des émissions télévisées qu’ils me faisaient regarder, par les livres qu’ils me faisaient lire, en m’incitant à visiter des salons scientifiques. Tout cela a cultivé mon intérêt pour les sciences. Je voulais devenir médecin, puis chimiste, puis biologiste, puis physicienne, puis astronaute, finalement, je me suis orientée vers l’informatique, une discipline que j’ai découverte assez tard, au lycée. Le cybercafé du coin (nous n’avions pas d’ordinateur à la maison, et les connexions étaient payantes à la durée) offrait un cours d’initiation à l’informatique où ma mère m’a inscrite. C’est à ce moment-là que s’est révélée ma passion pour l’informatique.

    Tahina Ralitera a commencé une thèse sous la direction du Professeur  Rémy Courdier, spécialiste des « Systèmes Multi-Agents ». Son travail doctoral vise à développer un simulateur des flux de véhicules électriques sur un territoire, un outil d’aide à la décision pour placer des bornes de recharge et éviter les pannes.

    Pour sa première conférence, elle se rend au Portugal, découvre la couverture wifi et le covoiturage avec des véhicules  électriques. Elle prend conscience de la richesse de son sujet et plus largement de la mobilité dans des villes dites  »intelligentes ». Le concept s’impose à elle : Une île  intelligente ! Mon projet ne se limite pas à la mobilité ou aux  bâtiment, c’est tout un système ! Il faut penser à la gouvernance,  l’économie, l’éducation, la santé.

    C’est cette vision globale de services qu’on va appeler île intelligente.

    La Réunion dans vingt ans, elle l’imagine déjà, avec une  circulation plus fluide et une meilleure qualité de vie.  La  voiture électrique a-t-elle une place dans cet avenir ? Si on arrive à  développer l’infrastructure, ça résoudra en partie le problème, car les  gens ont encore peur d’être à court de batterie à Cilaos et de ne pas  pouvoir revenir ! Quant à la voiture électrique en libre service, elle  sait que techniquement, c’est tout à fait possible. Elle a  déjà réalisé un prototype logiciel qui fonctionne à Londres dans le cadre d’une collaboration avec l’Imperial College. Un deuxième prototype pour La Réunion est en cours de  validation.  Si elle n’a jamais encore conduit de voiture électrique à La Réu­nion, Tahina  Ralitera est en mesure de proposer une carte de l’île avec tous  les points de recharge utiles pour développer une flotte de véhicules  électriques ! Il lui faut aussi réfléchir aux impacts sociétaux, à ce qui pourrait freiner le déploiement de la voiture électrique sur l’île.

    Florence Sèdes, chercheuse en informatique à l’IRIT et membre du CA de la SIF.

  • Sécurité routière et cybersécurité

    Avec les objets connectés, notre sécurité est remise en question. Binaire publiait l’an dernier une nouvelle « You are under arrest » qui essayait d’imaginer ce qui pourrait se produire dans le futur si, aujourd’hui, nous n’accordons pas au sujet de la sécurité, toute l’importance qu’il mérite. Nous avons demandé à Gérard Le Lann, un spécialiste de la question, de nous expliquer cette fois techniquement ce qu’il en était. Serge Abiteboul.

    Une réduction significative du nombre d’accidents graves (invalidités, pertes de vies humaines) et une meilleure efficacité (réduction des temps de trajet, quasi-élimination des embouteillages) sont deux des buts principaux de la conduite automatisée (avec ou sans chauffeur humain). Les buts d’innocuité (*) et d’efficacité ne pouvant être atteints en se limitant à la robotique embarquée (radars, lidars, caméras, etc.), des travaux ont été entrepris dès 2004 dans le but de doter les véhicules d’émetteurs/récepteurs radio. Cela a conduit au concept de véhicule autonome « connecté » (VAC). À partir de 2020, les véhicules mis en circulation aux USA devront être dotés d’équipements radio conformes aux solutions WAVE (pour Wireless Access in Vehicular Environments) actuelles, qui comprennent un ensemble de protocoles basés sur des télécommunications de type wifi, connues sous l’acronyme V2X (vehicule-to-everything), permettant à un VAC d’être « connecté » à des relais terrestres (infrastructures routières, réseaux de télécommunications) et de communiquer avec d’autres VAC. Si rien ne l’entrave, cette décision s’imposera en Europe et ailleurs. Cette perspective est inquiétante.

    Waymo Chrysler Pacifica Hybrid, testée dans la région de la Baie de San Francisco.Wikipedia

    On sait que, dans des conditions de trafic moyennement dense, le nombre de véhicules en compétition pour accéder au canal radio partagé est tel que les délais de transmission de message sont trop grands pour éviter les accidents. En outre, les communications radio étant non fiables, les messages V2X émis peuvent ne pas être reçus par les destinataires visés. Il est donc impossible de prédire quoi que ce soit concernant la coordination inter-véhiculaire. Des diffusions périodiques de balises sont censées procurer l’innocuité désirée. Tout véhicule doit diffuser, entre 1 fois et 10 fois par seconde, un message V2X daté donnant, en particulier, sa géolocalisation et sa vitesse, nécessairement non chiffrées. L’idée sous-jacente est que les VAC co-localisés peuvent maintenir la même carte donnant leurs positions exactes et celles des véhicules qui les environnent, et ainsi éviter les accidents. C’est malheureusement faux. A raison de 10 balises par seconde, en conditions de trafic moyennement dense, le canal radio est vite saturé. Du coup, les véhicules ne peuvent plus être géolocalisés. A des fréquences plus faibles, en présence de pertes de balises, les cartes des VAC ne peuvent être identiques. En dépit du gaspillage de ressources de calcul et de communication, on ne peut éviter les accidents.

    Du point de vue « connexion », avec WAVE, les VAC sont équivalents à des smartphones-sur-roues. Ils sont donc potentiellement sujets à cyberespionnage et vulnérables aux cyberattaques dont sont victimes les équipements radio sans fil. Le problème est que les smartphones-sur-roues peuvent tuer. La possibilité d’une prise de contrôle à distance de véhicule a été démontrée à plusieurs reprises, lors de conférences Black Hat et par des agences gouvernementales. Les techniques cryptographiques en cours de normalisation destinées à contrer le cyberespionnage et les cyberattaques (usurpation d’identité, falsification de messages légitimes, injection de messages frauduleux, etc.) n’éliminent pas complètement les vulnérabilités. Par exemple, les attaques de « l’homme du milieu » (**) sont possibles. On montre également qu’il est possible de pister les trajets, en reliant des géolocalisations. Même avec des messages V2X « anonymisés », si l’on peut associer des lieux fréquemment visités (par exemple un lieu de travail et un lieu de résidence), alors le piratage de données d’ordre privé devient réalisable. Ces faiblesses sont connues mais la communauté WAVE 1.0 (***) tente de s’en dédouaner en affirmant que l’on ne peut faire mieux. C’est faux.

    D’autres solutions proposées plus récemment (toute une gamme que nous appellerons ici WAVE 2.0) permettent de garantir à la fois l’innocuité maximale et la cybersécurité « by-design ». Les protocoles WAVE 2.0 reposent sur des communications directes V2V (vehicule-to-vehicle) qui garantissent des délais d’échange de messages et de coordination inter-véhiculaire extrêmement courts, ce qui permet de prouver l’innocuité. Les technologies de communications radio et optiques utilisées sont de courte portée et bien plus performantes que les technologies WAVE. Les messages V2V n’étant échangés qu’entre voisins « immédiats », les attaquants potentiels d’un VAC sont aisément et immédiatement détectables, ce qui permet de prouver que les cyberattaques rapprochées ne peuvent mettre en péril l’innocuité (une propriété fondamentale). Les identifiants des VAC émetteurs de messages V2V étant totalement anonymisés, le cyberespionnage rapproché n’est d’aucun intérêt.

    L’architecture des systèmes bord des VAC garantit que les télécommunications V2X ne peuvent avoir d’impact sur la robotique du véhicule. Ainsi, la prise de contrôle à distance devient infaisable. Plus généralement, on peut montrer que les cyberattaques ourdies par des entités inconnues distantes ne peuvent mettre en péril l’innocuité. Quant aux risques de cyberespionnage distant, ils n’existent qu’à la condition d’autoriser les télécommunications V2X sortantes (accès à Internet, etc.). Il est donc indispensable d’offrir à un passager de VAC la possibilité d’exprimer via une option « furtivité » son refus ou son consentement pour activation des télécommunications sortantes V2X individuelles. Avec WAVE 2.0, en cas de comportement malveillant, la robotique embarquée prend le contrôle du VAC et l’immobilise en lieu sûr, pendant que sont diffusés, à destination des autorités, des messages V2X chiffrés permettant d’identifier et de géolocaliser le véhicule immobilisé, ainsi que de fournir le contenu pertinent d’une boite noire. Malgré l’anonymat, les enregistrements consignés dans les boites noires assureront l’indispensable imputabilité (****).

    Les capteurs intérieurs à un VAC (caméras, par exemple) dont les avantages sont abondamment médiatisés (s’assurer de la vigilance humaine, par exemple) sont des sources supplémentaires de cyberespionnage. Les atteintes à la vie privée sont bien certaines. Que deviennent ces données, notamment en cas de piratage des serveurs qui les hébergent ? Les passagers des VAC ont pourtant droit au respect de leur vie privée. Tout comme l’option « furtivité », une option « désactivation des capteurs intérieurs » doit être offerte.

    Les voitures autonomes Navlab. Navlab 5 (le véhicule le plus proche ) achevé et 1995, a été la première voiture à traverser en autonome les États-Unis d’une côte à l’autre.

    Faux dilemme—Vrai choix de société

    Nous n’avons pas à choisir entre innocuité et cybersécurité, les deux propriétés existent avec WAVE 2.0. Nous sommes donc dès à présent confrontés à un choix de société :

    • soit les solutions WAVE 1.0 sont déployées, et alors nous seront potentiellement cybersurveillés et sujets aux cyberattaques lors de nos déplacements motorisés,
    • soit, grâce aux actions combinées des mondes académique, juridique, de sociologues, de spécialistes de l’éthique, du monde industriel et des autorités gouvernementales européennes, nous leur préférons au contraire les solutions WAVE 2.0 et leurs options « furtivité » et « désactivation des capteurs intérieurs », qui vont dans le sens du Règlement Général sur la Protection des Données. WAVE 2.0 deviendrait ainsi le socle d’une nouvelle génération de standards pour les technologies des véhicules autonomes du futur.

    Dans quel type de société voulons-nous vivre ? Voilà la question qui est posée.

    Gérard Le Lann, Inria

    NB : le lecteur intéressé pourra consulter la publication C&ESAR 2017

    (*) Non-dangerosité (quasi élimination des accidents graves).

    (**) L’attaque de l’homme du milieu (man-in-the-middle attack) a pour but d’intercepter les communications entre deux parties, sans que, ni l’une, ni l’autre ne puisse se douter que le canal de communication entre elles a été compromis. L’attaquant doit d’abord être capable d’observer et d’intercepter les messages envoyés par une victime, disons Alice, à l’autre, Bob. L’attaquant parle à Alice en prétendant être Bob, et à Bob en prétendant être Alice.

    (***) WAVE 1.0 (WAVE + balisage périodique) et WAVE 2.0 sont des notations d’ordre pratique proposées par l’auteur.

    (****) Attribution des responsabilités et non-dénégation des causes ayant entrainé un accident grave.