Catégorie : Actualité

  • Les liaisons dangereuses du renseignement français

    L’analyse de données massives, le big data, a de nombreuses applications : on peut vouloir faire parler les données dans de nombreux domaines. Nous nous intéressons ici à un en particulier, le renseignement.   Des matériels informatiques de plus en plus puissants, des algorithmes de gestion et d’analyse de données de plus en plus sophistiqués, la disponibilité de données numériques de plus en plus massives changent notre monde. Ils permettent des avancées extraordinaires de la recherche scientifique dans de nombreux domaines, comme la médecine, l’astronomie ou la sociologie. Ils mettent à notre service des outils fantastiques comme, aujourd’hui, des moteurs de recherche du Web tel Qwant (1) et, peut-être demain, les systèmes d’informations personnelles tel celui en cours de développement par l’entreprise française Cozy Cloud. Ils sont beaucoup utilisés par les entreprises, par exemple pour le marketing… et aussi par les gouvernements. Il suffit de collecter des masses de données numériques – on y trouvera toute l’intelligence (au sens anglais (2)) du monde – pour lutter contre la criminalité, détruire ses opposants politiques, découvrir les secrets industriels de ses concurrents.

    © Progressistes

    Une société s’est imposée sur ce marché juteux, Palantir Technologies. Le cœur de leur technologie est un système, Palantir Gotham, qui permet d’intégrer massivement des données structurées (provenant de bases de données) et non structurées (par exemple des textes du Web ou des images), de faire des recherches sur ces données, de les analyser, d’en extraire des connaissances.

    Comment ça marche ?

    La difficulté est de comprendre le sens des données. Celles d’une entreprise sont relativement propres et bien structurées. Quand nous utilisons les données de plusieurs entreprises, quand nous les « intégrons », c’est déjà moins simple. Les données sont organisées différemment, les terminologies peuvent être différentes. Par exemple, les deux systèmes peuvent utiliser des identifiants différents pour une même personne, des adresses ou des courriels différents, etc. Les informations du Web et des réseaux sociaux peuvent être encore plus difficiles à extraire : les personnes utilisent parfois juste des prénoms ou des surnoms; les imprécisions, les erreurs, les incohérences sont fréquentes; surtout, les données sont très incomplètes. En outre, une grande masse des informations disponibles consiste en des textes et des images où il faut aller chercher des connaissances.

    Les « progrès » de la technique ont été considérables ces dernières années. Par exemple, le système XKeyscore, un des bijoux (en termes de coût aussi) de la NSA, peut réunir, pour une personne, quasi instantanément la liste de ses appels téléphoniques, de ses paiements avec une carte de crédits, de ses courriels, ses recherches Web, les images de vidéosurveillance d’un magasin où elle a réalisé des achats… Palantir propose à ses utilisateurs XKeyscore Helper pour importer des données de XKeyscore, les interroger, les visualiser, les analyser et les réexporter.

    Palentir et la DGSI

    Est-ce la fin de la vie privée ? Ne s’agirait-il là que d’exagérations ? De la parano ? J’ai peur que non. Nous n’en sommes pas encore là en France, même si des lois comme la celle de 2015 relative au renseignement nous engagent dans cette direction. Heureusement, nos services de renseignements ont moins de moyens, et d’autres textes, la loi informatique et libertés ou le règlement européen sur la protection des données personnelles à partir de 2018, nous protègent.

    Revenons à Palantir. Parmi ses premiers investisseurs, on trouve la CIA, et parmi ses clients étatsuniens, la CIA, la NSA, le FBI, les Marines, l’US Air Force, les Forces d’opérations spéciales. La technologie de Palantir est utilisée notamment pour relier les données de plusieurs agences de renseignement et leurs permettre ainsi de coopérer. Depuis 2016, Palantir travaille aussi en France pour la Direction générale de la sécurité intérieure. Nous nous inquiétons peut-être pour rien, mais que font-ils pour la DGSI ? À quelles données sur des Français ont-ils accès ? Dans le cadre de la transparence de l’État, il nous semble que nous avons le droit de savoir.

    Naïvement, nous aurions aussi pu penser que, sur des données de sécurité intérieure, une entreprise européenne aurait été plus appropriée, ne serait-ce que parce qu’elle serait plus directement soumise aux lois européennes.

    Pour tenter de nous rassurer, nous pouvons consulter le site Web de Palantir, où sous l’intitulé What We Believe (Ce que nous croyons), on peut lire :

    « Palantir is a mission-focused company. Our team is dedicated to working for the common good and doing what’s right, in addition to being deeply passionate about building great software and a successful company. » (Palantir est une entreprise concentrée sur sa mission. Notre équipe est dévouée à travailler pour le bien commun et à faire ce qui est bien, en plus d’être profondément passionnée par la création de logiciels géniaux et d’une entreprise prospère.)  

    Certes, mais après nombre de révélations, notamment celles d’Edward Snowden sur des programmes de surveillance à l’échelle mondiale, impliquant la NSA ou l’alliance de renseignement Five Eyes (Australie, Canada, Nouvelle-Zélande, Royaume-Uni, États-Unis), nous pouvons difficilement nous contenter de bonnes intentions.

    Airbus parmi les clients

    Parmi les clients de Palantir, on trouve aussi Airbus. Il s’agit dans ce cas, en principe, d’intégrer des informations dispersées sur plusieurs systèmes d’Airbus, et de les analyser pour comprendre les problèmes de qualité des A350. C’est pour la collecte, l’intégration et l’analyse de données qu’Airbus utilise la technologie et l’expertise de Palantir. Nous pouvons bien sûr nous réjouir de l’amélioration de la sécurité de l’A350. Mais, n’y a-t-il pas à craindre que des informations stratégiques se retrouvent par hasard, via les réseaux de la CIA proches de Palantir, dans les mains de concurrents d’Airbus ? Ne dites pas que c’est improbable ! Naïvement, nous aurions aussi pu penser que, sur de telles données, une entreprise européenne aurait été plus appropriée, ne serait-ce que pour éviter trop de connexions occultes avec des entreprises étatsuniennes ou asiatiques.

    Si nous préférons penser que les services de renseignement français et ceux de la sécurité d’Airbus sont compétents, responsables, et qu’ils savent ce qu’ils font, nous pouvons légitimement nous inquiéter de les voir utiliser les services d’une société étatsunienne proche des services secrets et dont un des fondateurs est Peter Thiel, un libertarien, aujourd’hui conseiller numérique de Donald Trump, qu’il a soutenu tout au long de la campagne électorale qui mena Trump à la Maison-Blanche.

    L’analyse de données massives est un outil moderne pour lutter contre le terrorisme. En croisant les bases de données des différentes agences gouvernementales, on peut détecter des comportements suspects, des activités qui intéressent la lutte antiterroriste. J’ai été marqué par ce que m’a dit un jour (c’était avant le 13 novembre 2015) un officier de renseignement : « S’il y a un attentat terroriste majeur en France, on nous reprochera de ne pas avoir fait tout ce qui était en notre pouvoir pour l’empêcher. » Pourtant, cette surveillance massive de la population, d’individus a priori suspects… ou pas dans des pays démocratiques peut raisonnablement inquiéter, être prise pour une atteinte aux libertés. C’est bien là le dilemme. Après chaque attentat, les politiques, bouleversés par les images, l’horreur, sont prêts à tout pour éviter que cela se reproduise, même à restreindre les libertés. On peut les comprendre. Mais, entre l’épouvante du terrorisme et la répulsion du totalitarisme, il faut choisir où placer le curseur. Peut-être faudrait-il garder en tête que le renseignement intérieur se fait, dans un état de droit, sous le contrôle de la justice et ne surtout pas oublier qu’un affaiblissement de la démocratie est une victoire du terrorisme.

    Serge Abiteboul, Arcep, Inria et École normale supérieure, Paris.

    (1) Qwant est un moteur de recherche européen qui préserve la vie privée et ne transmet ni ne retient donc d’informations vous concernant.

    (2) En effet, nul ne penserait à traduire Intelligence Service par « service intelligent », ça se saurait !

    Pour en savoir plus

    • Sam Biddle, How Peter Thiel’s Palantir Helped the NSA Spy on the Whole World, The Intercept, 2017.
    • Ashlee Vance et Brad Stone, Palantir, the War on Terror’s Secret Weapon, Bloomberg Businessweek, 2011.
    • Vous pouvez aussi consulter ce blog.

    Cet article est paru originellement dans la revue Progressistes, Numéro 18, oct-nov-déc 2017. Le numéro, dans sa totalité, est disponible électroniquement ou en format papier.

  • La malédiction de la grande dimension

    Stéphane Mallat est le titulaire de la chaire « Sciences des données » du Collège de France où il présente le cours « L’apprentissage face à la malédiction de la grande dimension » (leçon inaugurale le 11 janvier 2018). Il a été professeur d’informatique à l’École normale supérieure de la rue d’Ulm de 2012 à 2017. En 2001, il a cofondé une start-up, Let It Wave, qu’il a dirigé jusqu’en 2007.  Les algorithmes d’apprentissage peuvent nous émerveiller par leurs résultats, nous effrayer aussi parce qu’ils sont mal compris. Le cours de Stéphane Mallat devrait permettre de mieux les appréhender. Serge Abiteboul.
    Cet article est publié en collaboration avec The Conversation.
    Voir la page binaire sur l’informatique au Collège de France

    Nous assistons à un déluge de données numériques, sous la forme d’images, de sons, de textes, de mesures physiques ainsi que toutes les informations disponibles sur Internet. L’analyse automatique de ces données est devenue un enjeu industriel, sociétal et scientifique majeur. La performance des algorithmes d’analyse de données a fait un bond ces dernières années, grâce à l’augmentation des capacités de calcul et des masses de données, mais aussi grâce à l’évolution rapide des algorithmes d’apprentissage. Ce bond est à l’origine de la renaissance de l’Intelligence Artificielle. En particulier, les réseaux de neurones ont récemment obtenu des résultats spectaculaires pour la classification d’images complexes, la reconnaissance vocale et de musique, pour la traduction automatique de textes ou la prédiction de phénomènes physiques et même pour battre le champion du monde de Go. Ils sont utilisés dans des applications industrielles et médicales, y compris pour les voitures autonomes. La chaire de sciences des données présentera les algorithmes et les principes mathématiques permettant de comprendre la nature des connaissances acquises par ces algorithmes d’apprentissage.

    Un algorithme d’apprentissage prend en entrée des données, par exemple une image, et estime la réponse à une question, par exemple trouver le nom de l’animal dans l’image. Ces algorithmes d’apprentissage ne sont pas entièrement déterminés à l’avance. Ils incluent de nombreux paramètres qui sont optimisés avec des exemples, lors de la phase d’apprentissage. Pour la reconnaissance d’animaux, on donne à l’algorithme des exemples d’images et le nom des animaux dans chaque image. L’apprentissage assure que l’algorithme ne fasse pas d’erreur sur les exemples d’entrainement. Cependant cela ne présente aucun intérêt en soit. Il faut garantir que ce résultat se généralise et donc que l’algorithme soit capable de prédire le bon résultat sur des données qu’il n’a jamais vues au préalale. Cette généralisation est liée à l’existence de régularités, que l’algorithme utilise pour relier le résultat sur une donnée inconnue avec les exemples connus.

    La complexité de ce problème vient du très grand nombre de variables dans chaque donnée. Ainsi une image a typiquement plus d’un million de pixels, et donc plus d’un million de variables dont il faut tenir compte pour répondre à une question. L’interaction de ces variables produit un nombre gigantesque de possibilités. C’est la malédiction de la dimensionnalité. Pour faire face à cette malédiction, il est nécessaire d’avoir des informations à priori qui sont utilisées par les algorithmes.  Comprendre la nature de cette régularité en grande dimension est un enjeu fondamental qui fait appel à de nombreuses branches des mathématiques, dont les statistiques, les probabilités, l’analyse et la géométrie.

    Sciences des Données et Mathématiques Appliquées

    La chaire s’intitule « sciences des données » par opposition au singulier « la science des données » car ce domaine est une auberge espagnole, où cohabitent des approches et des cultures scientifiques totalement différentes, qui s’enrichissent mutuellement. Cela comprend les mathématiques et notamment les statistiques, mais aussi l’informatique et l’intelligence artificielle, le traitement du signal et la théorie de l’information, et toutes les sciences comme la physique, la biologie, l’économie ou les sciences sociales, qui traitent et modélisent des données. Apporter une vision et un langage commun au-delà des spécificités de chaque domaine est la vocation des mathématiques. C’est ce point de vue qui sera développé, tout en restant enraciné dans les applications qui sont sources de problèmes nouveaux, de créativité et d’idées. Cet aller-retour entre mathématiques et applications, qui efface progressivement les frontières entre expérimentations et théorie, est au cœur de la démarche des mathématiques appliquées. La beauté des concepts qui se dégagent ne s’enracine pas seulement dans leur pureté, comme celle d’un diamant qui se suffirait à lui-même, mais dans la beauté des correspondances entre domaines aussi différents que la reconnaissance d’images, la neurophysiologie, la chimie quantique, la cosmologie ou l’économie. Révéler ces correspondances est aussi l’ambition des mathématiques appliquées.

    En sciences des données il s’agit de comprendre le lien entre les applications, l’algorithmique, les expérimentations numériques et la compréhension mathématique du traitement de masses de données. Les mathématiques sont importantes pour garantir la robustesse des résultats, notamment pour des usages critiques comme la conduite de voitures autonomes. Le cours offrira la possibilité de participer à des challenges de données, organisés par mon équipe de recherche à l’École Normale Supérieure. Ces challenges proviennent de start-ups, d’hôpitaux ou des laboratoires scientifiques, et permettent à chacun de développer ses propres idées, et ainsi comparer la performance de différents types d’algorithmes sur de vrais problèmes. Ces challenges sont disponibles sur cette page web.

    Cette chaire a aussi pour objectif de mieux faire comprendre les avancées des algorithmes et des mathématiques de l’apprentissage et de l’intelligence artificielle, à un plus large public. Diffuser la connaissance dans ce domaine est important car ces technologies auront probablement un impact croissant sur l’industrie, la médecine mais aussi sur certains aspects de notre organisation économique et sociale. Il faut y réfléchir bien au-delà des cercles scientifiques.

    Face à la Malédiction de la Dimensionnalité

    Le cours de cette année introduira les outils algorithmiques et mathématiques liés à la généralisation pour des données incluant un grand nombre de variables. Il approfondira la notion de régularité qui est centrale dans ce domaine, et son utilisation par des différents types d’algorithmes, y compris des réseaux de neurones. Le cours commencera par la notion de régularité pour des données en basse dimension, à travers la transformée de Fourier et la transformée en ondelettes, avec des applications pour le débruitage et la compression de signaux. Il considérera ensuite l’apprentissage supervisé, les algorithmes à noyaux, et la performance des réseaux de neurones à une couche cachée.

    Chaque séance de cours sera suivie par un séminaire présentant l’état de l’art dans différents domaines d’applications. Des challenges de données seront proposés aux participants et présentés lors des premières séances. Au menu de cette année, plus de 10 challenges, pour l’économie d’énergie, le diagnostic de cancer à partir de données génomiques, la prédiction en finance, l’analyse de questionnaires, la reconnaissance d’images de célébrités ou la prédiction de scores de football.

    Stéphane Mallat, Professeur au Collège de France

     

  • Meltdown et Spectre, c’est grave docteur ?

    Nous avons déjà publié un article de David Monniaux sur les failles des ordinateurs, Meltdown et Spectre, qui occupent le devant de l’actualité. L’importance de cette information est suffisante pour nous conduire à enrichir le débat avec un deuxième texte que nous ont proposé Jean-Jacques Quisquater et Charles Cuvelliez.
    binaire

    La faille largement médiatisée sur Intel et ses concurrents, AMD et ARM, sonnera comme une piqûre de rappel : performance et sécurité ne riment pas souvent. Il s’agit en fait de deux failles  dénommées Spectre et Meltdown par leurs découvreurs respectifs.

    Spectre

    Spectre utilise la technique d’anticipation dans l’exécution des instructions envoyées au microprocesseur. Il arrive souvent qu’un microprocesseur, pour gagner du temps, spécule sur les prochaines instructions qui doivent lui être envoyées de la mémoire.  A ce niveau élémentaire de programmation, c’est souvent possible avec succès et utile lorsque l’exécution de cette instruction dépend de valeurs en mémoire. La rapatrier de la mémoire prend relativement tellement de temps par rapport à la rapidité du microprocesseur, que ce dernier préfère encore la deviner et exécuter l’instruction quitte à tout laisser tomber s’il s’était trompé. Il revient en arrière en se basant sur l’état dans lequel il était avant de spéculer à tort. Cela arrive rarement et au final, le gain en performance est substantiel.  En fait, les microprocesseurs n’exécutent pas souvent dans l’ordre les instructions d’un programme. Il exécute parfois des instructions, qui arrivent plus loin dans le flux en question, bien en avance pour gagner du temps même si leur déroulement dépend (du résultat) des  instructions antérieures.  Plutôt que d’être bloqué à ce niveau, il spécule encore. C’est là que se trouve la vulnérabilité  Spectre : comme les microprocesseurs sont censés revenir à leur état antérieur, en effaçant matériellement tout, si l’instruction spéculée n’était pas correcte, pas suffisamment de sécurité n’a été introduire à ce niveau.

    L’erreur de conception est que le microprocesseur n’efface pas toutes les conséquences de l’exécution anticipée d’une instruction qui n’était pas la bonne. En d’autres termes, il n’efface pas tout ce que cette instruction anticipée à mauvais escient a créé comme changements dans l’état des différents éléments du microprocesseur, en particulier, les caches. Dès lors, il suffit de forcer le microprocesseur à spéculer sur une instruction qui donne accès à l’attaquant à des données sensibles.

    Les chercheurs ont montré que c’était possible. Ils ont créé un programme qui contenait des données secrètes stockées dans  la mémoire. Ils ont compilé ce programme et ont recherché dans le code exécutable les instructions qui accèdent à cette mémoire pour en extraire les données confidentielles. Ils ont ensuite forcé le microprocesseur à spéculer sur les prochaines instructions à effectuer en allant chercher précisément ces instructions-là. Bingo : le microprocesseur a tout simplement lu le contenu en mémoire du programme « normal ». Il avait donc accès à des données confidentielles d’un autre utilisateur auxquelles l’attaquant n’aurait pas dû avoir accès. Plus inquiétant : ils ont pu renouveler l’exploit avec un code javascript portable. Ceci dit, pour mettre cette attaque en pratique, ce ne sera pas une sinécure. Toute la difficulté de l’attaque consiste à donner au microprocesseur la bonne instruction à exécuter de manière spéculative et anticipée pour accéder à de l’information confidentielle. Dans leur démo, les chercheurs ont simplement forcé le processeur à lire le contenu d’une adresse mémoire choisie par eux et qui pourrait dans un cas réel contenir de l’information confidentielle d’une tierce personne.

    En fait, les techniques d’isolation des programmes qui tournent sur un même ordinateur sont connues et déployées depuis longtemps.  Elles empêchent un programme d’accéder à la mémoire utilisée par un autre programme concurrent. Ouf. Ce que ces techniques n’ont pas prévu est qu’à un niveau inférieur, le microprocesseur, l’exécution anticipée d’une instruction pourrait amener un attaquant à violer, au niveau matériel, cette séparation qui se passe au-dessus. Toutes ces techniques se basent sur l’idée que seules les instructions officielles sont réputées avoir été effectuées, et pas des instructions spéculatives qui vont aller là où il ne faut pas sans contrôle élémentaire.

    Bien sûr, cette attaque, pour être réaliste, exige que l’attaquant puisse interagir avec la victime, par exemple utiliser le même CPU et d’avoir accès, d’après le compilateur utilisé par la victime, aux zones probables de la mémoire où il pourrait y avoir de l’information confidentielle. Il n’empêche : Spectre affecte tous les microprocesseurs : AMD, ARM, Intel. Spectre est difficile à exploiter mais il existe des remèdes. On devrait pouvoir stopper l’exécution spéculative d’instructions mais c’est alors au prix d’une sérieuse dégradation de performance. On ne pourrait stopper que les instructions de lecture mémoire spéculative mais ce n’est pas suffisant car de l’information sensible pourrait ne pas venir que de la mémoire. La seule bonne nouvelle est que seul le secret des données peut être violé, par leur intégrité.

    Meltdown

    Meltdown est une autre vulnérabilité qui viole un principe fondamental de sécurité des microprocesseurs : l’isolation des mémoires utilisées par les différents programmes qui tournent sur un ordinateur en fonction de leur niveau de privilèges. On parle d’exécution en mode kernel (privilégié) ou en mode utilisateur.  Le mode kernel donne accès au système lui-même.  Face à ce danger, la mémoire utilisée par le mode kernel est normalement totalement séparée de la mémoire utilisée en mode utilisateur. Le problème est que passer du mode kernel au mode utilisateur finale ou l’inverse exige de passer d’une zone mémoire à l’autre totalement invisibles et isolées l’une de l’autre. Cela prend un temps fou et dégrade les performances du processeur. Mais c’est indispensable : la mémoire kernel peut contenir tous les secrets imaginables de votre machine : mots de passe, contenus de fichiers chargés en mémoire … Dans les microprocesseurs modernes, cette isolation entre mode kernel et mode utilisateur est réalisée au plus profond du microprocesseur : un seul bit définit dans quel mode on est et autorise ou non l’accès à la mémoire réservée au mode kernel. C’est une protection matérielle qui permet alors de faire coexister dans la mémoire pour le mode utilisateur, la référence à la mémoire pour le mode kernel. Le passage en mode kernel est alors rapide et immédiat. Ce ne serait pas le cas s’il fallait parcourir l’ensemble de la zone mémoire en sauvegardant à chaque fois le contexte du mode que l’on quitte.

    Autre protection : lorsqu’un mode utilisateur essaie d’accéder à une zone kernel, votre machine réagit très mal et fait crasher le programme en mode utilisateur qui s’essayait à cette liberté. L’attaque Meltdown consiste aussi, comme pour Spectre, à faire exécuter par le microprocesseur des instructions de manière spéculative pour gagner du temps, dont celle qui donnera accès à la mémoire kernel et à éviter ou retarder le test de savoir si ce sont les bonnes instructions qui ont été exécutées. Lorsque le microprocesseur exécute des instructions de manière spéculative, il le fait en avance de phase d’autres instructions, dont celle qui lui donnerait le droit d’accéder au kernel. C’est donc normal, à ses yeux, de ne pas exécuter le contrôle d’accès au kernel. Erreur !

    Contrairement à Spectre, il existe des remèdes logiciels contre Meltdown même s’il s’agit, comme pour Spectre,  d’un problème hardware, de sorte que les Linux, Microsoft et consorts sont affectés. Les remèdes consistent à imposer à nouveau de manière stricte la séparation entre les références mémoires kernel en utilisateurs de sorte que le mode utilisateur n’imagine même pas qu’il puisse existe une zone mémoire kernel. Meltdown a le plus d’impact sur les clouds car la même mémoire kernel est alors partagée entre plusieurs utilisateurs. En d’autres termes, tous les mots de passe et autres données sensibles de plusieurs utilisateurs simultanées s’y trouvent !  C’est le cas des clouds non totalement complètement virtualisés. Meltdown pourrait obliger ces fournisseurs de clouds à totalement virtualiser leur utilisateurs ou à pratiquer une séparation totale des zones mémoires utilisateurs et kernel, avec un impact sur leur performance. Bref, cela va coûter.

    Meltdown et spectre, pas si neufs que ça

    Ceci dit, Meltdown et Spectre ne sont pas tout à fait neufs dans leur essence et il fallait s’y attendre. On sait depuis longtemps que si l’optimisation matérielle peut aller jusqu’à modifier le statut des éléments matériels contenus dans le microprocesseur, il met en péril toutes les protections softwares au-dessus. Les algorithmes cryptographiques sont considérés comme fautifs s’ils ne sont pas immunisés contre cela. Meltdown va cependant un cran plus loin puisque la granularité d’accès va jusqu’au bit même.

    C’est pourquoi les auteurs craignent d’avoir ouvert la boite de pandore : on ne serait qu’au début de nos déboires de voir combien les optimisations matérielles qui s’autorisent à changer des éléments matériels du microprocesseur peuvent amener des vulnérabilités.

    Dans les deux attaques, il y aussi l’étape cruciale qui consiste à faire fuiter les informations contenues dans le cache pour lesquelles des techniques connues existent.

    Jean-Jacques Quisquater (École Polytechnique de Louvain, Université catholique de Louvain) et Charles Cuvelliez (École Polytechnique de Bruxelles, Université libre de Bruxelles)

    Pour en savoir plus

  • Rien de nouveau dans les Fake News

    Le 25 octobre 2017, une session passionnante d’Inria Alumni était consacrée au phénomène des Fake News au Conservatoire National des Arts et Métiers en partenariat avec la Société Informatique de France, avec Francesca Musiani (CNRS), Ioana Manolescu (Inria) et Benjamin Thierry (Université Paris-Sorbonne). Ce dernier est maître de conférences en histoire contemporaine et Vice-président chargé des Humanités numériques et des Systèmes d’information à l’Université Paris-Sorbonne. Binaire lui a demandé de nous apporter son point de vue d’historien sur le sujet. Serge Abiteboul.

    Fake News et post-vérité ont été mis sous le feu des projecteurs en 2016 à l’occasion de la dernière présidentielle états-unienne. À la suite de cette couverture médiatique mondiale, le dictionnaire Oxford choisit « post-truth » comme mot de l’année. Le terme est pourtant déjà ancien puisqu’on le voit émerger dès 2004 dans les travaux de Ralph Keyes[1]. Ce dernier étudie alors la viralité qui semble désormais primer sur la véracité dans la circulation de plus en plus massifiée, décentralisée et accélérée de l’information.

    C’est alors que Donald Trump est porté à la magistrature suprême que le grand public découvre par la presse que des entreprises de manipulation de grande envergure ont accompagné et probablement favorisé la défaite d’Hillary Clinton et la victoire du candidat républicain. Au-delà de l’espace nord-américain, ces fausses nouvelles seraient désormais la norme et de nombreuses analyses convergent pour expliquer les conditions supposées du débat public à l’heure des réseaux.

    Anatomie d’une fausse nouvelle

    En premier lieu, c’est la composante technique du débat public qui est le plus régulièrement pointée du doigt. Fabrice Arfi considère le numérique responsable d’ « une forme d’horizontalité et de viralité très particulière » qui favorise le recours au mensonge comme arme politique[2] ; Frank Rebillard dans son article sur le PizzaGate considère que « les schèmes conspirationnistes, dont la rumeur en ligne constitue l’un des véhicules privilégiés, trouvent avec le numérique et l’Internet des éléments documentaires de nature à renforcer l’illusion d’une démonstration de leurs constructions intellectuelles[3]. » Bruno Patino voit également dans nos nouveaux outils d’information et l’habitude prise du partage immédiat le ferment de la post-vérité : « Ce qu’on appelle « post-vérité » et fake news, c’est le symptôme d’une transition qui a commencé avec le smartphone. On a oublié ce qu’est un fait : le fait commence à exister avec le télégraphe. Les endroits où il y a un pouvoir ou bien où il se passe quelque chose, télégraphient le fait brut : « Le ministre a déclaré que… », « Il y a douze morts à tel endroit ». La séparation fait /analyse, fondatrice du journalisme, vient de là. On transmettait l’info, sans transformation, puis on hiérarchisait et on commentait ces informations. Aujourd’hui, le fait ne se transmet plus, il se partage. Or le partage transforme le fait à tout moment, à tel point que la traçabilité du fait est désormais une question essentielle[4]»

    Autre facteur souvent cité pour expliquer l’irruption des fausses rumeurs et fortement lié à la supposée dictature technique des réseaux, notre tendance à rechercher l’immédiateté dans la consommation, mais surtout dans les relais que nous donnons à l’information. « Tout a lieu en temps réel et instantanément. Il n’y a pas de temps pour la réflexion ni de pause pour la pensée ou le souvenir […] nous n’avons plus besoin de nous souvenir puisque la technique le fait pour nous[5] » nous explique Manya Steinkoler avant de souligner que nous sommes également poussés à chercher les informations qui nous confortent dans nos opinions et croyances plutôt que des éléments déstabilisants parce que divergents d’avec nos idéologies personnelles ; tendance encore renforcée par les phénomènes de bulles filtrantes. Ajoutons les réseaux sociaux qui, dans leur fonctionnement même, n’ont pas fondamentalement intérêt – hors des déclarations d’intention de leurs fondateurs pour rassurer utilisateurs et autorités – à limiter le recours au mensonge : une information est une information qu’elle soit vraie ou fausse : « Facebook a intérêt à ce que l’info se partage beaucoup et vite et une info scandaleuse et fausse se partage mieux et plus vite qu’une info ennuyeuse, mais vraie[6]. »

    Enfin, il existe un marché de la rumeur, instrumentalisée à des fins partisanes, comme l’a montré le New York Times avec l’exemple de Cameron Harris et d’autres.

    Modernité technologique chaotique, horizontalité, recherche d’immédiateté effrénée et acteurs intéressés à la monétisation du mensonge, voici les principaux éléments qui sont évoqués pour expliquer la prolifération des fake news et l’entrée dans l’ère de la post-vérité dont notre époque serait frappée.

    La longue histoire du faux

    Tous ces facteurs semblent s’entretenir mutuellement, mais contribuent-ils réellement à créer une rupture dans l’histoire de l’information et de ses rapports à nos démocraties occidentales ? Ne cédons-nous pas à une idéalisation du passé comme à chaque fois que le présent nous déçoit ?

    Force est d’abord de constater que l’instrumentalisation du mensonge et de la rumeur ne date pas d’hier. Les formes mêmes de cette instrumentalisation n’ont finalement pas beaucoup changé. Dans un article important de 2017, Catherine Bertho rappelle que les mazarinades au XVIIe siècle ou les campagnes de dénigrement de Marie-Antoinette au siècle suivant reposent elles aussi sur le mensonge structuré autour d’« un labyrinthe de textes éphémères, elliptiques, bourrés d’allusions aux événements du jour, rompu à toutes les ruses de la controverse[7]. » Les calomnies circulent « par rebonds. Les textes, loin de développer des argumentaires cohérents, se répondent de façons confuses et embrouillées ». Ces opérations de guérilla médiatique visent à la désacralisation et à la déligitimisation du pouvoir en place et de l’adversaire. Dans le cas des libelles contre Marie-Antoinette, « ils sont fabriqués par des officines et diffusés par des médias marginaux avant d’alimenter la rumeur avec une impitoyable efficacité. L’accusation d’inceste, par exemple, poursuivra la reine jusque devant le tribunal révolutionnaire[8]. »

    Confortablement installés dans notre modernité technologique contemporaine, nous n’échappons pas non plus à ce brouillage du réel dont les effets ne sont certes et heureusement pas comparables. Dans son numéro 115, Le Monde Diplomatique publie une enquête saisissante sur l’économie des « pièges à clics » qui incarnent la forme numérisée de la presse à scandale au travers de plusieurs témoignages de salariés de Melty, Konbini ou BuzzFeed. Gouvernées par la recherche du lectorat à tout prix au moyen d’outils de surveillance des tendances supposées de l’actualité, ces rédactions font elles aussi peu cas de la « vérité » tel qu’on peut s’y attendre chez des journalistes : « Dès que l’algorithme voyait un sujet remonter dans les statistiques, il fallait faire un article dessus, même s’il n’y avait pas d’info. Une fois, je suis allée voir la rédactrice en chef, et je lui ai dit que je n’avais pas d’info sur le thème demandé (la chanteuse Britney Spears). Elle m’a répondu : ‘Ce n’est pas grave, tu spécules’[12]. »

    Les fake news sont-elles faites pour être crues ?

    Lecteurs abusés, citoyens déboussolés et trompés, ce panorama peut faire craindre un affaiblissement possiblement fatal de notre capacité à fonder notre jugement. L’information conçue depuis la loi de 1881 comme l’élément déterminant de l’exercice raisonné de la citoyenneté est de moins en moins fiable. À l’heure du fake globalisé, c’est désormais sur le fonctionnement même de nos démocraties que pèse la menace du grand brouillage rendant notre action citoyenne dépourvue de sens.

    Un premier élément de réflexion à la lumière des exemples évoqués ci-dessus pourrait être qu’il ne faut pas idéaliser un passé que l’on érigerait en âge d’or de la vérité. Le lecteur de ou du Figaro était-il mieux informé et moins soumis à l’orientation de ses lectures que l’internaute d’aujourd’hui ? Le contexte est différent et la surcharge informationnelle a succédé à la rareté, mais considérer nos aïeux comme de parfaits acteurs rationnels en matière politique est une erreur que la littérature historienne sur le vote, l’histoire de la république et le politique en général a démystifiés depuis belle lurette.

    Un second point qui mérite notre attention est soulevé par Jean-Claude Monod relisant Arendt à l’heure des Fake News : la vérité n’est pas la seule valeur dans la sphère politique d’une démocratie. L’utilisation massive du mensonge et de la rumeur dans le cadre de la présidentielle de 2016 ainsi que son traitement sous cet angle, conduit à nous faire oublier le poids des opinions. Comme le rappelle Arendt dans Vérité de fait et opinion politique qui est initialement publié dans le New Yorker le 25 février 1967, « on peut dire que l’opinion, plus que la vérité, constitue le véritable fondement de la démocratie[13] ». L’opinion c’est « savoir un peu et croire beaucoup » pourrait-on dire en forme de boutade.

    Deux questions valent la peine d’être posées une fois ce constat dressé : à quoi peuvent bien servir les fake news si elles ne sont pas toutes entières contenues dans le projet de tromper leurs destinataires et que nous disent-elles de notre modernité sur le plan informationnel ?

    La fausse nouvelle en ce qu’elle est virale comme l’ont souligné nombre d’analystes, ne circule que grâce aux truchements de la multitude, c’est-à-dire nous. Mais nous ne la relayons pas uniquement parce qu’elle est prise pour vraie, mais pour beaucoup d’autres raisons. Pour faire communauté avec celles et ceux qui partagent une indignation ou un engagement commun par exemple. Quand un site parodique déclare que des prostituées russes ont témoigné avoir eu des relations sexuelles avec le futur président américain et qu’il est affublé d’un micropénis[14], peut-être certains seront portés à le croire, mais à en croire les commentaires sur les réseaux sociaux ou les forums, cela sert avant tout au dénigrement caricatural de Donald Trump dans une version actualisée des poires de Daumier[15].

    Quand en 2015, la photographie de Justin Trudeau en visite dans une mosquée canadienne[16] est reprise sur plusieurs sites proches de l’extrême droite et qu’on y ajoute des interrogations sur sa « possible » conversion à l’islam, est-ce toujours une fake news puisqu’elle n’affirme rien ou plutôt une instrumentalisation politique par insinuation pour dénoncer la proximité de Trudeau avec les musulmans canadiens ?

    Quelques études commencent à montrer que la seule alternative entre le vrai et le faux n’est pas la bonne focale pour comprendre le phénomène des fake news. Quand ils essayent d’apprécier l’impact de ces dernières sur l’élection de Trump[17], Hunt Allcott et Matthew Gentzkow revoient considérablement à la baisse l’hypothèse d’une tromperie généralisée des électeurs au moyen des fausses nouvelles. John Bullock et ses coauteurs ont également montré qu’un panel représentatif d’électeurs choisissait délibérément d’ignorer les fausses nouvelles et de ne pas les faire circuler si l’on intéressait cet acte de sélection par une légère rémunération[18]

    Pour massif que le phénomène soit, son impact est donc à relativiser. Il ne s’agit pas non plus d’en faire un détail sans importance. Qu’on souhaite la combattre ou la comprendre, la fausse nouvelle comme la rumeur ouvrent des perspectives sur nos mentalités collectives en ce qu’elles « font appel aux émotions élémentaires et aux souhaits réprimés[19]. » En 1921, Marc Bloch qui avait servi sous les drapeaux et dans la boue des tranchées, ne disait pas autre chose en invitant l’historien à se pencher avec lui sur les rumeurs du front, « ces singulières efflorescences de l’imagination collective » qui en disent parfois plus sur les acteurs qu’ils n’en déclarent eux-mêmes, car « l’erreur ne se propage, ne s’amplifie, ne vit enfin qu’à une condition : trouver dans la société où elle se répand un bouillon de culture favorable. En elle, inconsciemment, les hommes expriment leurs préjugés, leurs haines, leurs craintes, toutes leurs émotions fortes[20]. »

    Pour finir, je pense que ces trop courts développements à propos d’un phénomène complexe invitent à deux attitudes complémentaires.

    En tant qu’historien, les fake news constituent un « terrain de jeu » sans pareil pour, dans les pas de Bloch, ouvrir la boîte noire des idéologies contemporaines en abandonnant la vision surplombante et stérile de la disqualification a priori du « faux ». Les collègues intéressés à la pratique d’une histoire immédiate appuyée sur les archives nouvelles que sont les archives du Web ont un champ nouveau et passionnant à investir.

    En tant que citoyen enfin et dans le sillage d’Arendt cette fois, il s’agit de garder à l’esprit que si la démocratie ne peut se passer de « vérité factuelle », la tentation d’opposer une vérité parfaite au mensonge est tout bonnement illusoire et contre-productif. La démocratie n’est pas affaire de spécialistes du vrai transformés en censeurs des opinions dissidentes et la mobilisation politique passe par bien d’autres voies que l’adhésion au vrai et le simple rejet du faux.

    Benjamin Thierry, Université Paris-Sorbonne, @BGThierry ‏

    [1]. KEYES Ralph, The Post-Truth Era. Dishonesty and Deception in Contemporary Life, St. Martin’s Press, New York, 2004, 312 p.

    [2]. « Rendre public ». Entretien avec Fabrice Arfi, in Médium, n°52-53, 2017, p. 59-84.

    [3]. REBILLARD Franck, La rumeur du durant la présidentielle de 2016 aux États-Unis. Les appuis documentaires du numérique et de l’Internet à l’agitation politique, in Réseaux, n°202-203, 2017, p. 273-310.

    [4]. Pouvoirs de l’algorithmie. Entretien avec Bruno Patino, in Médium, n°52-53, 2017, p. 174.

    [5]. STEINKOLER Manya, Mar a logos. L’élection de Trump et les fake news, in Savoirs et clinique, n°23, 2017, p. 30.

    [6]. Pouvoirs de l’algorithmie. Entretien avec Bruno Patino, in Médium, n°52-53, 2017, p. 178.

    [7]. Ibid.

    [8]. Ibid.

    [9]. Brian Denis, Pulitzer: A Life, Wiley, New York, 2001, 464 p.

    [10]. Taguieff Pierre-André, Les Protocoles des Sages de Sion. Faux et usages d’un faux, Fayard, Paris, 2004, 489 p.

    [11]. ZAKHAROVA Larissa, Accéder aux outils de communication en Union soviétique sous Staline, in Annales. Histoire, sciences sociales, 2, 2013, p. 463-497.

    [12]. EUSTACHE Sophie & TROCHET Jessica, De l’information au piège à clics. Ce qui se cache derrière Melty, Konbini, Buzzfeed…, in Le Monde diplomatique, n°115, 2017, p. 21.

    [13]. MONOD Jean-Claude, Vérité de fait et opinion politique, in Esprit, octobre 2017, p. 143-153.

    [14]. Voire par exemple https://www.snopes.com/trump-russian-poorly-endowed/, consulté le 20/11/2017.

    [15]. Qui entretient une relation certaine avec le travail d’Illma Gore, voire ici : http://www.huffingtonpost.fr/2016/04/18/donald-trump-nu-micropenis-artiste-risque-proces_n_9719306.html.

    [16]. https://www.islametinfo.fr/2015/10/22/photos-canada-le-nouveau-premier-ministre-serait-il-converti-a-lislam/, consulté le 06/11/2017.

    [17]. ALLCOTT Hunt & GENTZKOW Matthew, Social Media and Fake News in the 2016 Election, in Journal of economic perspectives, voL. 31, n°2, 2017, p. 211-236.

    [18]. BULLOCK John G., GERBER, ALAN S., HILL Seth J. & HUBER Gregory A. et al., Partisan bias in factual beliefs about politics, in Quarterly Journal of Political Science, vol. 10, 2015, p. 519-578.

    [19]. STEINKOLER Manya, Mar a logos. L’élection de Trump et les fake news, in Savoirs et clinique, n°23, 2017, p. 28.

    [20]. Bloch Marc, Réflexions d’un historien sur les fausses nouvelles de la guerre, Allia, Paris, 1999, p. p. 23.

    Pour aller plus loin

    « Rendre public ». Entretien avec Fabrice Arfi, in Médium, n°52-53, 2017, p. 59-84.

    ALLCOTT Hunt & GENTZKOW Matthew, Social Media and Fake News in the 2016 Election, in Journal of economic perspectives, voL. 31, n°2, 2017, p. 211-236.

    BELIN Célia, Comment anticiper la politique étrangère de Donald Trump ?, in Esprit, n°1, 2017, p. 131-139.

    BERTHO-LAVENIR Catherine, Déjà-vu, in Médium, n°52-53, 2017, p. 85-100.

    BLOCH Marc, Réflexions d’un historien sur les fausses nouvelles de la guerre, Allia, Paris, 1999, 64 p.

    BRIAN Denis, Pulitzer: A Life, Wiley, New York, 2001, 464 p.

    BULLOCK John G., GERBER, ALAN S., HILL Seth J. & HUBER Gregory A. et al., Partisan bias in factual beliefs about politics, in Quarterly Journal of Political Science, vol. 10, 2015, p. 519-578.

    COLIN Nicolas & VERDIER Henri, L’âge de la multitude. Entreprendre et gouverner après la révolution numérique, Armand Colin, Paris, 2015, 304 p.

    EUSTACHE Sophie & TROCHET Jessica, De l’information au piège à clics. Ce qui se cache derrière Melty, Konbini, Buzzfeed…, in Le Monde diplomatique, n°115, 2017, p. 21.

    MONOD Jean-Claude, Vérité de fait et opinion politique, in Esprit, octobre 2017, p. 143-153.

    Pouvoirs de l’algorithmie. Entretien avec Bruno Patino, in Médium, n°52-53, 2017, p. 173-185.

    REBILLARD Franck, La rumeur du durant la présidentielle de 2016 aux États-Unis. Les appuis documentaires du numérique et de l’Internet à l’agitation politique, in Réseaux, n°202-203, 2017, p. 273-310.

    STEINKOLER Manya, Mar a logos. L’élection de Trump et les fake news, in Savoirs et clinique, n°23, 2017, p. 23-33.

    TAGUIEFF Pierre-André, Les Protocoles des Sages de Sion. Faux et usages d’un faux, Fayard, Paris, 2004, 489 p.

    ZAKHAROVA Larissa, Accéder aux outils de communication en Union soviétique sous Staline, in Annales. Histoire, sciences sociales, 2, 2013, p. 463-497.

  • Bonne année 2018

    Toute l’équipe de binaire vous souhaite une belle année 11111100010.

     

    Crédit photo @Mae59
  • Inria : 50 ans et l’ambition du numérique pour la France

    Dans le paysage numérique français au cœur de l’intérêt de Binaire, Inria, l’institut français en science du numérique, tient une place singulière, voire essentielle. A l’occasion des 50 ans d’Inria, nous avons demandé à son président, Antoine Petit, de nous parler du passé de l’institut et surtout de nous dire comment il voit le futur de la recherche dans ce domaine en France. Binaire profite de cette occasion pour souhaiter à Inria : Bon anniversaire et tous nos vœux de succès pour les années à venir ! Serge Abiteboul

    Antoine Petit, PDG d’Inria © Inria / Photo G. Scagnelli

    Le Plan Calcul voulu par le Général de Gaulle a conduit à la création en 1967 de l’IRIA et de la CII devenue par la suite CII Honeywell Bull puis Bull. L’idée originelle était de doter la France des capacités, tant sur le plan recherche que sur le plan industriel, de concurrencer les américains qui venaient de refuser de nous vendre le plus gros ordinateur de l’époque (d’une puissance bien moindre que les smartphones que la plupart d’entre nous ont dans leur poche). Ce n’est qu’en 1979 que l’IRIA devient national et se transforme en INRIA – Institut National de Recherche en Informatique et en Automatique. C’est la même année qu’est créé le deuxième centre Inria, à Rennes. Puis les centres de Sophia-Antipolis (1983), Grenoble (1986), Nancy (1992), Bordeaux, Lille et Saclay (tous les trois en 2008) voient successivement le jour. Et en 2011, INRIA décide de ne plus être un acronyme mais un nom, Inria, celui de l’institut français en charge des sciences du numérique.

    Voilà donc 50 ans qu’Inria met son excellence scientifique au service du transfert technologique et de la société. Inria est aujourd’hui un des instituts les plus performants à travers le monde dans ses domaines de compétences, attractif et très international, près de 100 nationalités sont présentes dans nos équipes-projets. Il faut souligner qu’une grande partie des succès d’Inria ont été construits dans le cadre de partenariats avec des universités ou grandes écoles, ou d’autres organismes de recherche, le CNRS bien sûr et aussi le CEA, l’Inra ou l’Inserm pour ne citer que les principaux.

    En 50 ans le monde est devenu numérique, belle formule souvent attribuée à Gérard Berry. Inria a accompagné cette transformation et la montée en puissance, et la reconnaissance de la science informatique qui s’en sont suivies dans notre pays.

    L’évolution a été très forte en un demi-siècle. En schématisant et en simplifiant, hier, informaticiens et mathématiciens travaillaient un peu de leur côté, pour eux mêmes. Aujourd’hui, ils collaborent de plus en plus avec les autres sciences, que ce soient les sciences de la vie, les sciences de l’environnement, les sciences humaines et sociales, etc. Une autre évolution très perceptible concerne la transformation numérique des activités socio-économiques et la présence de plus en plus importante du numérique dans la vie de tous les jours.

    Pour autant, nous sommes convaincus que cette transformation numérique du monde n’en est qu’à ses débuts, presque à ses balbutiements. Si le futur de notre société sera numérique, ce futur n’est pour autant pas écrit. Dans 50 ans, le monde dans lequel nous vivrons sera celui que nous aurons choisi de construire en fonction de nos valeurs, de nos cultures et de nos choix de sociétés. Nous devrons savoir prendre en compte des questions scientifiques et technologiques bien sûr mais aussi  des questions de formation, d’éthique et même de choix de société

    Nous devons aussi décider quelle place nous voulons que la France occupe dans ce futur numérique. La France a tous les atouts pour y jouer un rôle de premier plan, pour autant qu’elle en fasse une réelle priorité. Nous devons investir aujourd’hui pour que demain des emplois et de la valeur soient créés dans notre pays. Mais, il ne faut pas se voiler la face, la compétition est internationale et féroce.

    Si la France décide de participer à cette compétition, elle doit faire les choix nécessaires pour y figurer dignement.

    N’en déplaise à quelques esprits rétrogrades qui ne comprennent pas le monde nouveau qui est le nôtre,  il est totalement anormal et contreproductif qu’une lycéenne ou un lycéen puisse entrer à l’Université sans savoir coder et s’être construit une pensée algorithmique, et ce quel que soit le métier auquel elle ou il se destine.

    Il faut également revoir l’éducation et la formation tout au long de la vie, et donner à chacune et chacun les clés de compréhension du monde numérique dans lequel nous vivons. La faible culture, voire même parfois l’inculture, de la société en général, des décideurs en particulier – même s’il y a bien sûr des exceptions – est un handicap pour notre pays.

    Inria essaye à son niveau de faire bouger les choses en prenant une part active à des opérations aussi diverses  que le portage de l’opération Class Code, programme de formation de formateurs en informatique ou encore la conception, en liaison étroite avec le Conseil National du Numérique de la plateforme TransAlgo qui vise à étudier la transparence et la loyauté des algorithmes, tout en faisant réfléchir à ces notions. Mais toutes ces initiatives ne passent pas à l’échelle et font courir le risque d’éloigner Inria de son cœur de métier. C’est à d’autres de prendre le relais et de permettre au plus grand nombre de bénéficier de sensibilisations ou de formations comparables.

    Il faut aussi que notre pays sache investir massivement s’il veut jouer un rôle de premier plan, s’il veut tirer parti des investissements déjà réalisés et s’il veut que les citoyens, bien formés, trouvent des emplois adaptés à leurs compétences dans ce nouvel ordre économique.

    Nous attendons avec impatience le rapport de Cédric Villani sur l’intelligence artificielle. Mais il sera essentiel que ce rapport ne reste pas lettre morte, cela arrive parfois dans notre pays. Il appartiendra au Gouvernement d’en tirer un plan d’actions et d’y consacrer une enveloppe budgétaire d’un niveau donnant l’ambition à la France d’être un acteur de premier plan au niveau international. Bien sûr, nous savons tous que la France a des marges de manœuvre financière limitées.  C’est justement pour cela qu’il faut faire des vrais choix, définir des priorités et donc savoir aussi renoncer.

    L’enjeu est de taille, c’est tout simplement la France, celle que nous voulons construire pour nos enfants et petits-enfants, une France attractive où il y aura des emplois, du bien-être et des richesses pour le plus grand nombre, idéalement pour toutes et tous, une France qui aura à cœur que les progrès liés au numérique bénéficient au plus grand nombre et ne soient pas accaparés par quelques-uns, individus, grandes firmes internationales ou nations, pour leur seul profit.

    Antoine Petit, Président d’Inria

  • T’as pas cent balles (ransomware) ?

    Nous avons demandé à Hélène Le Bouder et Aurélien Palisse chercheur.e.s rennais de nous parler d’un sujet d’actualité : les ransomware. Ces nouveaux logiciels à la propagation virale, qui vous réclament de l’argent pour ne pas détruire vos données… De quoi s’agit-il ? Pierre Paradinas.

    À propos de Ransomware

    Les ransomware (logiciels de rançon) ne cessent de se développer. Ils représentent l’une des plus grandes menaces du monde informatique d’aujourd’hui; mais que sont-ils exactement ? Un ransomware chiffre les données d’un ordinateur, puis demande à son propriétaire d’envoyer une somme d’argent en échange de la clé cryptographique permettant de les déchiffrer. Les ransomware infectent les ordinateurs via internet et attendent un signal pour s’activer. Ainsi 80% d’entre eux parviennent à chiffrer toutes les données d’un utilisateur en moins d’une minute. Les autorités conseillent de ne pas payer, afin de ne pas encourager des activités criminelles. Il est important de noter que le paiement d’une rançon ne garantit pas la récupération de ses données.

    Une étude, estime que plus de 25 millions de dollars ont été payés ces dernières années. Le prix des rançons varie de 50 à 300 euros. La rançon peut atteindre plusieurs milliers d’euros comme en juin 2017 pour un groupe industriel.

    Les cybercriminels souhaitent être payés en utilisant une monnaie virtuelle difficilement traçable, comme le bitcoin. Des moyens de paiement plus hétéroclites ont déjà été utilisés dans le passé comme des cartes cadeaux Amazon, ou des SMS surtaxés.

    Certains anti-virus permettent de détecter un ransomware avec des résultats plus ou moins efficaces. Notons que Windows 10 inclut une protection contre les ransomware.

    Les chercheur.e.s ne connaissant pas à ce jour de solutions acceptables [3, 1] principalement pour des raisons de performance. En effet, la détection se base sur le comportement des applications vis à vis du système de fichiers. Par exemple, un grand nombre de fichiers renommés ou de dossiers/fichiers explorés peuvent être liés au comportement d’un ransomware. L’apprentissage automatique (machine learning) est très utilisé, notamment par ShieldFS un outil développé par des chercheurs italiens. Le principal problème des solutions académiques est le déclenchement intempestif de fausses alertes : de nombreux programmes sont suspectés d’être malveillants à tort.

    © Inria / Photo C. Morel

    Au Laboratoire de Haute Sécurité d’Inria à Rennes, une plateforme (Malware’O’Matic) constituée de plusieurs ordinateurs est dédiée à ce thème de recherche. Le but est de développer une contre-mesure plus performante qu’un antivirus traditionnel en termes de taux de détection (99% de ransomware détectés) et de rapidité d’exécution.

    Des données chiffrées ont une répartition proche d’une répartition aléatoire. Aussi nous utilisons des tests statistiques de détection d’aléa pour détecter le processus de chiffrement. Une version plus aboutie, permettant de limiter le nombre de fausses alertes est actuellement en cours de développement avec un effort particulier pour limiter l’impact sur les performances de l’ordinateur.

    Aujourd’hui la plupart des études se focalisent sur les menaces courantes et ne se projettent pas sur les menaces futures. Les ransomware actuels sont assez frustres mais ils risquent d’évoluer d’une part en complexité et d’autre part vers de nouvelles cibles comme les téléphones. Des travaux récents [2] montrent que des techniques d’apprentissage supervisé utilisées pour détecter les logiciels malveillants peuvent aussi être utilisées pour concevoir des logiciels furtifs et les rendre ainsi indétectables par les antivirus actuels. Il est important pour le monde de la recherche de ne pas se cantonner aux problèmes actuels et d’anticiper des solutions pour l’avenir.

    Hélène Le Bouder (MdC à l’IMT-Atlantique), et Aurélien Palisse (doctorant chez Inria)

    Pour aller plus loin, écoutez le Podcast d’Aurélien sur le sujet des ransomware sur )i(nterstices

    Références

    1. A. Continella, A. Guagnelli, G. Zingaro, G. De Pasquale, A. Barenghi, S. Zanero, and F. Maggi. ShieldFS : A self-healing, ransomware-aware filesystem. In Proceedings of the 32nd Annual Com- puter Security Applications Conference. ACM.
    2. I. Rosenberg. Improvements in Obfuscation and Detection Techniques of Malicious Code. PhDthesis, The Open University, 2016.
    3. N. Scaife, H. Carter, P. Traynor, and K. R. Butler. Cryptolock (and drop it) : stopping ransomware attacks on user data. In Distributed Computing Systems (ICDCS), 2016 IEEE 36th International Conference on, pages 303–312. IEEE, 2016.
  • Algorithmes

    Claire Mathieu est Directrice de Recherche au Centre National de la Recherche Scientifique. Elle travaille au Département d’Informatique de L’École Normale Supérieure et à l’Irif, Université Paris-Diderot. Elle est la toute nouvelle titulaire de la Chaire « Informatique et sciences numériques » du Collège de France où elle présente un cours intitulé « Algorithmes » (leçon inaugurale le 16 novembre 2017). Les algorithmes fascinent, peuvent inquiéter, prennent une place considérable dans nos vies. Il nous faut mieux les comprendre pour qu’ils fassent ce que nous voulons. Entrons avec Claire Mathieu, parmi les meilleurs spécialistes mondiaux du domaine, dans leur monde merveilleux .  Serge Abiteboul. Cet article est publié en collaboration avec The Conversation.

    Claire est également une éditrice invitée fidèle de Binaire.

    Claire Mathieu

    Les algorithmes, quand ils sont bien conçus car bien compris, contribuent au bien social et sont un outil de transformation de la société. Ils y prennent une place grandissante, que ce soit pour des applications informatiques telles que gérer efficacement des données, pour les transmettre rapidement et de façon fiable, pour faire des calculs, pour optimiser l’allocation de tâches, ou de plus en plus pour des usages en société comme le calcul d’itinéraire, les recommandations de lectures ou de films, l’affectation des étudiants avec APB, etc.

    Très souvent, ces algorithmes sont opaques, mystérieux, voire effrayants. Comment marchent-ils ? Quelles sont les étapes du calcul ou de la prise de décision ? Pourquoi marchent-ils ? Quelles sont les propriétés mathématiques qui expliquent leurs performances ? Le “comment” et le “pourquoi” sont les deux facettes de l’étude des algorithmes : la conception (comment ça marche) et l’analyse (pourquoi ça marche).

    En général, l’analyse d’algorithmes sert d’abord à montrer qu’un algorithme résout correctement un problème, puis qu’il le fait en un temps raisonnable, de façon fiable et en restant économe en ressources.

    Un sous-domaine fondamental largement développé depuis une vingtaine d’années concerne les algorithmes d’approximation. Un tel algorithme, plutôt que de rechercher une solution exacte et précise, se contente d’une solution approchée. On les utilise pour résoudre les problèmes trop difficiles pour être résolus complètement en un temps raisonnable. On s’autorise alors à accepter des solutions dont la valeur serait, disons, à 5% de la valeur optimale. Par exemple, prenons le problème de la livraison de marchandises. Comment optimiser les trajets d’un camion qui doit livrer des marchandises, connaissant le lieu de l’entrepôt, les lieux et volumes des commandes des clients, ainsi que la capacité du camion ? C’est un problème difficile lorsque le nombre de clients est élevé et on ne sait le résoudre que dans des cas particuliers qui ne correspondent pas toujours aux applications réelles rencontrées : aujourd’hui, même dans les cas les plus simples, calculer une solution approchée à 1% prend un temps déraisonnable. L’un de nos axes de recherche est donc de continuer à développer et d’améliorer ces algorithmes d’approximation.

    Claire et Le point de vue algorithmique, #tembelone

    Modélisation mathématique et évolutions technologiques

    Pour les chercheurs qui comme moi travaillent en informatique théorique, l’élément non-négociable est la recherche du théorème. Les problèmes sont variés, les méthodes de résolution aussi, mais à la fin, ce qui est produit, ce qui apparaît dans le paragraphe intitulé “nos résultats” dans nos introductions, est toujours un théorème. La rigueur mathématique prime. C’est un principe de base.

    Cependant, avec les évolutions technologiques, de nouvelles problématiques surgissent et se traduisent de façon naturelle par des évolutions des questions mathématiques étudiées. Ainsi, les modèles de calcul évoluent, avec par exemple de plus en plus de modèles de calcul ou de communication qui limitent l’accès aux données (par exemple, dans le modèle du flux de données, l’utilisateur voit toute une suite d’informations défiler devant lui, par exemple des paquets transitant sur un réseau. Bien qu’il n’ait pas suffisamment de place en mémoire pour garder toutes les informations vues, il souhaite cependant calculer des informations statistiques sur ce flux), ou dont les données évoluent de façon dynamique, ou encore avec une incertitude sur les données (par exemple, les avis lus sur internet sur la qualité d’un restaurant, d’un hôtel ou d’un médecin sont notoirement peu fiables, et contiennent pourtant des informations précieuses.)

    Il nous faut donc non seulement travailler sur des problèmes reconnus du domaine, mais également proposer des problèmes algorithmiques nouveaux. Il s’agit de définir une question algorithmique de façon formelle, qui soit suffisamment simple dans sa structure pour que l’on puisse l’étudier avec un espoir de démontrer des résultats rigoureux. C’est ainsi qu’on peut rigoureusement démontrer l’effet de « petit monde » dans les réseaux sociaux (soit le nombre limité de degrés de séparation entre tous ses membres) : bien que leur taille aille grandissant, il demeure toujours possible à un membre du réseau social de prendre contact avec presque n’importe quel autre membre grâce à une courte chaîne de connaissances. Ici, la démonstration mathématique se fait sur un modèle simplifié, inspiré du modèle dit “de feu de forêt”. C’est en passant par ce type de modèles simplifiés que l’on peut espérer arriver à des intuitions pour une meilleure compréhension du monde.

    Claire jongle avec problèmes algorithmiques et techniques mathématiques, #tembelone

    “Pourquoi” et “Dans quel but” : des questions d’éthique

    Par ailleurs, comme les algorithmes agissent de plus en plus non seulement sur de simples octets mais également sur les personnes, les questions d’éthique comme l’équité ou la transparence deviennent prégnantes.

    Une constante du domaine est qu’un algorithme est développé dans un but précis et analysé en relation avec la façon dont il atteint son but. Mais ces années dernières ont vu apparaître des algorithmes qui résolvent un problème imprécis, et qui ne “marchent” que dans un sens très flou — le choix d’informations à présenter au lecteur en ligne ou les recommandations de produits à acheter, par exemple. Qu’est-ce qui fait qu’une sélection donnée est le meilleur choix ? Un résultat donné est-il, ou non, satisfaisant ? Quel est le but recherché ? Ces questions sont à la périphérie de l’algorithmique classique et en même temps centrales pour l’évolution du domaine dans la décennie à venir.

    Un des nouveaux enjeux de l’algorithmique est donc comprendre le “pourquoi” et le “dans quel but” des algorithmes de la famille des méthodes d’ « apprentissage profond », qui se retrouvent appliqués un peu partout avant qu’on ait vraiment compris leurs aspects fondamentaux. Ici, la théorie a pris du retard sur la pratique, et ce retard de compréhension induit des risques de manipulation sans contrôle.

    Il ne faut pas avoir peur des algorithmes, mais il faut apprendre à les connaître pour les apprivoiser : c’est la mission de l’algorithmique.

    Dans le cadre de la chaire annuelle “Informatique et sciences numériques”, leçon inaugurale au Collège de France le jeudi 16 novembre 2017 à 18h, cours les mardis à 10h à partir du 24 novembre.

    Claire Mathieu, CNRS, Paris

  • Ecriture inclusive et académie

    La sortie de l’Académie française contre l’écriture inclusive était sexiste et pathétique, profondément irritante de par son archaïsme.

    Un article de Langue sauce piquante raconte assez bien avec des références utiles, et dit :

    L’Académie est un astre mort, elle n’a heureusement plus de pouvoir de nuisance. Rappelons que la Révolution l’avait dissoute à juste titre, et que Napoléon l’a ressuscitée, comme beaucoup d’oripeaux de l’Ancien Régime. Rappelons aussi que son rôle prescrit par la monarchie était de publier une grammaire, ce qu’elle n’a jamais été capable de faire, et de renouveler son dictionnaire périodiquement, ce dont elle se montre incapable. La « Compagnie », c’est surtout celle des bras cassés.

    A titre personnel, je ne suis pas un grand fan de l’écriture inclusive que je trouve un peu lourde. (C’est peut-être juste une question d’habitude ; on s’y fait). Mais il existe plein d’autres pistes que l’Académie française se garde bien de considérer comme la féminisation des noms de métiers. J’aime  ce qui commence à se faire dans le monde anglo-saxon. Par exemple, quand vous parlez d’un.e utilisateur.rice, un coup vous le conjuguez au masculin, un coup au féminin. Et j’adore la règle de proximité que l’académie a remplacée par la règle absurde « le masculin l’emporte sur le féminin » : Sarah et Jean sont des étudiants mais Jean et Sarah sont des étudiantes.

    L’académie des Sciences, dont je fais partie, mérite aussi son lot de critiques :

    • peu de femmes, et incapacité à affronter ce problème. Êtes-vous sexistes messieurs les académicien.ne.s ?
    • peu de scientifiques des nouvelles sciences, comme l’informatique, les différentes disciplines défendant leur pré-carré.
    • peu de jeunes scientifiques à cause de la règle absurde que vous devenez académicien.ne à vie.

    Serge Abiteboul, Inria et ENS, Paris

    Le monde numérique a vraiment besoin d’être inclusif à plusieurs titres (voir https://cnnumerique.fr/inclusion toujours d’actualité), y compris de permettre à chacune et chacun de s’y sentir bien, avec fraternité, à égalité, en liberté.

    L’équipe de binaire


  • Chiffre, sécurité et liberté

    Serge Abiteboul et Pierre Paradinas interviewent le Général Desvignes, spécialiste de sécurité et ancien Directeur du Service Central de la Sécurité des Systèmes d’Information (SCSSI) devenu aujourd’hui l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) et aussi appelé à l’époque les services du Chiffre. La sécurité informatique est un sujet de plus en plus essentiel quand l’informatique prend de plus en plus de place dans nos vies. Nous abordons ici avec Jean-Louis Desvignes un aspect essentiel, celui de la libération du chiffrement.

    Quand des voix au plus haut niveau parlent d’interdire le chiffrement, il nous parait important d’ouvrir la question. Les propos relayés ici ne reflètent pas nécessairement l’opinion de l’équipe du blog Binaire. Parlons-en !

    Photo : La Myosotis, Archives de l’ARCSI

    B : Jean-Louis, comment devient-on Directeur du Chiffre ?

    JLD : j’étais simple lieutenant dans les transmissions et le chef de corps m’a trouvé en train de changer un fusible d’une machine à chiffrer en panne (c’était une Myosotis). Personne ne s’intéressait au chiffre, en tous cas pas moi. Je me suis retrouvé dans un stage de chiffrement et j’ai aimé le coté matheux. Plus tard, j’ai découvert l’histoire du chiffre pendant la première guerre mondiale. Tout le monde a entendu parler de Turing mais beaucoup moins de Painvin. Et je me suis passionné pour le sujet.

    Le lieutenant Georges Painvin

    Photo : Annales des Mines

    Pendant la guerre de 14-18, la maîtrise cryptographique de l’armée française l’aide considérablement à décrypter les messages ennemis, lui procurant un avantage très important sur l’ennemi. En 1914, le premier décryptage est fait par le commandant Louis Thévenin qui donne aux alliés un avantage important dès le début du conflit. Le décryptage d’un radio télégramme allemand par le lieutenant Georges Painvin s’est ainsi révélé déterminant pour contrer une des dernières offensives allemandes. Évoquant ce lieutenant, Georges Clemenceau aurait prétendu qu’à lui tout seul il valait un corps d’armée. [Wikipedia 2017]

    J’ai fait une école d’ingénieur, Supelec et je me suis retrouvé responsable de réseau de communications. Je me suis pris au jeu de protéger le réseau. C’est comme cela que je suis arrivé au chiffre. Je suis devenu chef de projet pour réaliser le réseau de transmissions de données de l’armée de terre. J’ai alors mis la sécurité du réseau au centre de mes préoccupations allant jusqu’à imposer le chiffrement de tous les échanges entre le centre de gestion et les commutateurs. J’avais au demeurant choisi le protocole X25 utilisé par le réseau public Transpac ; à l’époque, c’était le réseau le plus développé au niveau mondial et il me paraissait plus sérieux que celui du balbutiant Internet dont les paquets se perdaient ou tournaient en rond.

    Internet n’est ni fait ni à faire

    B : Tu as vu les débuts d’Internet.

    JLD : Effectivement. J’ai d’ailleurs hésité à le prendre pour modèle car il était censé résister à la destruction de nœuds suite à un bombardement nucléaire ! J’ai considéré qu’il valait mieux se prémunir d’un dysfonctionnement probable que d’une vitrification non certaine…   15 à 20 ans après mon choix pour X25, l’IP l’a malheureusement emporté, et  c’est la source des nombreux déboires aujourd’hui.  Il nous faut vivre avec, bien qu’il soit structurellement peu sécurisé.

    Un autre point me semble important. Le réseau tactique Rita, en matière de sécurité, fut pour moi un exemple à éviter. Il avait été conçu comme une forteresse, un réseau fermé.  D’abord le chiffrement d’artère retenu laissait en clair les communications dans les nœuds et dans les extensions. Et puis fatalement il fallut l’ouvrir pour accéder à d’autres ressources et alors : plus de protection ! Je reste  convaincu  qu’il vaut mieux concevoir des réseaux ouverts d’emblée, que l’on sécurise de différentes façons, que des réseaux fermés vulnérables dès lors que vous êtes arrivés à les pénétrer.

    B : Que peut-on faire maintenant avec Internet ?

    JLD : On ne peut évidemment pas faire table rase de l’existant. On peut par exemple ajouter des couches de protection pour obtenir une sécurité de bout en bout. J’ai d’ailleurs à l’époque milité pour des systèmes de chiffrement  protégeant les « tuyaux » en créant ces fameux tunnels à travers ce dangereux no mans land. Mais pour ce qui est d’une refonte radicale ce n’est pas pour demain.

    Photo : J-L Desvignes, La une de Le Monde Informatique

    B : Nous arrivons à la question principale que nous voulions te poser. Tu penses qu’il ne fallait pas libérer le chiffrement comme Lionel Jospin l’a fait en 1999 ?

    JLD : Tel que cela a été fait, je pense que c’était une grave erreur. Nous avons bradé un avantage que beaucoup d’autres États nous enviaient : une législation qui avait pris en compte très tôt que le recours aux techniques cryptographiques allait poser un problème de sécurité intérieure et non plus seulement un problème de sécurité extérieure traité par des services de renseignement richement dotés et équipés pour y faire face. Nous étions dans cette situation confortable où nous pouvions nous permettre d’assouplir notre position pour répondre au besoin de protection lié au développement des NTIC tandis que les autres pays devaient au contraire durcir la leur. Or notre police s’était mise en tête de maintenir le régime de quasi prohibition du chiffre utilisant déjà le funeste  slogan : « ceux qui n’ont rien à cacher n’ont pas besoin de chiffrer ! »

    Pour tenter de concilier les deux objectifs éternellement contradictoires – liberté versus sécurité – j’ai proposé d’étudier la mise en œuvre du concept du « séquestre des clefs » parfois appelé des « tierces parties de confiance ». Une bataille de décrets s’en suivit, avec des manœuvres visant à limiter la viabilité  des tiers de confiance qui ne réussirent pas à décourager les candidats. Cette nouvelle législation française était examinée avec la plus grande attention  par la communauté internationale : l’OCDE, l’UE, nos Alliés mais aussi des pays asiatiques et même la Russie…

    Hélas! Un changement politique vint mettre un terme à cette tentative d’instituer un contrôle démocratique et transparent des moyens cryptologiques. La libéralisation « du 128  bits » en janvier 1999 tua dans l’œuf l’initiative et conduisit naturellement les services de renseignement à recourir à la connivence avec les firmes informatiques.  Le patron de la NSA vit certainement dans ce renoncement français le prétexte qu’il attendait pour lancer sa maison dans la plus incroyable opération d’espionnage technologique qui sera révélée par Snowden. Le gouvernement français qui croyait par son audace « booster » son industrie cryptologique ne fit que favoriser l’industrie et l’édition de logiciels américaines.

    On a libéré le chiffrement. Avec notamment la montée du terrorisme, les voix se sont élevées pour dire alors que les terroristes utilisaient le chiffrement. Ils le faisaient probablement. Comme tout le monde peut le faire… Avec le terrorisme, l’opinion publique a changé : la sécurité est devenue plus importante que la liberté. Alors, aujourd’hui, le climat sécuritaire ambiant amène encore certains responsables politiques notamment en France, à prôner le recours à ces logiciels affaiblis voire l’interdiction du chiffrement comme au bon vieux temps où le chiffre était considéré comme une arme de guerre de deuxième catégorie.

    B : Aujourd’hui la plupart des outils avec du chiffrement que nous utilisons sont américains. N’est-ce pas ?

    JLD : oui et ils contiennent probablement des « backdoors (*) » qui sont au service du gouvernement américain, tout comme les matériels chinois ont probablement des « backdoors » au service de leur gouvernement. On ne peut plus faire confiance ni à l’un ni à l’autre. Tout cela était terriblement prévisible. Si on autorise le chiffrement pour tous, les états qui le peuvent vont essayer de garder une longueur d’avance en installant des « backdoors ». Le système encourage les arrangements occultes entre industriels et services de renseignement. Au siècle dernier, les « backdoors » existaient. Elles sont passées au mode industriel.

    B : Les systèmes d’information en France sont-ils bien sécurisés ?

    JLD : on a en gros deux types de méthodes. Les méthodes préventives qui essaient d’empêcher les attaques, et comme on sait qu’on en laissera sans doute quand même passer, des méthodes curatives qui permettent de réagir quand on est attaqué, de gérer la crise. On est peut-être allé trop loin dans le curatif. Il faut plus de prévention.

    Quand on conçoit des systèmes informatiques, on se doit de les sécuriser. Évidemment, le même niveau de sécurité n’est pas nécessaire pour un produit grand public et un logiciel utilisé, par exemple, par la défense nationale. On peut obtenir des « certificats » de sécurité. (Voir encadré : La certification de produit informatique.) Malheureusement, on a baissé les exigences sur ces certificats.

    Avec la carte à puce, la France est devenue un des champions de la vérification de la sécurité. Au début, par exemple dans des cartes comme Moneo, le niveau de sécurité était assez bas. De vraies compétences se sont développées pour aboutir à d’excellents laboratoires d’évaluation agréés par l’ANSSI (+).

    Serge Abiteboul et Pierre Paradinas

    (*) Une backdoor (littéralement porte de derrière) d’un logiciel, ou « porte dérobée » en français, est une partie d’un logiciel, un trou de sécurité, qui n’est pas connue de son utilisateur et qui permet à d’autres de surveiller secrètement ce que fait le programme, voire d’avoir accès à ses données.

    (+) L’ « Agence nationale de la sécurité des systèmes d’information » (ou ANSSI) est un service français rattaché au Secrétaire général de la défense et de la sécurité nationale, qui assiste le Premier ministre en matière de défense et de sécurité nationale. Cette agence, en plus de la sécurité des systèmes d’informations de l’État, a une mission de conseil et de soutien aux administrations et aux opérateurs d’importance vitale, ainsi que celle de contribuer à la sécurité de la société de l’information, notamment en participant à la recherche et au développement des technologies de sécurité et à leur promotion.

    La certification de produit informatique

    La certification permet d’attester qu’un produit atteint un niveau de sécurité parce qu’il peut résister à un niveau d’attaque donné. Cette certification repose sur la vérification de la conformité du produit et sur des tests d’intrusion.

    L’ANSSI propose deux types de certifications.

    Le premier appelé Certification de Sécurité de Premier niveau est réalisé à partir de tests d’intrusion, il requiert un investissement limité en terme de coût du développement du produit.

    Le second appelé Critères Communs permet de certifier un produit selon 7 sept niveaux d’assurance de sécurité (Evaluation Assurance Level). Le niveau 1 ou EAL1 correspond à un niveau d’attaque faible. À partir du niveau 4-5, la sécurité du développement lui même est pris en compte, enfin au niveau EAL7, niveau d’attaque le plus élevé, le développement doit faire appel à des techniques formelles pour réaliser le produit.

    Les évaluations des produits sont faites vis-à-vis d’un objectif de sécurité. Les évaluations sont réalisées par des CESTI qui sont des entreprises indépendantes des développeurs des produits et des commanditaires des évaluations. Ces évaluations conduisent à l’émission d’un certificat.

    La reconnaissance internationale de ces certificats est à l’origine des Critères Communs, dont l’objectif est de structurer cette reconnaissance croisée à travers un accord de entre 25 pays. Cet accord permet la reconnaissance jusqu’au niveau 2. Il y a un accord plus restreint en terme de nombre de pays qui reconnait des certificats jusqu’à EAL4, et même pour certains domaines techniques particuliers jusqu’à EAL7.

    L’intérêt de ces reconnaissances mutuelles, si vous êtes un industriel est que vous pouvez faire un produit dans un pays et obtenir un certificat qui sera valide dans plusieurs pays sans devoir refaire d’évaluations. De même pour un client d’un produit vous pouvez avoir une meilleure confiance dans le produit que vous achetez.

    Photo : J-L Desvignes
  • Ciao Maurice

    Maurice Nivat © Inria / Photo : J.M. Ramès.

     

    Tu viens de nous quitter ce jeudi 21 septembre, toi le père de l’informatique française. Le monde du numérique est en deuil, et nous ne trouvons pas encore les mots pour te raconter, pour partager tout ce que tu as pu nous apporter.

    Nous vous invitons à lire l’hommage de Serge Abiteboul :  Adieu Maurice

     

  • Déconnectez !

    La joyeuse équipe de binaire vous souhaite une belle pause estivale ensoleillée, reposante et solidaire.

    @Maev59

    Pour garder l’esprit binaire, nous vous conseillons trois ouvrages sélectionnés pour le prix Roberval 2017, catégorie Grand Public :

    • Le temps des algorithmes, de Serge Abiteboul et Gilles Dowek, Le Pommier et
    • Terra Data, qu’allons-nous faire des données numériques ? de Serge Abiteboul et Valérie Peugeot, Le Pommier, qui accompagne une exposition éponyme à la Cité des sciences, Paris.
    • Des robots et des hommes. Mythes, fantasmes et réalité, Laurence Devillers,  Plon

    Et évidemment, précipitez-vous aussi sur les articles de binaire que vous n’avez pas eu le temps de lire pendant l’année. Nous vous les avons gardés au chaud.

    Retrouvez-nous fin août pour parler informatique et culture numérique !

    L’équipe binaire

  • La guerre des blogs

    Charles Cuvelliez
    Jean-Jacques Quisquater

     Deux chercheurs belges Charles Cuvelliez et Jean Jacques Quisquater, spécialistes de sécurité nous proposent une analyse technique et géopolitique d’une dispute autour de la cybersécurité, un domaine où on se passerait bien de conflits commerciaux. L’éditeur d’anti-virus russe, Kapersky, accuse Microsoft d’expurger Windows 10 de tout anti-virus autre que celui fait « maison ».  Pierre Paradinas.

    Un conflit high tech USA-Russie arbitré par l’Europe

    C’est par blogs interposés que Kasperky et Microsoft s’affrontent verbalement mais c’est bien une plainte pour abus qu’Eugène Kasperky a déposée à la Commission Européenne. Cette dernière se serait bien passée d’arbitrer un conflit USA-Russie avec Donald Trump, qui ne rate jamais le mélange des genres, en embuscade.

    Logo de la société Kaspersky.

    L’anti-virus Microsoft est, depuis Windows 10, pré-installé et opérationnel. C’est nécessaire pour les néophytes : il est indispensable d’avoir un antivirus sur un PC. Le problème est que l’anti-virus de Microsoft prend le dessus sur les anti-virus tiers ; il continue à scanner le PC de son propriétaire comme s’il était seul au monde, d’après E. Kasperky dans son blog. Faux dit Microsoft : son anti-virus ne prendrait la relève que si l’anti-virus tiers a expiré.

    Plus gênant est le message d’alerte qu’émet Windows 10 si l’utilisateur s’obstine à vouloir faire fonctionner l’anti-virus Kaspersky. Windows indique qu’il faut se méfier pour cause d’éditeur inconnu, un comble pour l’anti-virus de Kaspersky, un des pionniers du domaine,  Kaspersky, utilisé par 400 millions de personnes dans le monde. (Une moitié d’entre elles ne le sait même pas car il tourne aussi sur des équipements télécoms, des pare-feux par le jeu des licences et des partenariats avec les fabricants.).

    Autre vexation pour Kasperky : il ne peut utiliser son propre système de notification à l’expiration de la licence, sous forme d’une petite fenêtre d’alerte. Il faut passer par le système de notification très « Windows », de quoi rendre le message confus sur le logiciel vraiment installé et utilisé. Et seuls les anti-virus tiers doivent passer par ces fourches caudines. Les autres logiciels qui arrivent à expiration n’y sont pas contraints.

    Logo de Windows 10 de Microsoft

    Dans sa réponse, Microsoft ne semble pas nier ce dernier problème puisqu’il évoque un système de notifications sur lequel lui et l’ensemble des éditeurs de solutions anti-virus payants se sont mis d’accord. On comprend qu’il faut faire partie du programme MVI (Microsoft Virus Initiative) pour avoir voix au chapitre.

    Ce qui ajoute au malaise, si l’on en croit Kaspersky, c’est que les versions de test de Windows 10 ne prévoyaient pas cette obligation. La surprise est donc totale.

    Kasperky, meilleur ? Là n’est pas la question

    Pour Kasperky, l’explication est simple : après des années de vaine compétition, Microsoft reconnait son retard sur les anti-virus et opte pour une solution radicale : empêcher ses concurrents de venir chez lui et occuper la place le premier, une fois Windows 10 installé. C’est un peu l’histoire d’Internet Explorer qui se répète : lui aussi était préinstallé dans les PC jusqu’au moment où la Commission a mis le holà… pour laisser le champ libre à Google en fait. Bien sûr, dans son blog, Microsoft dément et affirme que son anti-virus détecte 99 % des menaces (voir cependant le tableau comparatif des tests indépendants d’antivirus au lien suivant : https://chart.av-comparatives.org/chart1.php ce qui permettrait d’affirmer qu’ici Kapersky est légèrement meilleur que Microsoft aussi bien pour les virus bloqués que pour les faux positifs).

    Pourquoi, lors d’une mise à jour vers Windows 10, tout autre anti-virus présent avant est désinstallé ? Car le cheval de bataille de Microsoft pour persuader de passer à Windows 10, c’est précisément l’option qui permet de retrouver son PC en ordre de marche après comme avant, sans de fastidieuses réinstallations et restaurations. C’est vrai, Microsoft prévient qu’il a dû désinstaller Kaspersky pour incompatibilité avec Windows 10 mais c’est sans laisser le choix à l’utilisateur qui ne doit surtout pas rater ce message… Car le logiciel reste présent sous forme de fichiers inactifs, ce qui donne à croire qu’on est encore protégé !

    Microsoft répond qu’en effet, dans 5 % des cas, l’anti-virus tiers installé sur la machine qui se met à jour vers Windows 10 n’est pas compatible. C’est la raison pour laquelle Windows le désactive en partie (d’où les fichiers inactifs qui subsistent) mais, prétend Microsoft avec bonne foi, il explique comment faire pour récupérer son anti-virus, soit via une mise à jour Windows 10, soit parfois simplement le réinstaller suffit.

    Moins de temps pour tester les programmes

    Microsoft laisse de moins en moins de temps aux développeurs pour tester et prouver la compatibilité de leur logiciel sur une nouvelle version de Windows 10 avant déploiement. Quelques semaines à peine pour ne pas se laisser distancer par Apple et Android, aurait justifié Microsoft à Kasperksy. Sauf, prétend Eugène Kaspersky, qu’Apple et Android lui laissent bien du temps pour ajuster ses programmes. Et c’est bénéfique pour les deux parties puisque Kaspersky, comme d’autres, en profitent pour donner à Microsoft comme à Apple ou à Android les vulnérabilités découvertes au cours des tests. Le rush n’est jamais bon dans le développement des programmes et encore moins dans les antivirus.

    Enfin le marketing de Microsoft pose question puisque la gratuité de l’anti-virus maison de Microsoft est mis en avant en conseillant à ses clients de laisser tomber les autres anti-virus… Sauf qu’on peut vouloir payer pour un produit de meilleure qualité…. Et le nouveau Windows 10 allégé, Windows 10S ne permettra même plus d’installer des programmes tiers. Seuls les logiciels qui seront passés par le Microsoft Store seront autorisés.

    Kasperksy lié au FSB ?

    C’est précisément au même moment qu’une contre-attaque vient des autorités US : Kasperky aurait des liens étroits avec le FSB, le successeur du KGB. Il aurait développé des outils pour le FSB. C’est l’interdiction des directeurs des six agences de renseignement US à leur personnel d’installer Kasperksy qui a permis de jeter le doute. Kasperky n’a jamais nié avoir vendu et fourni des produits et services à des gouvernements. Et puis, c’est un peu fort de café de voir les Américains porter des accusations de proximité entre Kasperky et le gouvernement russe alors que les restes de l’incendie Snowden fument toujours. Et ceux qui ont eu à subir l’espionnage US auront été bien contents de faire appel à des experts qui n’en ont vraiment pas la couleur. Bien sûr, les anti-virus ont un statut à part. Ce sont les seuls logiciels qui ont accès à tous les fichiers du PC où il est installé. Il communique en permanence avec sa société mère pour recevoir les mises à jour. C’est un cocktail explosif qui ouvre la porte à des accusations faciles. Kasperky fournit au FSB comme à ses autres clients des contre-mesures offensives comme rerouter le trafic de l’attaquant vers le serveur qui les lance. De là à dire qu’il équipe le FSB en armes offensives, il y a de la marge. Oui, Kasperky fournit aussi un support pour localiser les hackers aux autorités russes et dépêche des experts en cas de descente de police.

    Curieusement, ces accusations arrivent au moment où Kaspersky est sur le point de lancer son propre système d’exploitation, Kasperky OS.

    Il vise à équiper et à faire tourner les infrastructures critiques (pipelines, réseaux électriques). Il pourrait à peu de frais s’adapter à l’Internet des Objets. La réputation de Kaspersky a de quoi enchanter le monde de la cybersécurité qui pleure devant la faible protection (et attention) dont bénéficie l’IoT sur ce plan.

    Les autorités US ont laissé entendre que choisir Kasperky OS, c’est laisser les Russes contrôler son usine ou son réseau. Aucune preuve ni même indice n’a été avancé : Eugène Kaspersky a proposé de mettre à disposition de tous le code de son système d’exploitation.

    Rapport du Sénat américain à propos des entreprises Huawei et ZTE.

    Cet épisode protectionniste rappelle les mêmes accusations vagues formulées contre Huawei en 2012 par le Sénat américain. Ce dernier a tenté en vain de mettre en évidence des velléités d’espionnage des chinois à travers leur champion télécom alors qu’ils ont tout ce qu’il faut dans leur armée pour ce faire. Le Sénat américain s’est alors contenté d’accuser Huawei de pratiques commerciales déloyales et de gouvernance douteuse pour arriver au même résultat : lui interdire le territoire américain, ce qui a amené Huawei à inonder l’Europe et le reste du monde de ses produits !

    En attendant, la GSA, l’agence responsable des achats informatiques pour les organismes gouvernementaux US, a retiré les logiciels de sécurité de l’éditeur russe de deux listes de fournisseurs approuvés.

    Charles Cuvelliez, École Polytechnique de Bruxelles (ULB), Jean-Jacques Quisquater, École Polytechnique de Louvain, UCL

    Pour en savoir plus:

  • Numérique : ne perdons pas la mémoire

    Valérie Schafer

    Binaire est très sensible au patrimoine numérique et son devenir. Dans un long article paru chez nos amis d’)i(nterstices, « Le patrimoine numérique, entre enjeux matériels et immatériels »  Valérie Schafer fait le point sur la question du patrimoine et référence de très nombreuses initiatives pour le Web et les réseaux sociaux, qui montrent parfois le retard que nous avons pris sur certains aspects en France. Pierre Paradinas (Cnam).

    Le patrimoine numérique, entre enjeux matériels et immatériels 

    Nous passons tous les jours du temps sur Internet, mais nous avons déjà oublié les sites que nous visitions assidûment il y a dix ans. À quoi ressemblaient-ils ? Pour s’en souvenir, nous pouvons nous plonger dans les archives du Web. La question de l’archivage du patrimoine numérique a d’ailleurs pris de l’ampleur ces dernières années…

    Photo Jason Scott [CC BY 2.0], via Wikimedia Commons.
    « Internet Archive redonne vie au Macintosh de 1984 », « Internet Archive : testez le Macintosh de 1984 dans votre navigateur », pouvait-on lire en ligne à la mi-avril 2017, sur des sites spécialisés dans les contenus informatiques et numériques. La fondation Internet Archive annonçait en effet la sortie d’un émulateur permettant de retrouver l’environnement des premiers ordinateurs personnels et avec lui des logiciels comme MacWrite, MacPaint ou des jeux tels que Dark Castle et Space Invaders.

    Cette annonce médiatisée, le succès d’expositions consacrées aux jeux vidéo ces dernières années ou celle consacrée aux gifs par le Museum of the Moving Image de New York en 2014, le dynamisme d’institutions comme le Computer History Museum aux États-Unis, ou encore l’organisation en juin 2017 à Londres d’une semaine consacrée aux archives du Web (Web Archiving Week), sont autant de signes d’un intérêt pour le patrimoine numérique sous toutes ses formes. C’est ce patrimoine varié et hétérogène, conjuguant aspects matériels et immatériels et réunissant de nombreuses parties prenantes que nous vous invitons à découvrir, mais aussi les enjeux sous-jacents de cette patrimonialisation. En effet, la volonté de conserver les documents et traces numériques, d’archiver le Web, de transmettre aux générations futures un patrimoine informatique, si elle s’inscrit dans la continuité d’initiatives de patrimonialisation à la fois technique, scientifique et industrielle, devient aussi une patrimonialisation de la communication et par son ampleur acquiert un statut particulier, reconnu en 2003 par l’Unesco : celui de patrimoine numérique.

    Les différentes facettes du patrimoine numérique

    En octobre 2003, le patrimoine numérique est reconnu — et ainsi son existence et sa valeur pleinement légitimées — par une Charte de l’Unesco qui met sous un même chapeau, tout en les distinguant, patrimoine numérisé et patrimoine nativement numérique (ce que les Anglo-Saxons appellent Born-Digital Heritage) :

    « Le patrimoine numérique se compose de ressources uniques dans les domaines de la connaissance et de l’expression humaine, qu’elles soient d’ordre culturel, éducatif, scientifique et administratif ou qu’elles contiennent des informations techniques, juridiques, médicales ou d’autres sortes, créées numériquement ou converties sous forme numérique à partir de ressources analogiques existantes. Lorsque des ressources sont « d’origine numérique », c’est qu’elles existent uniquement sous leur forme numérique initiale », note ainsi la Charte. Celle-ci énumère quelques-uns de ces documents nativement numériques qui peuvent être des textes, des bases de données, des images fixes et animées, des documents sonores et graphiques, des logiciels et des pages Web.

    Si ce patrimoine partage bien des points communs avec le patrimoine culturel immatériel défini par l’Unesco la même année, une troisième forme de patrimoine, que nous qualifierons de patrimoine du numérique pour le distinguer des précédents, apparaît aussi en filigrane. Ainsi, la Déclaration de Vancouver sur le numérique de 2012 — La Mémoire du monde à l’ère du numérique : numérisation et conservation — souligne à quel point les enjeux matériels sont prégnants pour la sauvegarde d’un patrimoine numérique risquant d’être perdu en cas d’obsolescence rapide du matériel et des logiciels qui servent à le créer.

    La conservation du matériel a certainement été l’enjeu le mieux identifié et le plus rapidement dans le cadre de la poursuite des projets de conservation d’un patrimoine technique, industriel et scientifique. Elle n’a pas attendu le numérique pour être prise en charge par de multiples acteurs de la patrimonialisation.

    Depuis la fermeture en 2010 du musée de l’informatique installé à la Défense, il n’existe plus de lieu fédérateur unique pour les collections françaises, alors dispersées entre différentes associations et musées dont celui des Arts et Métiers. Mais un mouvement est actuellement entrepris pour la réalisation d’un projet global s’appuyant sur des matériels, logiciels, documentations techniques et histoires orales, déjà préservés par plusieurs partenaires et acteurs de la gestion du patrimoine du numérique sur l’ensemble du territoire français (l’ACONIT, AMISA, le Cnam et son musée, la FEB, Homo Calculus, ou encore l’Espace Turing).

    Outre la préservation indispensable des matériels, le patrimoine numérique doit absolument être associé à une réflexion sur les éléments de documentation divers  (guides et modes d’emploi, Cd-Roms, kits de connexion, etc.), qui permettent de le recontextualiser, mais aussi de retrouver un patrimoine interactif. En effet, l’émulation, la préservation de consoles, d’ordinateurs, d’interfaces de programmation applicative (API), contribuent à les maintenir vivants au sein de leur écosystème. Brewster Kahle l’avait relevé dès 1997 dans Archiving the Internet, notant que « alors qu’il est possible de lire un livre ancien de 400 ans imprimé par Gutenberg, il est souvent difficile de lire une disquette informatique qui a 15 ans ». Celui qui dès 1996 bouleverse le patrimoine numérique en se lançant par la création d’Internet Archive dans l’entreprise titanesque d’archiver le Web mondial soulignait déjà des enjeux que relèvent aujourd’hui en partie sa fondation et une pluralité d’autres acteurs, institutionnels et scientifiques, parmi lesquels le récent projet Software Heritage soutenu par Inria.

    Le patrimoine nativement numérique : d’Internet Archive à Software Heritage

    La Charte de l’Unesco en 2003, en insistant sur le patrimoine dit « d’origine numérique » (mentionné dans les articles 1 et 7) au même titre que le patrimoine numérisé, reconnaît la valeur de documents qui n’existent qu’en format numérique, mais aussi les efforts de préservation et de patrimonialisation engagés en amont de cette Charte.

    Parmi les pionniers dans ce domaine, la fondation Internet Archive est lancée en 1996 par Brewster Kahle en s’appuyant sur son entreprise Alexa (créée en 1996 et vendue à Amazon en 1999), spécialisée dans l’analyse de flux et la recommandation de sites. Dès 2001, la Wayback Machine permet aux internautes de parcourir la Toile du passé (aujourd’hui 286 milliards de pages archivées).

    Figurines en céramique de Ted Nelson, Mary Austin et Brewster Kahle présentes dans la grande salle d’Internet Archive à San Francisco. Photo Jason Scott [CC BY-SA 2.0], via Wikimedia Commons.
    En parallèle, d’autres initiatives se manifestent, par exemple au sein des bibliothèques nationales canadiennes et australiennes. Des projets précoces dans les pays scandinaves visent aussi dans la seconde moitié de la décennie 1990 à étendre le périmètre du dépôt légal au Web, tandis qu’est lancé le projet AOLA (Austrian On-Line Archive) au début des années 2000 pour développer un archivage du Web autrichien.

    Toutes ces démarches font écho aux évolutions qu’ a connues le patrimoine au cours des dernières décennies, à une patrimonialisation de plus en plus sensible à de nouveaux objets, mais aussi à l’ascension du numérique, qui prend place dans des aspects de plus en plus étendus et variés de nos vies professionnelles, économiques, sociales et personnelles.

    Le mouvement est suivi dans la décennie 2000 par de nombreux pays européens, la France inscrivant l’archivage du Web dans le dépôt légal en 2006. Déjà dotée d’une expérience de conservation des vidéogrammes et documents multimédia composites depuis 1975 puis des multimédias, logiciels et bases de données depuis 1992, la Bibliothèque nationale de France (BnF) prend alors en charge cette mission avec l’Institut national de l’audiovisuel (Ina) qui se voit confier les sites Web relevant du périmètre audiovisuel. Au-delà de ces initiatives nationales, des initiatives transnationales peuvent être évoquées, par exemple le lancement en 2008 du projet LiWA (Living Web Archives).

    En 2009, le projet Memento du Los Alamos National Laboratory Research Library a par ailleurs permis de réaliser un outil libre, offrant aux internautes un accès aux versions précédentes d’une page web grâce à un plug-in à ajouter au navigateur. Dans le même esprit, le projet « 404-no-more » porté par Firefox et Internet Archive vise à éliminer les « erreurs 404 » en redirigeant automatiquement vers une version archivée de la page demandée.

    Outre les archives du Web, les archives des Newsgroups, espaces de discussion de la communauté Usenet (réseau né à l’extrême fin des années 1970), méritent aussi notre attention : gérées depuis 2001 au sein du service de forum Google Groups, elles « ont accompagné les efforts de légitimation de l’entreprise auprès des publics d’utilisateurs, à une époque où Google était en phase de développement et de diversification de ses activités », rappelle Camille Paloque-Berges dans son article. « Google, alors en train de gagner la guerre de moteurs de recherche, s’est érigé par ce geste en protecteur du passé du réseau, ainsi qu’en candidat à sa propre reconnaissance au sein de cette histoire. »

    Les communications et usages numériques les plus récents n’échappent pas non plus à cette patrimonialisation, à l’instar de l’archivage de Twitter, pris en charge par la Bibliothèque du Congrès américaine en vertu d’un accord avec Twitter depuis 2009 ou encore, avec un périmètre beaucoup plus restreint, le suivi par l’Ina et la BnF de quelques centaines de comptes Twitter et mots-dièses précis.

    Enfin, parmi les derniers venus, avec des ambitions complémentaires des autres et spécifique à un champ jusque-là peu préservé, le projet Software Heritage lancé en 2016 complète ce paysage en plein essor. Comme le note Roberto di Cosmo, un des principaux instigateurs et porteurs de cette initiative : « […] Archiver du code source pose des problèmes spécifiques qu’on ne rencontre pas dans d’autres domaines. […] La préservation du code source avec ses spécificités n’était vraiment au cœur de la mission de personne : on préservait des logiciels exécutables, jouables, des jeux vidéo, c’était notamment fait par Internet Archive qui a une grosse sélection de jeux vidéo. On préservait des pages web qui parlaient de logiciels et de codes sources. Mais les codes sources, comme objet noble, non. »

    L’articulation entre patrimoines et publics

    Public scientifique, experts, amateurs et grand public, monde des médias, industriels, étudiants et enseignants, les publics potentiels du patrimoine numérique sont nombreux et les usages de celui-ci encore largement à explorer, favoriser, stimuler, inventer. Ainsi Roberto Di Cosmo espère que le projet Software Heritage intéressera les acteurs du patrimoine scientifique et technique ainsi que ses publics, mais aussi le monde de la recherche scientifique, qui pourra y trouver une archive de référence, ou encore le monde industriel.

    Cependant, pour réunir et accueillir pleinement les publics, plusieurs défis sont encore à relever, car la vocation d’ouverture et de participation n’a pas toujours été pensée au préalable : bien sûr, il y a des questions d’accessibilité des données, notamment dans le cadre du dépôt légal, qui limite la consultation des archives du Web in situ en France à la BnF et quelques bibliothèques en région. Mais les enjeux concernent aussi l’interopérabilité, qui se pose par exemple à l’échelle européenne, car les fonds d’archives du Web sont imperméables entre les différents pays. L’accessibilité doit aussi être cognitive et pose le problème de l’accompagnement dans la découverte de ces sources, de la maîtrise des outils de traitement, de la littératie numérique, du substrat de culture informatique et numérique nécessaire (sujet d’actualité autour de l’apprentissage du code dans le secondaire). Enfin, des enjeux éthiques ne peuvent manquer de se manifester. Reste également à penser davantage la place de ces publics en amont même des réalisations. Comme le notaient en 2011 Hafizur Rahaman et Beng-Kiang Tan dans leur article :

    « Les projets actuels de patrimonialisation numérique se concentrent surtout sur le « processus » ou sur le « produit », mais ne considèrent que rarement les « utilisateurs » […]. Pour une meilleure interprétation et expérience d’un site relevant du patrimoine numérique, il nous faut une méthode d’interprétation inclusive, qui devrait tenir compte de la variété de compétences des utilisateurs, dépasser la linéarité de la narration et la subjectivité dans la création des contenus. » (traduction : Francesca Musiani)

    Si en quelques années la situation a déjà beaucoup évolué, notamment sous l’effet d’échanges de plus en plus féconds et nombreux entre le monde des archives, des bibliothèques et des chercheurs, elle peut aller encore plus loin pour pleinement inscrire dans cette dynamique les producteurs et publics, notamment les « publics ordinaires ». Ceux-ci restent souvent simples spectateurs de choix qui ne sont au demeurant pas le seul fait des institutions patrimoniales, mais aussi de plus en plus souvent des grandes entreprises de communication.

    Des objets de recherche, des objets au service de la recherche

    Alors qu’à ses débuts, le patrimoine nativement numérique concernait essentiellement le monde des bibliothèques et des archives, les chercheurs commencent à s’y intéresser sérieusement depuis quelques années, l’envisageant à la fois comme objet de recherche propre et objets-sources au service de leurs recherches.

    La réflexion a d’abord porté sur le patrimoine numérisé, que ce soit dans le champ de l’histoire ou des sciences de l’information et de la communication, mais des initiatives comme les ateliers du Dépôt Légal du Web à l’Ina, sont un jalon important en France dans l’implication des communautés de recherche autour des archives du Web.

    Comme le relevait Louise Merzeau, coorganisatrice des ateliers, dans son article : « Bien sûr, ce déploiement d’une vue stratifiée du réseau ne nous est pas familier, et il nous faudra apprendre à la manipuler. Comme outil de représentation, de navigation et de compilation, c’est l’archive elle-même qui produira ces nouveaux usages. De la même manière que l’archivage des sources audiovisuelles a rendu possibles quantité de recherches sur la radio et la télévision qu’on ne pouvait auparavant formaliser, le dépôt légal du Web est une condition de sa conversion en fait de culture. »

    Les historiens du monde contemporain se convertissent aujourd’hui pour certains avec enthousiasme à ces nouvelles sources. Au sein de ces approches, l’importance des réflexions épistémologiques et méthodologiques est notable : sans rompre avec les méthodes historiennes antérieures, les chercheurs sont conscients de l’importance de bien comprendre ces sources avant de les exploiter. Nous avons notamment pu souligner avec Francesca Musiani et Marguerite Borelli dans notre article « Negotiating the Web of the Past » l’importance d’ouvrir les boîtes noires des archives du Web pour en saisir les biais et les multiples médiations subies au cours de l’archivage. Nous n’en rappellerons ici que quelques rapides éléments afin d’insister sur le fait que, comme l’avait noté l’historien danois Niels Brügger en 2012 dans la revue Le Temps des Médias, l’archive du Web est rarement une copie parfaite du site Web dans son aspect originel sur le Web vivant. Enchâssée dans des interfaces de consultation contemporaines, transformée sous l’effet de la perte de documents (des publicités, des images dans les années 1990, etc.), une page subit de nombreux changements. Ceux-ci sont encore amplifiés à l’échelle d’un site, par la remise en hypertextualité, quand certains hyperliens introduisent des sauts temporels entre plusieurs pages archivées à des dates différentes, mènent parfois à des impasses (les pages ne sont pas toutes archivées, et un site est rarement archivé à plus de deux ou trois clics de profondeur), etc. Comprendre les techniques, périmètres, choix de conservation opérés par les institutions est un préalable à une création raisonnée de corpus, quand bien même le chercheur semble avoir à disposition suffisamment, voire trop, de données à étudier.

    L’archivage de Twitter au moment des attentats parisiens de 2015, opéré par la BnF et l’Ina, en témoigne. Ainsi, si l’Ina a pu collecter au moment de ces attentats environ 11 millions de tweets, reste que cette collection pléthorique comporte nécessairement certains biais et lacunes, notamment par le choix des mots-dièses archivés (dont la sélection a été faite en temps réel, au cours des événements) ou encore par des pertes de tweets au moment de la collecte via l’API publique de Twitter (celle-ci limite en effet la collecte gratuite à 1% du flux mondial à un instant donné. Or les flux Twitter consacrés aux attentats ont parfois représenté plus de 1% du total de tweets émis au niveau mondial, faisant perdre partie d’entre eux).

    De cette masse de données découle aussi une autre piste de réflexion, sur la nature des outils permettant d’exploiter ces vastes gisements. Comme le souligne Thomas Drugeon, responsable du dépôt légal du Web à l’Ina, lors de notre entretien — et la question se pose à l’identique côté BnF —, le chercheur ne peut emporter avec lui les données, pour leur offrir le traitement appareillé par les outils informatiques de son choix. Les règles du dépôt légal le contraignent à traiter ces documents dans les enceintes des institutions. Aussi le monde des archives du Web développe-t-il de plus en plus des outils destinés à accompagner les chercheurs, permettant notamment dans le cas de l’Ina la réalisation de timelines ou de nuages de mots, le suivi de la circulation et de la popularité d’images, ou encore le croisement de nombreuses métadonnées, dont témoignent quelques-unes des figures suivantes.

    Possibilité de croiser les données et métadonnées au cours de l’exploration des tweets et mots-dièse dans l’interface Ina. © Ina
    Timeline et statistiques d’une recherche sur #prayforparis dans l’interface Ina. © Ina
    Possibilité de générer un nuage de mots à partir d’une recherche, ici sur #jesuisahmed, dans l’interface Ina. © Ina

    La BnF, en implémentant également dans ses archives des attentats de 2015 une recherche plein texte qui permet de croiser de multiples facettes, offre une entrée facilitée dans les données, non sans questionner également le chercheur sur les biais que ces outils peuvent induire dans la recherche qu’il va mener et la manière dont il va aborder ces masses de données.

    Recherche plein texte et possibilité d’affiner les résultats à l’aide de facettes dans les archives du Web des attentats de 2015. © BnF

    Conclusion

    « Toute personne qui travaille avec des archives du Web s’est rapidement habituée au fait que la plupart des gens n’en ont même jamais entendu parler — et encore moins comprennent ce qu’elles sont et comment y accéder. En 2016 cependant, il semble que les archives du Web ont commencé à pénétrer la conscience du public, à passer des pages Technologies de la presse aux sections politiques et même culturelles », notait Jane Winters dans son article en début d’année. L’année 2016 aura-t-elle été celle des archives du Web, comme le suggère l’historienne britannique, familière de ces matériaux depuis plusieurs années ? Et ce succès de visibilité ne risque-t-il pas de se faire au détriment d’autres patrimoines numériques, moins valorisés actuellement, mais tout aussi importants (conservation des banques de données par exemple) ?

    Dans tous les cas, en France comme dans le monde anglo-saxon, ce sujet, jusque-là plutôt confidentiel, aura fait l’objet d’une plus large couverture médiatique, notamment de la part du Monde, de Libération ou encore de L’Express, à la faveur des vingt ans de la fondation Internet Archive et des dix ans du dépôt légal du Web en France. Ainsi, les 22 et 23 novembre 2016, au cours du colloque « Il était une fois dans le Web. 20 ans d’archives de l’Internet en France », se réunissaient de multiples acteurs intéressés par ce patrimoine, professionnels de l’archivage et des bibliothèques, des médias, journalistes et chercheurs. Tous les intervenants témoignaient avec passion des défis techniques, mais aussi politiques et culturels passés et à venir de ce patrimoine nativement numérique. De plus en plus pléthorique, ce patrimoine mettra également au défi l’écriture de l’histoire, non seulement celle du numérique mais celle de nos sociétés contemporaines dans toutes ses facettes.

    Valérie Schafer (Historienne, chargée de recherche CNRS à l’Institut des sciences de la communication).

    Retrouver )i(nterstices

  • À propos des données pédagogiques

    Le Directeur du Numérique pour l’Éducation, Mathieu Jeandron, a récemment envoyé une lettre qui encourage l’utilisation par les établissements scolaires de logiciels et de services d’entreprises numériques, pour administrer les données pédagogiques, c’est-à-dire les données concernant les élèves de l’Éducation nationale. Comme les données médicales, elles sont personnelles aux élèves, très sensibles et représentent une valeur considérable par exemple pour des agences de recrutement.

    CC0 Public Domain

    La Société informatique de France tient à rappeler qu’il incombe à l’Éducation nationale de les protéger.

    1. Ces données doivent rester sous le contrôle de l’Éducation nationale. Si elles devaient être hébergées sur un serveur administré par une entreprise autre que l’Éducation nationale, cela doit être fait en répondant à un cahier des charges précis et sous le contrôle étroit de l’Éducation nationale.
    2. Ces données doivent être stockées en Europe, pour être protégées par les lois européennes.
    3. Ces données ne peuvent en aucun cas être monétisées. Il serait, par exemple, totalement inacceptable d’abandonner une part de cette protection comme prix d’un sponsoring d’une entreprise privée.

    Il s’agit bien de questions de souveraineté de l’Éducation nationale et, au-delà, de la République. Il s’agit aussi de questions liées au respect de la vie privée des élèves.

    Les données pédagogiques ont une valeur énorme car, même si c’est encore peu le cas aujourd’hui, elles peuvent servir à améliorer l’enseignement, en évaluant les méthodes, les contenus, les outils. Elles permettent aussi de personnaliser l’enseignement dispensé aux élèves. Elles doivent pouvoir être utilisées pour des besoins pédagogiques de manière transparente et équitable, ce qui implique :

    • qu’elles soient systématiquement anonymisées lorsqu’elles ne sont pas utilisées à des fins de personnalisation d’un enseignement,
    • qu’elles soient partagées et non mises à disposition d’une entreprise particulière,
    • qu’elles soient exprimées dans un format libre et permettant leur interopérabilité,
    • que leur analyse soit effectuée par des programmes transparents et libres.

    Un tel cadre permettrait aux talents de l’Éducation nationale, aux entreprises, aux associations éducatives, de tout l’écosystème éducatif, de participer au grand défi de mettre le numérique au service de l’éducation.

    L’Éducation nationale enseigne aux élèves qu’ils doivent être responsables de leurs données. Elle doit être particulièrement exemplaire dans ce domaine, au risque sinon de perdre toute crédibilité.

    La Société Informatique de France encourage donc le gouvernement à une grande vigilance dans ce domaine.

    Conseil scientifique de la Société Informatique de France

  • La Chaire de Colin

    « Former 300 000 éducateurs, animateurs, enseignants pour que ceux-ci puissent demain utiliser le code informatique dans leurs activités devant les enfants et les adolescents… ». Cela vous rappelle-t-il quelque chose ?  C’est la mission Class’Code, qui mêle formation à distance et temps de rencontre, apprivoisement de la machine et découverte de la pensée informatique sans ordinateur, apprenants et facilitateurs.  Cela vous avait paru un peu fou ? Pourtant, l’UNESCO (oui, oui, l’Organisation des Nations Unies pour l’éducation la science et la culture, elle-même) a été conquise au point d’attribuer à l’Université de Nantes une chaire* « en technologies pour la formation des enseignants par ressources éducatives libres ». Binaire a demandé à Sylvie Alayrangues de nous parler de cette chaire.  Serge Abiteboul.

    À l’origine de cette chaire, on trouve Colin de la Higuera, professeur des universités à Nantes, ex-président de la société informatique de France, ex-éditeur de binaire, déjà à l’origine de Class’Code.

    Colin de la Higuera au Congrés de la SIF à Poitiers, 2017, Photo Jean-François Billaud

    L’ambition de cette chaire est claire : donner une nouvelle dimension au projet Class’Code en travaillant non seulement à son amélioration et à sa pérennisation mais aussi à son extension à l’international et pourquoi pas à d’autres disciplines.

    Pour l’améliorer, des recherches sont d’ores et déjà menées, par exemple, pour évaluer le subtil équilibre entre formation à distance et temps de rencontre. L’extension vers les mathématiques est envisagée, bénéficiant de collaborations déjà existantes, liant la société informatique de France et Inria, les partenaires initiaux du projet, aux sociétés savantes des disciplines concernées. Enfin, dès son lancement, cette nouvelle aventure a également pris une envergure internationale en embarquant parmi ses premiers partenaires la « Knowledge for All Fondation« .

    Et la science informatique ? Elle n’est pas oubliée ! La chaire émarge déjà sur un premier projet européen, X5gon,  où il s’agit justement d’utiliser des techniques d’intelligence artificielle pour naviguer plus facilement et de manière plus pertinente dans un ensemble riche et complexe de ressources éducatives.

    Que dire de plus ? Et bien, que nous souhaitons à Colin de réussir à regrouper autour de lui, comme il a su le faire pour Class’Code, une dream team d’universitaires, de chercheurs, d’entreprises, d’acteurs de l’éducation populaire, de créateurs et de diffuseurs de ressources éducatives, de collectivités… Et peut-être, souhaitons-lui également que cette chaire porte bien haut les valeurs éthiques (communes à l’aventure Class’Code) qui la fondent, dans la vision d’une société solidaire où l’éducation de tous et à tout âge passe aussi par le partage et l’entraide.

    Sylvie Alayrangues, Maitre de Conférence à l’Université de Poitiers

    (*) Une chaire UNESCO lie un établissement d’enseignement supérieur à l’UNESCO autour d’un programme d’une durée initiale de 4 ans. L’objectif de ces programmes est de faire progresser l’enseignement, l’apprentissage ou la recherche dans un des domaines prioritaires de l’UNESCO. Une chaire permet, notamment, de développer des activités au niveau international en bénéficiant des réseaux et de la renommée de l’UNESCO.

  • Prolog est orphelin

    Nous venons d’apprendre le décès d’Alain Colmerauer et il nous semble important de dire quelle était sa place dans le paysage de l’informatique mondiale. Alain est l’inventeur du langage Prolog, qui a joué un rôle clé dans le développement de l’IA, il se trouve que plusieurs binairiens ont programmé avec ce langage, pour leur recherche ou pour payer leurs études ainsi que de proposer des extensions. Un collègue ami d’Alain, Philippe Jorrand, Directeur de recherche émérite au CNRS, nous parle de son parcours. Pierre Paradinas.

    Photo : Alain Colemrauer

    Alain Colmerauer était un ancien de l’IMAG (Institut d’Informatique et de Mathématiques Appliquées de Grenoble), devenu une personnalité scientifique de premier plan par le rayonnement international de l’œuvre majeure de sa recherche, le langage PROLOG.

    Alain Colmerauer était un élève de la première promotion de l’ENSIMAG, diplômée en 1963. Il a débuté sa recherche au Laboratoire de Calcul de l’Université de Grenoble, l’ancêtre du LIG. Dans sa thèse, soutenue en 1967, il développait les bases théoriques d’une méthode d’analyse syntaxique. Puis, pendant son séjour de deux ans à l’Université de Montréal, c’est en imaginant une utilisation originale des grammaires à deux niveaux (les « W-grammaires »), qu’il a établi les bases embryonnaires de ce qui allait devenir PROLOG.

    De retour en France en 1970, il accomplit ensuite toute sa carrière à l’Université de Marseille, où il devient professeur. C’est là, au Groupe d’Intelligence Artificielle du campus de Luminy, qu’il forme avec détermination une petite équipe de jeunes doctorants, puis d’enseignants-chercheurs, pour développer la PROgrammation en LOGique. Sous sa direction, c’est ce petit groupe qui a élaboré les fondements théoriques de cette approche originale de la programmation, puis conçu et mis en œuvre les versions successives du langage qui allait connaître un succès international et être la source d’un courant de recherche fertile : PROLOG I, PROLOG II, PROLOG III où les contraintes linéaires venaient rejoindre la logique puis Prolog IV avec une théorie d’approximation plus aboutie, des contraintes sur les intervalles, et un solveur.

    Prolog III, manuel de référence, Prologia, Marseille, 1996

    Par ailleurs, le langage Prolog sera adopté par le projet d’ordinateur de 5ème génération développé par le MITI au Japon dont l’objectif était de créer une industrie et les technologies de l’intelligence artificielle à la fin des années 80. Une entreprise PrologIA, distribuera le langage dans ses différentes version.

    Alain Colmerauer a toujours été un esprit original. Il se défiait de tout ce qui peut ressembler à une pensée unique, et n’hésitait pas à exprimer des idées parfois iconoclastes, mais souvent fécondes. Il croyait à ce qu’il faisait, et sa ténacité lui a souvent été utile face à quelques difficultés institutionnelles et à l’incrédulité de collègues plus installés que lui dans les modes scientifiques. Pour ceux qui l’ont bien connu pendant de longues années, Alain était un ami solide.

    Alain Colmerauer est décédé à Marseille, le vendredi 12 mai 2017.

    Philippe Jorrand, DR émérite CNRS

    Pour aller plus loin :

  • Terra Data, qu’allons-nous faire des données numériques ?

    L’exposition «Terra Data, nos vies à l’ère du numérique» a ouvert ses portes à la Cité des sciences et de l’industrie. Que dire pour vous donner envie de visiter cette exposition ? Une amie de binaire, Christine Leininger, nous la fait visiter. Thierry Vieville. Ce billet est repris du site pixees.fr

    Lors de l’inauguration, Bruno Maquart, président d’Universcience, a souligné dans son discours combien rendre le numérique tangible dans une exposition était un défi. Venez voir par vous-mêmes comment les commissaires d’exposition, Pierre Duconseille et Françoise Vallas, ont relevé ce défi !

    Dans un espace délimité par de grands miroirs, vous serez accueilli par le commissaire scientifique de l’exposition, Serge Abiteboul, ou plutôt sa vidéo quasiment grandeur nature.

    Vous créerez votre parcours autour d’une trentaine de grandes tables carrées regroupées selon quatre thèmes : Les données, qu’est-ce que c’est ? Comment les traite-t-on ? Qu’est-ce que ça change ? Où ça nous mène ?

    Vous pourrez ainsi expérimenter plusieurs algorithmes pour faire un nœud de cravate, plonger dans l’Histoire de Venise, découvrir où les données provenant de chaque pays sont stockées…

     
    Vous pourrez aussi vous initier au datajournalisme et à la datavisualisation…

    Vous pourrez encore revoir votre parcours dans l’exposition à partir du traçage de votre smartphone, vérifier que votre visage photographié à l’entrée est reconnu…

     

     
    Vous êtes enseignant ? Une page web spécifique vous est dédiée.

     

     

     

    Nous vous souhaitons une bonne visite !

    Pour en savoir +

    Christine Leininger

     

  • Qui va vraiment gagner les élections ?

    Avons-nous fait un vote utile car selon les sondages nous pensions que… ou avons-nous fait un vote selon nos convictions (si le choix proposé nous le permettait) ? Est-ce bien notre opinion collective qui s’est exprimée ici ou est-elle biaisée par le système de vote lui-même ? Un groupe de chercheurs en informatique et économie en ont fait un sujet d’étude. Écoutons-les. Charlotte Truchet et Thierry Viéville.

    « Réformons l’élection présidentielle ! » Tel est le titre du billet de blog de Science étonnante [0] et de la vidéo [1] qui l’accompagne, mis en ligne en octobre 2016, dans lesquels on nous explique que le mode de scrutin uninominal à deux tours, que nous utilisons pour choisir collectivement notre président de la République, est plein de défauts et qu’il conviendrait d’en changer ! Il fait aussi référence à une autre vidéo populaire, « Monsieur le président, avez-vous vraiment gagné cette élection ? » [2], plus courte, mise en ligne en août 2016 par une autre excellente chaîne de vulgarisation :  « La statistique expliquée à mon chat ». Celle-ci expliquait déjà certains travers de notre mode d’élection présidentielle. Regardons-la :

    Ces deux vidéos (qui totalisent à elles deux plus de 650 000 vues) ont sans doute convaincu un grand nombre de personnes qu’il y avait peut-être un meilleur moyen d’exprimer nos préférences individuelles que de donner  « 4 bits [d’information] au premier tour, [et] 1 seul au second » comme écrit il y a quelque temps sur ce blog [3].

    Le paradoxe de Condorcet dit qu’il est possible, lors d’un vote où l’on demande aux votants de classer trois propositions (A, B et C) par ordre de préférence, qu’une majorité de votants préfère A à B, qu’une autre préfère B à C et qu’une autre préfère C à A. Dur dur de donner le meilleur choix. © wikipédia.fr

    Alors pourquoi ne pas adopter, par exemple, la méthode dite du « jugement majoritaire » qui a la préférence d’une des vidéos [1], parce que moins mauvaise que le système actuel ? C’est que la question est plus complexe qu’elle en a l’air : les scientifiques se sont demandé depuis longtemps s’il n’y avait pas un système de vote meilleur que tous les autres. Comme Condorcet et Borda en leur temps, ils en ont proposé de nouveaux, sans parvenir à établir un consensus. Car toutes les règles ont leurs qualités et leurs défauts, et parfois des défauts plus graves que d’autres.

    Grâce à la théorie du choix social, on sait maintenant pourquoi : il n’existe pas de système de vote parfait ! Ceci est notamment illustré par le théorème de Gibbard [4].

    Dans tout mode de scrutin non-dictatorial (c’est-à-dire où on ne laisse pas un électeur privilégié choisir le résultat tout seul) avec au moins 3 candidats éligibles, il existe des situations où un électeur a intérêt à voter stratégiquement plutôt qu’à exprimer ses préférences sincères. Autrement dit, le bulletin qui défend le mieux ses opinions dépend de ce que vont voter les autres électeurs !

    Le « jugement majoritaire », par exemple, n’échappe pas à la règle : c’est un système parmi d’autres, qui présente des qualités et des défauts, et qui aboutit parfois à des résultats « paradoxaux »**. Le problème posé ici n’a pas fini de susciter des questionnements*** et des travaux de recherche, comme en témoignent les travaux récents de ce collègue [5]  qui contourne le problème en faisant une nouvelle hypothèse sur les préférences d’une personne.

    Et puis ces résultats théoriques ne doivent pas nous faire oublier que les constructions mathématiques ou algorithmiques échafaudées par les scientifiques doivent avant tout pouvoir être utilisées et pour cela comprises par des humains. C’est vrai des systèmes informatiques interactifs comme des modes de scrutin : leurs utilisateurs doivent pouvoir se construire un modèle du fonctionnement du système. Et dans le cas des élections, c’est d’ailleurs une exigence démocratique que d’utiliser un mode de scrutin que chacun puisse expliquer et dont chacun puisse comprendre les effets !

    C’est d’ailleurs une des raisons pour lesquelles nous menons une expérimentation qui vous propose de voter autrement [6] en testant différents modes de scrutin pour départager les candidats à l’élection présidentielle. Vous nous direz ensuite ce que vous pensez de ces modes de scrutin, et nous analyserons la manière dont les citoyens s’emparent de l’expressivité qui leur est offerte de s’exprimer sur l’ensemble des candidats plutôt que de devoir choisir un simple nom à glisser dans une enveloppe. N’hésitez pas à y participer en quelques minutes, et à diffuser le site vote.imag.fr dans tous vos réseaux : sociaux, amicaux, familiaux, associatifs…

    Pour finir : faut-il enterrer le scrutin uninominal majoritaire à deux tours ? Il faudra en tout cas bien réfléchir avant d’opter pour un autre mode de scrutin et s’assurer que chaque personne en comprenne bien le fonctionnement.

    Et en ce printemps, allons voter, car même si nous y allons avec quelques réserves, nous avons un devoir vis-à-vis de celles et ceux qui nous ont précédés. Telles ces femmes qui, il y a moins de trois générations, se sont battues pour que le vote ne concerne pas que la moitié de notre peuple. Tels leurs propres aïeux qui ont été jusqu’à donner leur vie pour que nous ayons ce choix.

    L’équipe Voter Autrement*

    Références :
    0. Réformons l’élection présidentielle ! Science étonnante
    1. Réformons l’élection présidentielle ! Science étonnante
    2. « Monsieur le président, avez-vous vraiment gagné cette élection ? » La statistique expliquée à mon chat
    3. Élection 4 bits au premier tour, 1 seul au second blog binaire
    4. Théorème de Gibbard-Satterthwaite Wikipedia (voir surtout la référence anglo-saxonne)
    5. Le scrutin de Condorcet randomisé (vidéo introductive (les 14:45 minutes) et le travail scientifique associé.
    6. Voter Autrement, travail des auteurs et autrices de ce billet*.

    Notes :

    (*) L’équipe de Voter Autrement :
    Renaud Blanch, LIG, Université Grenoble-Alpes
    Sylvain Bouveret, LIG, Grenoble-INP
    François Durand, LAMSADE, Université Paris-Dauphine
    Jean-François Laslier, CNRS, Paris School of Economics
    Antoinette Baujard, GATE Lyon Saint-Étienne, Université Jean Monnet, Saint-Étienne
    Herrade Igersheim, CNRS, BETA, Université de Strasbourg
    Jérôme Lang, LAMSADE CNRS, Université Paris-Dauphine
    Annick Laruelle, UPV-EHU, Universidad del País Vasco
    Isabelle Lebon, CREM, Universités Caen-Normandie et Rennes 1
    Vincent Merlin, CNRS, CREM, Universités Caen-Normandie et Rennes 1

    (**) Un exemple de mise en défaut du jugement minoritaire. Malgré son nom, le jugement majoritaire peut conduire à choisir B contre A alors qu’une large majorité de gens jugent A meilleur que B. Comment ? C’est simple : prenons 101 électeurs qui votent de la manière suivante.
    – 50 électeurs attribuent la mention « Bien » à A et la mention « Assez
    Bien » à B ;
    – 50 électeurs attribuent la mention « Passable » à A et la mention « Insatisfaisant » à B ;
    – le dernier électeur attribue la mention « Assez Bien » à B et « Passable » à A.
    Que donne le jugement majoritaire sur cet exemple ? La mention majoritaire de A est « Passable » (mention attribuée à A par 51 électeurs). Celle de B est « Assez Bien » (mention attribuée à B par 51 électeurs). B gagne, en dépit du fait que 100 électeurs sur 101 lui préfèrent A.

    (***) L’hypothèse de pleine connaissance. Une autre hypothèse clé du théorème de Gibbard est celle de  « pleine connaissance » des choix des autres votes, donc des sondages (qui sont du reste interdits quelques heures avant la fin du vote) : les effets du fait que nous puissions voter  « en fonction des sondages » est une autre vraie question.

     

  • Des nanas pour les data !?

    La collégialité internationale. Photo : Florence Sèdes

     

    Nous tenions à relayer les initiatives de promotion des femmes, au-delà des journées officielles car pour nous, c’est tout les jours le 8 mars… On a donc invité Florence Sèdes pour parler du numéro spécial de la revue 1024 de la Société informatique de France. Thierry Vieville (Inria) et Pierre Paradinas (CNAM).

     

    Il y a quelques semaines, j’étais invitée par le groupe  « Femmes & Sciences » toulousain à animer un Café des Savoirs[1], dans le genre  « Moi, Florence S., scientifique, informaticienne,…». Profitant de cette tribune, je concluais sur mon regret que le renouvellement du casting des personnages emblématiques des « James Bond 007 » n’ait pas été l’occasion de donner le rôle de « Q »…. à une femme !

    La réalité dépasse parfois la fiction, et les vœux pieux se réalisent au-delà de nos espérances. Devinant mon désarroi, entendant ma complainte, le gouvernement britannique s’est exprimé quelques semaines plus tard. Le 28 Janvier 2017, le chef des services secrets britanniques MI6 annonce que l’inventeur de gadgets « Q » existe… et que c’est une femme ! Damned !

    Quel combat nous reste-t-il à mener ?….

    Las, ce prestigieux cas n’en reste pas moins particulier. Notre quotidien, majoritairement masculin, n’évolue pas vers une mixité, un équilibre, une harmonie entre les genres… La désertification de nos amphis et la politique volontariste de « quotas » féminins  sont de criants et vains témoignages de la désaffection des filles pour nos filières, et de l’absence de vivier potentiel, interdisant ainsi toute perspective de  « rééquilibrage ». Sortons de l’impasse ?!

    Le premier congrès de la Société Informatique de France sur le thème «Femmes & Informatique» que j’ai co-présidé avec Jérome Durand-Lose, s’est tenu en Janvier 2015 dans les magnifiques locaux historiques de l’université d’Orléans[2].

    De prestigieux intervenants et intervenantes ont abordé les différentes facettes, historiques, sociologiques, génétiques, « genrées », de la présence des femmes dans les carrières, les professions et les filières informatiques, de leur évolution… et de leur disparition !

    C’est ce riche évènement qui a servi de point de départ au numéro thématique du bulletin 1024 sur le thème « Femmes & Informatique ». Les articles reprennent et développent les prestations orales de cette journée. D’autres personnalités ont accepté de venir compléter cet état des lieux en donnant un éclairage industriel ou académique à granularité plus fine.

    Nous nous sommes enfin tournés vers l’avenir, nos « jeunes pousses », de différents continents, et de diverses cultures, pour recueillir leur point de vue avec des témoignages pleins de fraîcheur et de rassurantes et candides certitudes.

    Photo : Florence Sedes

    Au sommaire de numéro spécial ;

    • Rita Bencivenga, Isabelle Collet, Nicky Le Feuvre apportent leur vision d’éminentes sociologues à la perspective féminine de nos professions.
    • La chercheuse en communication Valérie Schaffer étudie l’évolution de la présence féminine dans sa dimension historique.
    • Marie-Claude Gaudel et Brigitte Rozoy, émérites collègues, dressent un état des lieux dans l’enseignement et la recherche.
    • Claudine Herman nous explique la genèse de l’association Femmes & Sciences, notre tutélaire association qui encourage l’émergence d’un groupe « Femmes & Informatique » au sein de la Société Informatique de France.
    • Le point de vue de Sandrine Vaton, référente égalité à Télécom Bretagne, sur l’égalité Femmes-Hommes et « le numérique » est développé au travers d’une interview.
    • Christian Colmant, au nom de Pasc@line, évoque l’attractivité et la féminisation du secteur du numérique, apportant son expérience d’un industriel du métier.

    Nos « jeunes pousses », en point d’orgue de ce numéro, nous font pousser des ailes et donnent un souffle nouveau à nos propos :

    • Ankita Mitra, animatrice d’ateliers, et Shreay Sinha, « web world » girl, nous parlent de leur culture, à la fois indienne et internationale.
    • La « Girl who codes», lycéenne française que Pascale Vicat-Blanc interviewe, témoigne de son expérience aux US.
    • Noémy Artigouha, étudiante à l’INSA après un DUT Informatique, ironise sur sa survie dans un monde de garçons.
    • Marthe et Héloïse Olivier, « Girls who code made in Toulouse », tirent des conclusions de leur expérience des coding goûters toulousains, et posent d’intéressants jalons sur le futur de nos enseignements au collège et au lycée.

    Pour conclure, au-delà des illustrations inspirées à notre collègue humoriste Patrick Mignard, deux suggestions : plongez-vous dans la contemplation du si décoratif et documenté ouvrage de Rachel Ignotofsky sur 50 femmes en sciences, et scrutez régulièrement la revue de presse de la SIF sur Femmes&Informatique!

    Un riche numéro, volontairement très féminin, sur cette mystérieuse alchimie[3] des femmes dans les sciences, qui aborde de nombreux aspects de la question, toujours sans réponse, de l’attractivité / répulsivité des enseignements, des études et des carrières.

    Que cette lecture, féconde et inspiratrice, fasse les stéréotypes s’évanouir, les choses évoluer, les barrières se rompre, et les a priori fondre : vive les filles, vive les femmes, dans les Sciences, dans le numérique, en Informatique… et partout ailleurs !

    Florence Sèdes

    [1] https://www.irit.fr/Femmes-en-Sciences-Informatique

    http://www.cnrs.fr/midi-pyrenees/IMG/pdf/cartesf_s-finales_-_f._sedes_web.pdf

    [2] http://www.societe-informatique-de-france.fr/congres-2015/

    [3] https://fr.wikipedia.org/wiki/Marie_la_Juive