Catégorie : Informatique

  • Mon pote le robot

    Parlons de la découverte de la robotique à l’école primaire, quand la recherche se met au service de l’éducation. Didier Roy est un professeur de mathématiques du XXIe siècle. Il enseigne les sciences du numérique. Accueilli comme chercheur en optimisation et personnalisation des apprentissages au sein d’une équipe de recherche en robotique d’Inria Bordeaux Sud-Ouest, Flowers, son travail* fait de la robotique un outil d’éveil scientifique.

    Entrez avec nous dans la salle de classe.

    Nous sommes un mardi. Il est 15h45. Cet après-midi de printemps est radieux. Il doit être génial de jouer dehors. Pourtant, Lola, Safina et Oscar n’ont pas l’intention de sortir tout de suite de la salle de classe.

    Posé sur la table devant eux, un étrange objet** fait d’étranges choses. Il avance, tourne à gauche, à droite, recule, jette des éclairs de lumière verte, bleue ou rouge, émet des petits sons graves ou aigus, court ou longs.

    robot-thymio-2« C’est n’importe quoi », pense Oscar. Quarante secondes plus tard, il se demande s’il n’y a pas quelque chose à comprendre là-dedans. D’accord, mais quoi ? Au bout de 10 minutes, la petite équipe perce une première épaisseur de mystère : en appuyant sur les boutons on peut changer ce que fait le machin sur la table, on peut choisir son comportement.
    Quand il émet une couleur verte, il a aussi tendance à suivre un objet qui est devant lui, à être « amical ». « D’accord pour amical. On pourrait même dire collant ! » remarque Safina.

    Quand la couleur est rouge, impossible de l’approcher, il fuit sans arrêt. Ça doit être le mode « trouillard » dit Lola en rigolant.

    Pour le comportement bleu, c’est plus compliqué. On a beau avoir 8 ans, on ne sait pas tout.

    — Peut-être qu’il faut lui chanter quelque chose ? avance Safina.
    — Ou lui dire un mot spécial, ou lui tirer la langue ! répond Oscar en faisant des gestes. Comment on peut savoir ?
    — Ben, en réfléchissant et en essayant, à mon avis. Faisons une liste de ce qu’on pense, dit Lola.

    Les voilà d’accord. Une liste des catégories de choses à tester est commencée. La méthode prend forme, ils commencent à tester des mots, puis des gestes, mais le champ des possibilités est tellement vaste… Ils cherchent d’autres pistes, si possible offrant moins d’aléatoire. Il leur semble avoir (presque) tout essayé quand Safina se rappelle qu’on leur a aussi donné des trucs en même temps que le machin. Des cubes, des petites quilles et une feuille avec une espèce de circuit tracé en noir. Elle pose le robot sur le circuit. Et là, devant leurs yeux écarquillés, le machin se met à suivre la ligne noire en se balançant tout au long, comme un chien qui suit une piste le museau collé au sol. « Trop fort, le machin ! »

    Il faut maintenant franchir le deuxième cercle de mystère. Comment fonctionnent les comportements ? Par exemple, l’« amical ». Les enfants tombent d’accord en moins de deux minutes. Sur le devant du machin se trouvent comme de toutes petites fenêtres, qui détectent s’il y a un objet. S’il y en a un, il avance, s’il n’y a en a pas, il ne fait rien.

    Ça marche avec toutes les fenêtres ou pas ? Avec des objets différents ? Afin d’en savoir plus, on discute et s’accorde sur une série de tests à faire, un seul doigt devant une seule fenêtre, deux doigts devant deux fenêtres… À l’issue de l’expérience, c’est clair : n’importe quel nombre de n’importe quels objets devant n’importe quel nombre de n’importe quelles fenêtres fait avancer le robot !

    — Je le savais depuis le début, fanfaronne Oscar.
    — Peut-être bien que t’es trop fort mais là au moins on en est sûr que ça marche comme ça, lui rétorque Safina, légèrement agacée.

    Trois quarts d’heure plus tard, après avoir réalisé les autres activités données par l’animateur, Lola, Safina et Oscar rentrent chez eux avec des choses nouvelles à raconter à la maison. On leur a donné un machin dont ils ont essayé de comprendre le fonctionnement. Pour eux, c’est maintenant clair : dans le machin, il y a des capteurs qui permettent de détecter des choses, un petit ordinateur pour décider quoi en faire et des actionneurs pour faire ce qui a été décidé : rouler, tourner, faire de la lumière, faire du bruit.

    Ah ! Le machin ? il s’appelle un « robot ». Et son petit nom est Thymio 2.

    — Moi, quand je serai grande, je veux être roboticienne, c’est sûr ! lance Lola à ses parents, surpris de cet intérêt soudain pour les sciences.

    Vivement mardi prochain : on va apprendre à faire des programmes pour le robot !

    Quels sont les objectifs d’un tel enseignement de la robotique ?

    La robotique propose un micro-monde d’apprentissage, intégré, coopératif, motivant, ludique et riche. On y aborde naturellement une démarche scientifique en identifiant et définissant des problèmes, en formulant des hypothèses, en expérimentant, en analysant, en argumentant.

    La robotique s’inscrit dans le champ des sciences du numérique et de l’informatique, domaine essentiel pour des jeunes habiles avec les objets numériques qui leur sont familiers mais ayant également besoin de s’approprier des concepts qu’ils ne connaissent pas encore, afin de les dominer pour en tirer le meilleur.

    Contribuer à la promotion et à la démocratisation de ces sciences est par ailleurs fondamental, pour plus tard, quand ils devront vivre dans un monde où l’innovation prend une importance croissante dans l’activité économique, et dans le développement humain.

    On peut résumer ces objectifs dans cette table :

    Objectifs éducatifs
    Objectifs institutionnels
    • Développer des compétences en informatique et en robotique.
    • Amplifier le plaisir d’apprendre.
    • Apprendre à travailler en équipe autour de projets.
    • Apprendre une démarche scientifique.
    • Développer la créativité.
    • Promouvoir les filières de formation scientifique et technologique.
    • Enseigner les sciences du XXIe siècle liées au numérique.
    • Promouvoir l’égalité des chances notament en luttant contre le décrochage scolaire.

    L’évaluation de ces objectifs est un enjeu crucial, que nous ne développerons pas ici. Décrivons simplement les outils que nous utilisons, pour donner un aperçu de ce volet du travail qui prend aussi la forme d’un travail de recherche en didactique de l’informatique :

    Une évaluation des compétences des élèves
    • Un portfolio numérique par équipe avec compte-rendu de missions, petits reportages, textes, photos, vidéos, … Carnet de voyage.
    • Une présentation du portfolio devant les autres équipes.
    • Une observation par l’adulte accompagnateur.
    • Des QCM de connaissances.
    Une évaluation de l’enseignement
    • Des indicateurs :
      • Connaissances en informatique et en robotique.
      • Plaisir d’apprendre.
      • Qualité du travail en équipe.
      • Rigueur, méthode.
    • Des outils d’évaluation :
      • Questionnaire élèves en fin d’année.
      • Analyse des résultats aux tests de connaissance.
      • Analyse des observations durant les séances.
      • Analyse des portfolios et des présentations orales.

    Conclusion : un levier pour l’égalité des chances.

    L’initiation à la robotique contribue à la lutte contre l’échec scolaire. Elle suscite une pédagogie de projet, change le cadre d’enseignement en le rendant plus souple, moins stigmatisant, particulièrement pour les élèves en difficulté. Sa démarche de recherche active, son ouverture au débat, sont autant d’atouts pour faciliter l’expression d’élèves en rupture d’un cadre scolaire traditionnel et qui leur est mal adapté.

    La robotique n’est pas la seule à proposer un cadre facilitateur de progrès mais celui-ci y trouve là facilement sa place, par la nature même des activités proposées.

    Nous observons une appétence de la part des jeunes filles pour la robotique. Une porte d’entrée supplémentaire vers les sciences, particulièrement du numérique, domaine où on les voit peu à peu prendre leur place (46 % des participants au concours Castor Informatique et plus de la moitié des lycéen-ne-s inscrit-e-s en spécialité Informatique et Sciences du Numérique (ISN) de Terminale S sont des filles). Une tendance à conforter.

    À travers la robotique, il est légitime de travailler différentes disciplines, notamment le français et les maths, disciplines qui prennent tout leur sens pour exprimer ou comprendre. L’aspect tangible est également un atout pour amplifier ce sens. Et la composante ludique, facteur de plaisir d’apprendre, ne fait que renforcer une autre vision de l’apprentissage, moins rigide et davantage portée vers la valorisation des individus en situation de recherche.

    Cet enseignement de la robotique, et plus largement de l’informatique, est devenu indispensable dans une société où le numérique est à la fois si présent et si peu compris, où la technologie sépare les humains en deux catégories ; celles et ceux qui l’utilisent en en connaissant les bénéfices mais également les pièges, qui saisissent les fondements essentiels de la pensée informatique. Et les autres. La première catégorie doit croître aussi rapidement qu’il est possible, pour assurer un usage maîtrisé et sécurisé des technologies du numérique, si l’on veut veiller à ce que personne ne soit mis de côté et encore moins esclave d’un monde qu’il ne comprendrait plus.

    Didier Roy.

    (*) Le module est en cours de finalisation (disponible sous forme open source à la mi-juin). Rendez-vous sur le site dédié à la médiation de la robotique, « Dessine-moi un robot ».

    (**) Le thymio-2, créé par l’EPFL, est un formidable robot pour l’éducation (en savoir plus).

  • Tim Berners-Lee @ Futur en Seine

    Tim Berners-Lee, l’inventeur du web, interviendra à Futur en Seine le 13 juin à 16h pour partager les défis du Web pour les 25 prochaines années.

    Tim Berners-LeeTim Berners-Lee @Wikipedia

    Plus d’info

    La conférence sera suivie d’une table ronde animée par Jean-François Abramatic (Inria), avec la participation de Valérie Peugeot, (Orange Labs, Conseil National du Numérique, Vecam), Henri Verdier (Etalab) et Fabien Gandon (Inria, W3C).

    Binaire reviendra bientôt plus en détail sur cette personnalité essentielle pour l’informatique.

  • L’ordinateur en série

    hacf-header-KeyArt-980Une série télé qui parle d’ordinateur ! Il n’en fallait pas plus pour titiller notre curiosité. Le 1er juin dernier, la chaîne câblée américaine AMC, connue pour avoir diffusé des séries cultes comme Mad Men et Breaking Bad, a diffusé le premier épisode de Halt and Catch Fire intitulé I/O (Input/output). Cette série, diffusée en France sur Canal+ à partir du 3 juin, raconte l’aventure de trois personnages engagés dans les débuts de la micro-informatique. L’occasion de partager nos impressions sur cette série et d’en profiter pour évoquer ces fameuses années 80 où l’informatique personnelle s’est répandue.

    Une série d’informaticiens ?

    Halt and Catch Fire se déroule dans les années 80 à Dallas (Texas) et débute juste après la sortie des premiers ordinateurs personnels d’IBM (le fameux Personal Computer, c’est-à-dire le PC). Très rapidement l’histoire s’installe autour de trois personnages : l’ex-cadre d’IBM, ambitieux et brillant commercial qui fait frémir ses responsables par son audace, l’ingénieur en informatique, talentueux mais effacé suite à la frustration de n’avoir pas réussi à percer avec la machine qu’il avait créée et, pour finir, l’étudiante prodige en informatique, belle et émancipée, un brin rebelle avec les conventions. Dans une période où des pionniers de la micro-informatique s’appellent Apple, Commodore ou Sinclair, le premier épisode se déroule au moment de l’arrivée sur le marché du PC d’IBM dont nous connaissons tous aujourd’hui le succès. Le PC est devenu, tout comme le téléphone, l’objet banalisé dont nous sommes pour la plupart équipés.

    Les informaticiens qui ont connu cette période replongeront non sans une certaine nostalgie dans leurs propres souvenirs et reconnaîtront peut-être certains personnages. Pour les autres, ils découvriront comment l’informatique personnelle s’est imposée, quels enjeux stratégiques et financiers se posaient à l’époque pour les acteurs du marché face au géant IBM.

    La série reste avant tout une fiction même si elle s’inscrit dans une réalité historique. Les amateurs de série retrouveront avec plaisir quelques bribes esthétiques de la série Breaking Bad : jeux de lumière et personnalités atypiques. Sans présager du succès de cette série, on apprécie le potentiel narratif des personnages qui prime sur la toile de fond relative à l’histoire de l’informatique.

    Mythes…

    Pour les informaticien(ne)s le nom de la série « Halt and Catch Fire » résonne comme un clin d’œil. Cette instruction du microprocesseur est censée stopper le fonctionnement de la machine et la faire chauffer jusqu’à ce qu’elle prenne feu. Cette commande n’a eu qu’une existence fictive sur certains processeurs ou dans l’imagination de certains informaticiens.

    3597093080001-120x90Dans le premier épisode, les deux héros masculins s’enferment tout un week-end dans un garage. Nuit et jour, ils s’acharnent à accéder par rétro-ingénierie au code BIOS (Basic Input/Output System) des machines d’IBM. Pour simplifier, il s’agit de copier le code de base qui gère le démarrage du PC. L’allusion au garage de Steve Jobs et Steve Wozniak fait sourire mais elle fonctionne bien tant le garage est devenu un cliché.

    Au-delà de ces références à l’univers informatique, on s’attache aux personnages, à leur psychologie et à leurs motivations. Le ressort dramatique est porté par leur envie de combattre l’hégémonie et la puissance d’IBM grâce à leur ingéniosité et à leur culot.

    … et réalités

    À la fin des années 70 et au début des années 80, la micro-informatique existe mais elle n’est pas encore devenue familiale. Son balbutiement est néanmoins foisonnant, de nombreux acteurs cherchent à concevoir la machine qui va toucher le public le plus large : Xerox, IBM, Commodore, Sinclair, Apple, Amstrad, Atari, Thomson et d’autres vont tous un moment ou un autre participer à cette aventure. Au final, ce sera le PC d’IBM et surtout les machines bâties sur ce modèle de base (les fameux compatibles PC construits par de nombreux industriels) qui envahiront le marché de l’informatique personnelle devenue aujourd’hui familiale.

    Témoignage

    Du côté de la recherche, il y a aussi profusion de projets pour mettre au point des machines dédiées à un usage personnel. Le récit de Naja Naffah dans Code Source (publication parue à l’occasion des 40 ans d’Inria) décrit une machine créée en 1980 et appelée « buroviseur ». Son témoignage illustre comment la recherche de l’époque participait elle aussi à l’émergence de la micro-informatique et à quel point la bataille était rude et incertaine.

    « Tout le monde défilait à Rocquencourt pour voir le buroviseur »
    Najah Naffah ancien responsable du projet Kayak

    BuroviseurLe bureauviseur – copyright Inria

    « Aujourd’hui, quoi de plus commun qu’un PC multimédia ? C’est en quelque sorte ce que nous avons inventé au début des années 1980 avec notre « buroviseur», dans le cadre du projet pilote Kayak. L’histoire remonte à 1978, quand nous avons réfléchi avec Louis Pouzin – l’homme du réseau Cyclades – à ce que serait un terminal de bureautique moderne adapté aux besoins d’une secrétaire ou d’un cadre. Rien de ce genre n’existait en France mais nous sommes allés voir les développements en cours aux États-Unis et puiser des idées au MIT, au Stanford research institute et au laboratoire de Xerox. Nous avons d’emblée été inspirés par l’ordinateur personnel interactif Alto, développé par Xerox sous la direction d’Alan Kay et dédié à la programmation. En rentrant, j’ai lancé Kayak qui a rapidement mobilisé une quarantaine de chercheurs (dont une dizaine sur postes IRIA (maintenant Inria NDLR). Nous avons conçu le buroviseur en six mois, avec un processeur Intel de 8 bits et des mémoires et cartes banalisées. Nous y avons ajouté le traitement de la voix et des applications bureautiques interactives. (…) Le buroviseur disposait d’un écran à plusieurs fenêtres, d’une souris à trois touches fonctions, d’une interface homme-machine très évoluée, de la reconnaissance et synthèse vocale, d’une connexion en réseau local, d’un traitement de texte, d’un écran graphique et d’un éditeur comparable à l’actuel Powerpoint (mais avec 15 ans d’avance). Universitaires, étudiants et délégations étrangères défilaient à Rocquencourt pour le voir et le tester. Malheureusement les tentatives d’industrialisation n’ont pas abouti : le marché n’était pas prêt à adopter une solution aussi évoluée ! (…) Seuls quelques buroviseurs ont été distribués aux universités, et des grands comptes comme le ministère des finances s’en sont inspirés pour bâtir leurs modèles de bureautique. Dommage tout de même que l’on n’ait pas plus breveté ! » ■ I.B. Code Source Inria

    Une époque passionnante

    Comme en témoigne ces propos, nombreux sont ceux qui ont voulu créer la machine qui démocratiserait l’informatique mais c’est finalement le modèle du PC qui l’a emporté (modèle aujourd’hui bousculé par les tablettes et smartphones).

    De nos jours, certains diront qu’ils ont créé un PC avant l’heure mais que leur projet n’est jamais sorti du « garage ». Ils avoueront ou non avoir une pointe de regret ou d’amertume par rapport à leurs ambitions avortées. D’autres, plus nombreux peut-être, préféreront se souvenir de la dynamique créative de l’époque avec fierté quand ils ont le sentiment d’avoir contribué d’une manière ou d’une autre à cette révolution.
    Une chose est sûre, ceux qui ont connu l’informatique à cette époque ne pourront pas être indifférents à cette série. Ceux qui ne l’ont pas connue ou qui ne s’intéressent pas à l’informatique devraient aussi y trouver leur compte.

  • Beau comme un algorithme

    Pour célébrer la publication des ebooks « The Art of Computer Programming (TAOCP) » (L’Art de la programmation informatique), informit a demandé à plusieurs personnes de poser chacune une question à l’auteur Donald E. Knuth. Don est une légende vivante de l’informatique. Binaire publie la traduction d’une question, et de sa réponse. Nous vous encourageons à aller lire les autres.

    Dennis Shasha : Comment se compare un bel algorithme à un beau théorème ? En d’autres termes, quels seraient vos critères de beauté pour chacun des cas ?

    Don Knuth : La beauté a de nombreuses facettes, bien sûr, et reste dans l’œil du croyant. Je trouve certains théorèmes et algorithmes beaux parce qu’ils ont de nombreuses applications différentes ; d’autres me plaisent parce qu’ils réussissent des trucs si puissants avec des ressources extrêmement limitées ; d’autres parce qu’ils impliquent des motifs esthétiques ; d’autres enfin parce qu’ils ont une pureté de concept véritablement poétique.

    Par exemple, je peux parler de l’algorithme de Tarjan  pour les composantes fortement connexes. Les structures de données que Tarjan a conçues pour résoudre ce problème se combinent d’une manière étonnamment belle, de sorte que les quantités que vous avez besoin de considérer dans l’exploration d’un graphe orienté sont comme par magie à votre portée. Et, en passant, son algorithme réalise aussi le tri topologique.

    On arrive aussi parfois à prouver un beau théorème en présentant un bel algorithme. Regardez, par exemple, le Théorème 5.1.4D ou le Corollaire 7H dans mon livre, TAOCP.

    Et, pour conclure, une citation de Don :

    « Science is what we understand well enough to explain to a computer.
    Art is everything else we do. »

    La science est ce que nous comprenons assez bien pour l’expliquer à un ordinateur.
    L’art, c’est tout ce que nous faisons d’autre.

  • Le goût de l’archive … du Web

    Les pages et les sites du Web vont et viennent donnant à l’éphémérité des dimensions encore récemment inconnues. Mais comment les chercheurs dans cinquante ans, dans cent ans, pourront-ils comprendre notre monde où le Web tient une place aussi centrale ? Pour les aider dans leur futur travail, on s’efforce d’archiver le Web. C’était au cœur des discussions de l’AG de l’IIPC à la BnF. Heureusement pour vous, Binaire avait deux reportrices sur place. Elles nous font partager la passion des professionnels des archives du Web, des chercheurs qui en ont fait leurs objets d’étude, de Julien Masanes, le directeur de l’Internet Memory Foundation, et de ses amis.  Serge Abiteboul

     

    memoire-web-binaire-rayclid@Ray Clid
    [Un éléphant qui se balançait
    Sur une toile toile toile d’araignée.
    C’était un jeu tellement tellement amusant que,
    Tout à coup : Badaboum!]

    Lundi 19 mai 2014 s’est ouverte à la Bibliothèque Nationale de France l’assemblée générale annuelle de l’International Internet Preservation Consortium, créé en 2003, qui réunit aujourd’hui 49 institutions travaillant ensemble à la préservation du Web mondial. La BnF, l’INA et l’Internet Memory Foundation ont uni leurs efforts pour faire de la première journée, ouverte au public, un moment d’échange entre les acteurs de la conservation du Web et les chercheurs qui utilisent ses archives.

    Dessine-moi une archive du Web !

    Archives_nationalesArchives nationales (Paris).
    Grands dépôts, l’Armoire de fer ouverte
    @Archives Nationales

    Le Web est archivé depuis 1996, grâce à l’initiative de Brewster Kahle de créer Internet Archive et la Wayback Machine. Une entreprise titanesque comme l’expliquait son fondateur à Xavier Delaporte (Place de la Toile) en juin 2011:

    L’Internet Archive est une bibliothèque numérique à but non lucratif. Elle est située aux États-Unis et sa visée, à la fois sociale et technologique, est de permettre un accès universel à l’ensemble de la connaissance : tous les livres, toute la musique, toutes les vidéos, accessibles partout, par tous. Notre but est de collecter le travail de l’humanité et de le rendre accessible à ceux qui voudraient l’utiliser pour s’instruire. Notre base, c’est ce qui a été publié, c’est-à-dire les choses qui ont été pensées pour être publiques : un livre, une page web ou un billet de blog ; même les tweets… Brewster Kahle, Internet Archive : “Le meilleur du web est déjà perdu”, internet Actu

    wayback

    L’archivage du Web a pris place au rang des initiatives institutionnelles nationales, à l’instar de celui opéré en France par la Bibliothèque nationale de France et l’Institut national de l’audiovisuel. Depuis le 1er août 2006, la BnF a pour mission de collecter, conserver et communiquer les sites Internet du « domaine français » au titre du dépôt légal. Quant à l’INA, il collecte les sites de médias audiovisuels, des sites qui enrichissent ou documentent les contenus de ces médias, comme les sites officiels de programmes mais aussi les blogs ou sites de fans essentiellement consacrés aux programmes de la radio ou de la télévision, et des sites des services de médias audiovisuels à la demande.
    Si les archives conservées par la BnF et l’INA sont consultables en salle, celles d’Internet Archive, en ligne, donnent un aperçu de leur étendue. En entrant l’URL d’un site dans la Wayback Machine, vous pouvez remonter dans le temps… Ces archives ont une valeur inestimable pour les chercheurs : elles ouvrent la possibilité de retrouver un événement et son traitement sur la Toile, que ce soit le 11 septembre ou les élections présidentielles, de recomposer l’histoire du Web et de l’Internet, de retrouver des archives presse en ligne, etc., mais aussi des traces d’expressions individuelles et collectives de multiple nature et sur une diversité de sujets. Reste pour les chercheurs à s’emparer de ces sources aux possibilités infinies, mais qui soulèvent aussi des questions méthodologiques inédites : ces archives abondantes posent la question de la constitution de corpus, des outils de fouille, des métadonnées ou encore de la gestion d’un véritable déluge informationnel, alors que le nombre de pages archivées se compte en milliards. Elles comportent aussi des lacunes (collecte et préservation plus ou moins profonde et/ou ponctuelle des sites, droit de reproduction et accessibilité, etc.)

    « Partager des besoins, des rêves, des visions, des expériences, des données, des outils »

    Telles étaient les ambitions annoncées à l’ouverture de l’Assemblée Générale de l’IIPC. Et le pari était réussi au terme d’une journée où s’est succédée une vingtaine d’intervenants.
    L’initiative de l’IIPC d’associer les chercheurs à cette rencontre entre professionnels de l’archivage est assez remarquable pour être soulignée. Ceux qui se sont unis pour préserver la mémoire du Web travaillent depuis plusieurs années en interaction avec le monde de la recherche, comme en témoignent par exemple l’existence depuis 5 ans des Ateliers du DL Web organisés à l’INA par Claude Mussou (INA) et Louise Merzeau (Université Paris Ouest Nanterre La Défense) qui mêlent professionnels des archives et chercheurs.

    Le second point notable est l’extraordinaire diversité des disciplines concernées et des voies de recherche : mémoires de la Grande Guerre analysées par Valérie Beaudoin (Télécom ParisTech) et Philippe Chevalier (BnF) en lien avec la BDIC, chansons francophones étudiées par Dominic Forest (Université de Montréal), élections présidentielles françaises décryptées sur la Toile par Jean-Marc Francony et une équipe de l’université de Grenoble, histoire du Web danois par Niels Brügger de l’université d’Aarhus, etc.

    Le troisième constat est celui de l’extrême richesse des enjeux méthodologiques et de recherche que posent les archives du Web : des keynotes de Dame Wendy Hall (University of Southampton) et Wolfgang Nejdl (Université d’Hanovre) mettant en avant les enjeux d’ouverture, d’interopérabilité, d’accessibilité, de droit à la mémoire comme à l’oubli, à la conclusion de Niels Brügger, instigateur du projet RESAW (a Research Infrastructure for the Study of Archived Web Materials), qui vise à développer un réseau de la recherche et une infrastructure européenne pour l’étude du Web archivé, tous les intervenants de cette première journée ont contribué à souligner le potentiel mais aussi les défis que posent ces Big Data du passé en termes :

    • de politiques de conservation,
    • d’ouverture (voir l’initative Common Crawl et son usage par des chercheurs sur Webdatacommons.org),
    • d’outils (ceux créés par l’Internet Memory Research comme mignify ou Proprioception développé à l’INA, programme WebArt à l’université d’Amsterdam),
    • de corpus et d’indexation à grande échelle (corpus de 10 milliards de mots étudiés au National Institute for Japanese Language and Linguistics),
    • de stabilité et pérennité (le projet Hiberlink du Los Alamos National Laboratory, en lutte contre la dérive des liens et leur abandon),
    • de cartographie du Web (à la British Library derrière Helen Hockx-Hu),
    • de conservation institutionnelle, etc.

    La table ronde animée par Clément Oury (BnF) a montré que les enjeux sont variés et loin d’être stabilisés, alors que l’archivage du Web lui-même n’a cessé de connaître des mutations depuis son origine. Louise Merzeau a ainsi distingué trois temps de cet archivage : celui du modèle documentaire et des pratiques amateurs et pionnières, qui vise l’universalité de l’archivage tout en reposant sur des formes anciennes, à commencer par celle de la bibliothèque (les années 1990, avec le grand projet fondateur Internet Archive), le temps de l’archive comme mémoire, qui retrouve le modèle de la copie savante ou de l’exemplar tout en procédant par bricolage, faute de mieux (le début des années 2000, où l’on cherche à conserver, voire à figer la navigation en sauvegardant page par page les éléments de son corpus), et enfin le temps de l’archive temporelle qui intègre pleinement l’instabilité du Web (de la fin des années 2000 à aujourd’hui, où se développe un archivage dynamique à l’image du Web lui-même).

    Comprendre ce qui se passe au niveau des machines et des institutions d’archivage est un enjeu important pour les chercheurs : c’est comprendre les conditions de l’expérience scientifique, en refusant la logique de boîte noire. Ainsi, les accès à des données peu visibles, comme les logs informatiques pendant une récolte, peuvent être cruciaux, comme l’avancent Jean-Marc Francony et Anat Ben-David.

    Si la somme de pages et de données est telle que la mission d’un archivage universel est d’emblée vouée à l’échec, des initiatives comme celle présentée par Anthony Cocciolo de la « Archive Team » rappellent aussi que des groupes de passionnés, nourris de culture hacker sauvent en les sauvegardant les sites en danger, en particulier les grands réseaux sociaux désaffectés à la suite d’un changement de mode dans les usages du Web : Geocities, MobileMe, sont des exemples d’environnement populaires et peuplés du Web qui ont du jour au lendemain disparu ou vu leur accès verrouillé, privant leurs utilisateurs des données qu’ils avaient produites en leur sein. L’expérience de frustration du chercheur face à l’absence ou la perte des données est ainsi proche de celle des utilisateurs investis affectivement dans l’usage de leurs applications en ligne préférées. No-more-404 ?  Certainement pas, mais les archives du Web soulèvent des enjeux de mémoire et de recherche passionnants, autant pour ce qu’elles conservent que pour leurs lacunes, de nature à stimuler l’imagination et l’ingéniosité des ingénieurs, des professionnels de l’archivage comme des chercheurs.

    Valérie Schafer (ISCC, CNRS) & Camille Paloque-Bergès (HT2S, CNAM)

    PS: Un coup d’œil au passé avec le site Web de lemonde.fr, 19 octobre 1996 sur la Wayback machine (web.archive.org)

    LeMonde0ct96

     

  • Journées pédagogiques : Informatique et MOOC

    https://www.flickr.com/photos/92641139@N03/
    https://www.flickr.com/photos/92641139@N03/

    Les 23 et 24 juin prochain, la SIF (Société informatique de France), le CNAM, le CNRS, Inria, l’Institut Mines-Télécom, et le Groupe thématique Logiciel Libre de Systematic Paris-Region organisent les journées pédagogiques sur l’Informatique et les MOOC. 

    Ces journées permettront dans un premier temps de découvrir les MOOC, Massive Open Online Courses, ces cours en ligne interactifs, gratuits, et ouverts à tous. Au delà de cet état de l’art, ces journées proposeront de réfléchir aux relations particulières entre l’informatique en tant que discipline et les MOOC.

    Des intervenants de différents horizons (académiques, associatifs, enseignants) aborderont des sujets liés au métier d’enseignant et/ou chercheur :

    • les MOOC qui enseignent l’informatique,
    • les MOOC dans/pour la formation des enseignants de l’informatique,
    • le renouveau de l’enseignement (de l’informatique) avec les MOOC,
    • ressources libres et ouvertes pour les MOOC
    • technologies et recherche en informatique autour des MOOC.

    En avril dernier, Jean-Marie Gilliot publiait sur binaire un article intitulé « Moi je mooc, et vous ? » qui nous permettait de faire un tour d’horizon de ces fameux Cours en Ligne Ouverts et Massifs (CLOM étant la traduction française de Massive Open Online Course). Jean-Marie Gilliot concluait son article par ces mots :

    « L’homme est un animal social. L’appétence pour les échanges entre pairs montrent bien que l’on apprend en enseignant. Et pour rester pertinent en tant qu’enseignant, on n’arrête jamais d’apprendre, donc de contribuer. »

    Nous vous invitons donc à relire l’intégralité de son article et à vous inscrire rapidement à ces journées pédagogiques afin de partager avec lui et d’autres sur les enjeux liés à l’informatique et au MOOC.

    Site des journées pédagogiques : Informatique et MOOC
    Inscription obligatoire avant le 14 juin : formulaire en ligne
    Et n’hésitez pas à soutenir la SIF en y adhérant

    Marie-Agnès Enard

     

  • À chacun sa logique !

    LogiqueEtInformatiqueLa logique tient une place importante en informatique. Est-ce la même logique que celle dont parlent les mathématiciens ? À quoi la logique sert-elle en informatique ? Guillaume Cano, un jeune docteur en informatique, nous parle de ces sujets. Je vous encourage à lire son texte passionnant « Une petite histoire pas très sérieuse de deux très sérieuses logiques« , paru dans Images des Maths du CNRS.  Un jeune philosophe, Baptiste Mélès, reviendra bientôt dans nos colonnes sur ces liens étroits entre logique et informatique.

    Thierry Viéville

  • Analepse et prolepse pour une science du numérique à l’École

    L’informatique doit-elle rester un simple outil à l’École? Faut-il ou pas apprendre à « coder » et « programmer » à l’École ?  Ces questions qui divisent, Binaire les a posées à Michèle Drechsler. Nous imaginons avec elle ce que l’informatique et la programmation pourraient apporter à l’École. Un exemple : l’expérience de la programmation permet de montrer aux élèves que les erreurs peuvent être riches d’enseignement.

    Étant donné la densité des programmes en vigueur, l’intégration de l’enseignement de l’informatique à l’École pourrait-elle se faire au détriment de priorités actuelles ? Quel serait son impact sur l’égalité des chances et la réussite de tous élèves ? A ce propos, il est intéressant de procéder à une analepse pour poser le focus sur cet enseignement à l’école, il y a presque 20 ans, et d’imaginer une prolepse pour réfléchir à l’intégration d’un tel enseignement à l’école maintenant.

    Analepse pour l’informatique

    Si la question se pose actuellement et déclenche de nombreux débats à l’ère du B2I (brevet Internet et informatique), il faut se rappeler que l’informatique était  introduit dans les programmes scolaires  comme nous le montre ce tableau récapitulatif des programmes avant 2008.

    MicheleDreshlerProgramme
    Synthèse proposée au colloque Eprep 2008.

    Actuellement, les élèves du primaire et du collège doivent acquérir des compétences et des connaissances dans de nombreux domaines avec l’arrivée du socle commun de connaissances, de compétences et de culture. Depuis 1996, nous pouvons noter qu’aucune réforme des programmes n’a modifié en profondeur cette répartition des responsabilités entre « objet d’enseignement » et « outil » d’enseignement dans le domaine de l’informatique.

    Un curriculum pour développer  une culture numérique  ?

    Apprendre à l’heure du numérique, c’est acquérir à la fois la culture numérique et la maîtrise  des outils numériques. «Ce sont les deux facettes indissociables d’une évolution qui affecte l’ensemble de la société, mais semble peiner paradoxalement à toucher l’école», comme le précise le rapport Fourgous de 2012. La question fondamentale que nous devons nous poser est de savoir si, de nos jours,  les élèves ont besoin de développer des compétences dans le domaine des sciences du numérique. Le programme de physique-chimie des collégiens actuel ne fait pas référence à une science du numérique en tant que telle même s’il s’appuie sur des sciences dites «  d’observation, d’expérimentation et technologies ». Au cycle central, dans le programme de technologie,  les activités proposées doivent faciliter notamment l’appropriation du troisième domaine du B2i : « créer, produire, traiter, exploiter des données » à travers la programmation et la modélisation,  mais les notions  relatives aux sciences du numérique ne sont pas approchées d’une façon  spécifique  et progressive tout au long de la scolarité du collège et de l’école primaire (voir par exemple le programme du collège). Les programmes du collège prévoient des notions à construire autour de l’électricité, l’astronomie, avec « les mouvements de la Terre, de la Lune, des planètes qui donnent une première structuration de l’espace et du temps, introduisent l’idée qu’un modèle peut fournir une certaine représentation de la réalité ». Pourquoi ne pourrait-on pas prévoir aussi des modèles équivalents, une construction progressive des connaissances relatives au monde du numérique qui, de nos jours est omniprésent dans notre vie quotidienne, chez soi ou dans le monde du travail ?  Il est important de pouvoir donner des « clés » pour mieux appréhender le monde du numérique et  comme je le précisais déjà dans un article du Monde de l’éducation de mars 2008 et en attendant la mise en place des « nouveaux programmes » 2008 de l’époque :  « Il est nécessaire d’avoir un lieu de réflexion, d’abstraction, par rapport à une pratique quotidienne. Il ne doit pas se réduire à un cours dénué de sens. Il doit y avoir un va-et-vient entre les usages dans chaque discipline et cet enseignement plus général car usages et études de l’objet sont indissociables si on veut agir et comprendre les phénomènes, ou les fonctionnements comme pour la maîtrise de la langue.»

    Tout l’art de la pédagogie est de construire des notions et des concepts avec progression «en perçant les boîtes noires» à bon escient et en proposant des situations appropriées.  Il nous faudrait définir une «grammaire» de l’informatique permettant la construction progressive des concepts qui sont associés comme nous le faisons bien pour la grammaire, les notions de respiration, d’énergie … .  Un  curriculum  pourrait prévoir des situations, des  projets numériques permettant aux élèves de développer des formes d’activité dans le domaine des sciences du numérique et de construire progressivement les notions et compétences à maîtriser. À ce propos, beaucoup de pays s’y intéressent en Europe. Un groupe de travail Informatics-Europe et ACM-Europe a rédigé un rapport commun sur l’enseignement de l’informatique dans le primaire et le secondaire : « Informatics education: Europe cannot afford to miss the boat, avril 2013. » (Parmi les membres du groupe de travail : Gérard Berry du Collège de France,  Antoine Petit d’Inria et Michèle Drechsler). Ce rapport, basé sur une analyse de la situation actuelle et des expériences dans de nombreux pays, identifie les problèmes et propose des recommandations opérationnelles (schéma directeur) pour les décideurs politiques. Il établit une distinction entre la «culture numérique» (digital literacy) et la science informatique (computer science). Tous les citoyens devant être formés aux deux. Ce rapport nous donne des  recommandations et nous rappelle que «littératie numérique» et science informatique sont indispensables comme composantes d’une éducation du 21ème siècle, avec le développement d’une culture du numérique dès l’école primaire. L’incapacité à le reconnaître peut nuire gravement à l’avenir de l’Europe qui doit former non pas que de simples « consommateurs » de technologie.

    Programmation à l’école

    La programmation a des effets bénéfiques sur les  apprentissages comme nous le montrent les travaux menés en robotique dans une classe de CE2-CM1-CM2 en 1989. De ce fait, elle a toute sa place à l’école. À travers ce projet, nous approchons le concept d’information et de fonction à partir de situations de «robotique». Les élèves découvrent que l’ordinateur ne peut rien faire si on ne lui donne pas tous les «ordres» à partir d’un langage. À travers ces projets de robotique, nous arrivons à un premier niveau de formulation du concept d’information qui, exprimé par les élèves, est assez proche de la définition simple qu’en donne J. De Rosnay :  «l’information est le contenu d’un message qui déclenche une action». Dans le cadre de projets de robotique avec une interface Légo au CE2-CM1-CM2 (voir «Analepse et prolepse pour une informatique retrouvée ?» pour les détails), nous avons des outils pédagogiques motivants entre les mains des élèves.

    MicheleDreshlerRobotique
    Activités de programmation pour commander des feux. (Projet C.A.F.I.P.E.M.F. Drechsler), 1989
    MicheleDreshlerFeux
    Activités de programmation pour commander des feux. (Projet C.A.F.I.P.E.M.F. Drechsler), 1989

    Les élèves de CE2-CM1-CM2 ont pu également visiter une ferme robotisée près de l’école et comprendre le dispositif «des vaches branchées» à un ordinateur. Ils ont réalisé un reportage (voir la vidéo : « vaches branchées à un ordinateur ») en situation. Quelques représentations des élèves sont disponibles en ligne.

    Une réhabilitation de l’erreur au centre du processus d’apprentissage

    Les activités de programmation invitent les élèves à réfléchir sur leurs erreurs, face à une situation donnée en fonction du problème posé. C’est la machine qui donne un retour à  l’élève lui permettant d’analyser les traces de ses erreurs et comme nous le montre le constructivisme, l’erreur n’est plus considérée comme une simple déficience de l’élève comme dans le modèle transmissif. Elle est placée au cœur du processus d’apprentissage. Giordan nous rappelle que l’enseignant doit d’abord faire émerger les conceptions des élèves pour ensuite, lorsque certaines de celles-ci s’avèrent inexactes, convaincre les élèves qu’ils se trompent ou que leurs conceptions sont limitées. Apprendre consiste donc d’abord à «s’apercevoir que ses savoirs sont peu ou pas adéquats pour traiter une situation et ensuite à dépasser ses conceptions initiales pour progresser vers des connaissances plus pertinentes». Les activités de programmation rentrent bien dans cette définition qui situe clairement l’apprentissage dans une perspective cognitiviste en soulignant le rôle des conceptions antérieures et plus particulièrement des conceptions erronées. La prise en compte des erreurs en  est une des clés.

    L’ordinateur : des objets pour penser avec, des instruments pour réfléchir

    Margarida Romeo dans son article « métacognition et environnement informatique d’apprentissage humain » nous montre que dans un environnement où l’apprenant se retrouve seul face à la machine, par exemple à l’ordinateur, le besoin «métacognitif» devient d’une grande importance. En fait, les élèves peuvent réfléchir sur leurs procédures de pensée, revenir sur les traces de leurs programmes et comprendre leurs erreurs. Papert impressionné par la façon de Piaget de «considérer les enfants comme des constructeurs actifs de leurs propres structures intellectuelles» avait déjà développé cette  vision dans son livre, «Le jaillissement de l’esprit» :

    «Ma vision est celle d’une culture informatique particulière, une culture mathématique , autrement dit, une culture qui n’aide pas seulement à apprendre, mais à apprendre pour l’apprentissage. Il  nous a montré que le travail sur l’ordinateur peut faciliter l’accès à la notion de « mode de pensées », ce qu’il appelle le « style of thinking ». L’informatique permet donc de construire des univers dans lesquels un enfant peut par un comportement actif et constructif acquérir des méthodes d’analyse et de résolution de problèmes» et comme il nous le précise : «Penser sur sa pensée c’est devenir épistémologue, c’est entrer dans une étude critique de sa propre réflexion. Une expérience que bien des adultes ne vivent jamais !»

    Pour  Loarer, «Il est important que l’école développe une éducation cognitive qui peut être définie comme la recherche explicite, dans la mise en œuvre d’une démarche de formation, de l’amélioration du fonctionnement intellectuel des personnes».  Les outils cognitifs via l’ordinateur et les activités de programmation sont des instruments qui peuvent médiatiser des apprentissages métacognitifs pour lesquelles les erreurs sont au centre.  Proposer des activités de programmation aux élèves,  c’est aussi leur donner la  liberté d’explorer les coulisses derrière l’interface des systèmes de jeu.  C’est l’occasion de découvrir et comprendre la source du jeu, de montrer que l’on peut créer ce que l’on veut au-delà de l’interface, en programmant. Les ordinateurs peuvent être considérés comme de véritables machines à apprendre, de «véritables machines à représenter, à nous représenter nous-mêmes». Ils deviennent l’outil cognitif par excellence. Ils  agissent comme un amplificateur pour l’exploration de l’esprit humain dans tous les dédales de ses erreurs. Ils sont une des clés pour mettre en une véritable éducation cognitive à l’école.

    Des langages ou des logiciels dès l’École primaire.

    Si Logo a été très utilisé depuis les années 80, le logiciel Scratch est un  environnement de programmation visuel et multimédia  destiné à la réalisation et à la diffusion de séquences animées sonorisées ou non. Il s’agit d’un logiciel de programmation grâce auquel les élèves peuvent animer des objets qu’ils auront préalablement choisis, ou eux-mêmes dessinés. L’intégration de Scratch peut se faire rapidement au premier cycle du primaire permettant ainsi aux élèves de développer rapidement l’apprentissage de la programmation. L’élève peut ainsi suivre des procédures simples comme mettre en place un décor, prévoir des personnages, concevoir des «sprites » (lutins animés), utiliser les briques ou « kits »  de commandes toutes prêtes pour programmer. Le principe est donc comme un légo, de briques que l’on monte et que l’on  démonte, selon son projet à réaliser.

    L’élève peut trouver la  liberté de faire des erreurs autant qu’il veut pour mener son projet à bien. Comme le précise une enseignante québecoise, Martine Trudel : «Terrain de jeu illimité afin d’amener nos élèves à problématiser, à raisonner à l’aide du langage mathématique et à mettre en œuvre leur pensée créatrice, Scratch captive les élèves… Plus ils progressent, plus ils sont motivés à relever des défis plus élevés. C’est merveilleux de voir tous les élèves persévérer malgré les difficultés rencontrées…»

    Conclusion

    À l’heure de la société de la connaissances où il est important que chaque citoyen ne soit pas un simple consommateur de technologie, nous avons des défis à relever autour des sciences du numérique et de l’informatique qui devraient avoir la même place que les sciences de la vie et de la Terre dans la formation d’un individu. Qu’en sera-t-il des nouveaux programmes pour la construction des notions pour une culture du numérique autour d’une sciences du numérique  ? Dépasseront-ils les simples compétences du B2I d’utilisation de l’informatique ? Sauront-ils intégrer des notions ou des connaissances à construire progressivement, en s’appuyant sur une « grammaire informatique » en interaction avec l’environnement, pour développer chez les élèves, des aptitudes à décrypter les enjeux des applications informatiques dans la société et utiliser le numérique d’une façon raisonnée ?  L’école saura-t-elle intégrer des logiciels comme Scratch, des logiciels pour apprendre à programmer, créer des objets numériques et qui facilitent le développement d’objectifs métacognitifs, un tiercé gagnant pour «apprendre à apprendre», une clé pour la réussite scolaire ?

    Michèle Drechsler

    Pour en savoir plus

    sur l’auteure

    Dessus, P, Erreur et apprentissage, 2006

    Papert, S. Jaillissement de l’esprit, (Ordinateurs et apprentissage), Flammarion 1981

    Giordan, A. Apprendre ! Paris: Belin (1998)

    Linard, M. — Des machines et des hommes : apprendre avec les nouvelles technologies, Jacquinot Geneviève   Revue française de pédagogie     Année   1992   Volume   99   Numéro   99   pp. 131-133

    Loarer, E. (1998). L’éducation cognitive : modèle et méthodes pour apprendre à penser. Revue Française de Pédagogie, 122, 121-161.

    Dreschler, M. 2008 : Analepse et prolepse pour une informatique retrouvée ? Intervention au colloque ePrep

     

  • Les mots pour le dire : D comme décoder.

    A ? comme Algorithme !

    B ? comme … ah ben comme Binaire, pardi.

    C ? comme … Codage

    et D ?

    D ? … comme Décoder le Codage.

     «Décoder le Codage ?» Cela veut dire très simplement comprendre comment marchent ces machines (ces robots/ordinateurs/tablettes/…) que l’on dit programmables.

    Gérard Berry nous l’explique brièvement de manière lumineuse en reprenant la belle métaphore de Maurice Nivat sur Outils, machines et informatique. Et si nous prenions un peu plus de temps pour comprendre et …

    … allons dans une cuisine. Faire un quatre-quart à l’orange. Oui c’est facile : on prend de la farine, des œufs, du beurre et du sucre, à parts égales, on ajoute le parfum d’orange et on met au four une demi-heure. Bien. Même un informaticien saura faire ça.

    Mais que se passe-t-il si nous introduisons cette recette dans un ordinateur ou un robot… enfin une machine quoi ?1395178658_cake_7 Et bien il ferait exactement ce que nous lui avons commandé. Il mélangerait la farine, les œufs, le beu… Ah ! Les œufs : avec les coquilles, personne ne lui a dit de les retirer. Les humain-e-s savent ce qu’est un œuf, ce mot a du sens pour eux, elles ou ils comprennent le contexte dans lequel on parle. Mais une machine, voyons ? Quelle chance aurait-elle de savoir que (contrairement aux batailles d’œufs dans les cantines de potaches) on doit d’abord se débarrasser de la coquille ? De plus, bien plus précisément qu’un humain, le gâteau sera mis au four 30 minutes, 0 seconde, 0 dixième, … sans allumer le four. Puisque cela n’a pas été dit explicitement.

    En bref : un ordinateur ou un robot, … c’est « très con ». 1395178709_kcronCe mot d’argot de la langue française ne dit pas que le sujet est « sans intelligence » mais qu’il agit sans discernement, sans comprendre le contexte, sans dévier ce qui reste implicite. De l’intelligence mécanique quoi ! Et non pas je ne sais quelle « intelligence artificielle » (qui dans l’imaginaire collectif renvoie à la science-fiction).

    Alors à quoi bon détailler tout cela ? Cela aide à comprendre quelle est la différence entre mon intelligence et celle d’une machine. La machine « calcule de manière fabuleusement rapide et efficace mais reste totalement dénuée de pensée ». Qui ne comprend pas la différence entre l’intelligence mécanique et l’intelligence humaine, ne sait pas se positionner correctement par rapport à ces systèmes numériques. Et alors, très naturellement, ces objets virtuels sont personnifiés, vus comme magiques, donc nous dominent.

    Bien, voilà un point d’acquis. Et pour comprendre le codage alors ?

    Retournons dans notre cuisine, et pour apprendre à programmer, mettons-nous à deux.

    Gnirut, un monstre codeur - © S. Auvin
    Gnirut, un monstre codeur – © S. Auvin

    L’un va faire le robot (donc exécuter ce qu’on lui demande de la manière la plus mécanique possible), et l’autre va lui faire faire correctement la recette. Si vous faites cela il va se passer quatre choses amusantes.

     1/ Vous allez lui donner la recette à exécuter dans ses moindres détails, pas à pas, sous forme d’une séquence d’instructions élémentaires que la mécanique du robot peut exécuter au niveau de ses mécanismes physiques (ce sera « avancer de trois pas dans la cuisine », « tendre le bras », « prendre le paquet de farine blanc dans le placard » … (qui sait ce qu’est un « paquet de farine » sans en avoir jamais vu ?).

    2/ Et… que faire si il n’y a pas de beurre ? Disons : prendre de la margarine, pardi, sinon arrêter avant que ce soit un massacre. Tiens… ce n’est plus tout à fait une simple séquence, il y a aussi des tests (« si pas de beurre alors margarine… »)

    Et voilà que notre « intelligence mécanique » qui se réduit à faire tester une condition binaire, puis, selon qu’elle est vraie ou fausse, exécuter une séquence d’instructions ou une autre.

    3/ Bien. Voilà le robot en train de faire un quatre-quart à l’orange. Et pour le quatre-quart au citron ? Dois-je lui répéter toute la recette ou simplement lui dire… à la place de l’orange tu mets du citron ? Ou du chocolat ! Bref, voilà l’automate capable de faire tous les quatre-quarts du monde. Il sait faire un quatre-quart à « X ». Où X est une variable dont le nom est « parfum du gâteau » et dont la valeur est « orange » ou « citron »…

    Une variable c’est donc une boîte avec une étiquette (son nom) et dans laquelle on met une valeur. Grâce aux variables on peut programmer « tous les quatre-quarts du monde », de même que sur notre machine à laver, la température de l’eau correspond à la variable qui permet de laver tout le linge de la maison.

    4/ Nous y sommes presque. Pour faire 50 quatre-quarts pour la fête des voisins, je peux recopier la recette 50 fois pour mon robot. Ou mieux, faire une « boucle » : de 1 à 50 fait un quatre-quart, fait un quatre-quart…

    D’ailleurs nous avons un peu menti : on ne met pas vraiment le gâteau au four une demi-heure, mais dix minutes, on plante un couteau dedans et si le couteau ressort mouillé, on refait cuire dix minutes. C’est donc une boucle (« tant que le couteau ressort mouillé fait cuire dix minutes ») qui gère la cuisson du gâteau. Et si le four n’a pas été allumé, la semaine suivante le robot est toujours là à planter un couteau dans un gâteau pas cuit et surtout immangeable.

    Eh bien, à ce stade il y a un résultat énorme à partager.

    © Dessin : Paul Gendrot
    © Dessin : Paul Gendrot

    Si un ordinateur, un robot… enfin quoi, une machine, peut exécuter ces ingrédients des algorithmes alors elle peut faire TOUS les programmes d’informatique du monde !! Il n’y a pas un seul logiciel, algorithme du Web, programme de robot… qui ne se décompose pas en ces ingrédients. C’est ça l’intelligence mécanique. C’est une machine qui va pouvoir exécuter un algorithme qui a été exprimé dans un langage qui permet de traiter de l’information.

    Cela veut dire que mon smartphone, le processeur de ma machine à laver, le plus grand ordinateur au monde ou ma calculatrice programmable ont la même intelligence mécanique (donc sont tout aussi « con »). Bien entendu il y en a des plus ou moins rapides, efficaces, agréables à utiliser… Mais qualitativement, leurs capacités calculatoires (on va dire « computationnelles » en franglais) sont équivalentes : on peut coder des algorithmes dessus.

    C’est ce résultat monumental (on parle de la Thèse de Church-Turing) qui a fondé les sciences informatiques et permis au monde de passer de l’ère industrielle à l’âge numérique. Ne pas savoir, ne pas comprendre ça, c’est se priver du levier primal pour maîtriser cet univers qui est le nôtre aujourd’hui.

    Oui mais concrètement… Comment apprendre cette notion de codage à nos enfants ? Voici ici des éléments pour répondre à leur question « Dis maman (ou papa), c’est quoi un algorithme dans ce monde numérique ?
 »

    Et au-delà ? Comment avec tout ça peut-on coder et traiter de l’information par exemple ?

    … c’est une autre histoire de notre A.B.C. : À bientôt sur Binaire pour en Causer.

    Thierry Viéville.

  • Les mots pour le dire : C comme codage.

    A ? comme Algorithme !

    C’est ce concept (il est facile de savoir de quoi il s’agit) dont nous avons besoin pour comprendre le numérique : cet objet abstrait qui fait que les machines calculent de manière fabuleusement rapide et efficace mais restent totalement dénuées de pensées. Nous en reparlerons plus tard.

    B ? comme … ah ben comme Binaire, pardi.

    C ? comme …

    … comme Codage.

    « Codage ? » Oui, le reflet numérique des objets de notre vie.

    Codons d’abord un atome d’information : « oui ou non ». 1395177108_atomAh ben oui, répondre par oui ou par non, c’est bien donner une information, non ? En fait, c’est donner une information minimale, binaire. Disons : un 0 pour oui et 1 pour non. Ou l’inverse, mais surtout mettons-nous d’accord ! Et si quelqu’un fait moins que binaire (répond toujours 0 ou toujours oui), on ne risque pas d’apprendre quelque chose !

    Ce qui est amusant, par exemple quand on « joue au portrait », c’est que rien qu’en répondant oui ou non… on va pouvoir deviner y compris un personnage très très inattendu ou compliqué.

    En fait, c’est tout à fait sérieux : regardons quelles informations numériques peuvent se coder en binaire.

    Par exemple les nombres décimaux comme nous l’explique Sylvie ici ou http://interstices.info plus complètement ici.

    Et puis les lettres aussi, 1395177216_binarypar exemple disons 00000 pour A, 00001 pour B, 00010 pour C, et si vous continuez ainsi tout l’alphabet, donc tous les mots, tous les textes se retrouvent codés. C’est le «00001 00000 000010000» (euh pardon le «B.A.-BA») du codage ça.

    Et puis les images dont les pixels peuvent devenir des nombres, codés en binaire, et puis les sons dont chaque échantillon devient un nombre numérique, donc les vidéos et tout le multimédia.

    Et puis nos données : notre identité civile, et au-delà nos qualités, nos goûts : pour chaque item, on convient de standardiser les valeurs à donner à une variable qui spécifie une partie de ces données. 1395177264_022Par exemple pour la couleur des yeux on convient de dire : «bleu», «brun», «noir» ou «vert», au risque de biaiser le codage de la couleur chatoyante d’un regard mordoré.

     Oh, excusez-moi, je viens de recevoir un SMS :

    Cher Client,
    Avant l’informatisation de nos services, vous n’étiez pour nous qu’un simple numéro. Désormais, vous êtes beaucoup plus : vous êtes 11 digits, 14 caractères alpha-numériques, 25 items à choix multiples et 13 autres numéros…

    Ah. Bon, c’est clair. On peut coder beaucoup de choses, mais pas forcément toutes choses humaines.

    Toutes les données et informations formalisables ont donc un reflet numérique.1395177307_package_games_kids Bien faire comprendre cette idée à nos enfants leur donne une des clés de l’éducation au numérique. Cette éducation qui doit leur permettre de ne pas uniquement consommer les objets numériques, mais surtout les maîtriser afin de construire à leur tour les objets numériques ou les usages qui leur sied.

    Concrètement… Comment apprendre cette notion de codage à nos enfants ? Voici ici des éléments pour répondre à leur question « Dis maman (ou papa), mais comment sont codés les objets numériques ? »

    Nous voilà donc en train de concrétiser cette idée, souvent bien vague, que « les objets sont codés en binaire dans les ordinateurs ». On voit que ce codage est un choix, une convention entre les individus, exactement comme le langage. Ce qui est intéressant pour l’enfant de tout âge, c’est que cela aide à faire la différence entre le réel et le virtuel. Le codage d’un son ou d’une scène visuelle n’est que le reflet numérique de cet objet réel. Il y a le « S » que je dessine avec de la peinture, il est fait de matière. Il y a ensuite le codage du « S », ce paquet de 0 et de 1, qui ne représente le « S » que parce qu’on le veut bien.

    Ensuite, le fait que nos données (textes, sons, images…) soient devenus numériques permet de traiter l’information qu’elles contiennent avec des fonctions « universelles » : mémoriser, transmettre, dupliquer, compresser, crypter nos données se font avec des mécanismes similaires quels que soient leur nature. C’est un bouleversement par rapport au temps où la musique était sur des disques vinyles et les photos sur des plaques argentiques, comme nous l’explique Gérard Berry dans sa belle conférence.

    Le codage, bien entendu, au-delà des objets statiques (de nos données donc), concerne aussi des objets dynamiques (de la programmation donc) des actions, des événements, et…

    … c’est une autre histoire de notre A.B.C. : À bientôt sur Binaire pour en Causer.

    Thierry Viéville.

  • Moi je mooc, et vous?

    Le MOOC en 4 lettres

    MOOC est donc un acronyme anglais (« Massive Open Online Course ») qui a fait la une de nombreux journaux. Sa traduction en français CLOM, pour Cours en Ligne Ouvert et Massif, n’est pas forcément beaucoup plus explicite. Détaillons quelque peu.

    Il s’agit donc d’un Cours, au sens universitaire, avec un début, une fin, une équipe d’enseignants qui accompagne les étudiants, une acquisition de connaissances et des activités qui permettent d’appliquer ces nouvelles connaissances.

    Ce cours est en Ligne et Ouvert, ce qui signifie que n’importe quel internaute intéressé peut s’inscrire, et devenir — plutôt qu’un étudiant — un participant à ce cours.

    L’attribut Massif est ainsi une conséquence de cette ouverture puisque, si la communication et le bouche à oreille fonctionnent bien, plusieurs milliers, voire dizaines ou centaines de milliers, d’internautes peuvent s’y inscrire. Mais au-delà des chiffres, c’est bien une expérience nouvelle qui est proposée aux participants des MOOC. Tout comme le caractère Massif de certains jeux en ligne (comme le célèbre World of Warcraft) permet de nouveaux comportements des joueurs, comme l’entraide, l’émulation, la constitution d’équipes, voire de guildes. Tout comme les réseaux sociaux ont révolutionné les prises de contact, les relations entre personnes et aussi la manière de recommander l’information, donc la connaissance. Cette dimension sociale de l’apprentissage permet bien de développer une entraide qui permet à certains d’apprendre mieux en aidant leurs pairs, en questionnant de manière plus libre, ou de résoudre ensemble une énigme (pardon, je voulais dire un exercice, un problème, un projet) qui permettra à chacun de progresser dans ses apprentissages.

    Creative Commons  https://www.flickr.com/photos/marinashemesh/
    Creative Commons
    https://www.flickr.com/photos/marinashemesh/

    Rien ne change, et tout change

    Rien ne change, puisqu’il s’agit d’un cours en ligne, ce qui se fait depuis des années, avec souvent des enregistrements vidéos d’enseignants qui transmettent un savoir. Rien ne change parce que des contenus ouverts existent sur de nombreux sites. Rien ne change car la réussite du cours donne droit à une attestation ou un certificat.

    Et tout change, parce que l’internaute s’est inscrit par curiosité, et ne s’accrochera que si l’expérience fait sens pour lui. Parce qu’il pourra échanger avec ses pairs et s’appuyer sur une large communauté pour construire ses connaissances, et peut-être aller plus loin que ce qui était proposé au départ. Parce que moins d’un tiers des participants viennent pour cette validation. Parce que le contenu sera comparé à ses équivalents sur le web, tant sur le fond (une erreur dans un cours est vite détectée et peut ainsi être corrigée), que sur la forme. Pour les vidéos, les standard actuels sont donc la Khan Academy, pour sa concision, TED pour son ambiance et la passion, et les MOOC nord-américains…

    6941090614_70544e4acb_o
    Creative Commons
    https://www.flickr.com/photos/webber/

    Les premiers MOOC et l’informatique

    C’est par un cours d’informatique que l’acronyme MOOC a pris de l’importance. En octobre 2011, Sebastian Thrun et Peter Norvig annoncent que leur cours d’intelligence artificielle à Stanford sera ouvert à tous. En quelques semaines 160000 internautes se sont inscrits à ce cours. C’est le départ d’un mouvement qui a été rejoint par des millions d’apprenants sur les différents portails de MOOC à travers le monde. De même le premier MOOC de l’EPFL a été sur le langage Scala par son concepteur Martin Odersky.

    Sebastian Thrun a créé dans la foulée une startup Udacity, pour proposer des cours en ligne en partenariat avec des experts issus de l’industrie de la Silicon Valley. Autres acteurs de l’ouverture des cours, Andrew Ng et Daphne Koller ont eux aussi créé une plateforme Coursera qui accueille des centaines de cours de plus de cent universités différentes du monde entier, qui représentent la moitié de l’offre étiquetée MOOC à travers le monde — à savoir 637 cours de 108 institutions, en 13 langues différentes au moment de la rédaction de ce billet.

    Derrière ces créations, il y a une ambition, celle de diffuser les connaissances dans le monde entier, mais aussi un objectif, celui de mieux comprendre comment les gens apprennent, en développant l’analyse des données d’apprentissage avec des approches issues des big data et de l’apprentissage automatique. Ce domaine de recherche connaît ainsi un fort développement. Le CNRS, en partenariat avec l’Institut Mines-Télécom propose d’ailleurs une école thématique sur le sujet début juillet à destination des chercheurs en informatique.

    Trouver son MOOC

    Très rapidement, des enseignants de toutes les disciplines ont proposé des MOOC, de tous niveaux. Et le catalogue s’étoffe tous les jours, dans toutes les langues, et sur des plate-formes toujours plus nombreuses. Même si Coursera reste la plus impressionnante, de nombreuses alternatives existent : comme edX, qui est gérée par une fondation d’universités et d’autres partenaires, avec le MIT et Harvard en tête, comme Future Learn d’origine anglaise, qui nous propose des cours de haute facture et avec une approche très sociale, ou Iversity qui est la grande plate-forme privée européenne, qui a sélectionné ses premiers cours en organisant un concours où les internautes pouvaient choisir leur cours, sans oublier la plateforme FUN proposée par le ministère de l’enseignement supérieur et de la recherche dans le cadre de son agenda stratégique France Université Numérique qui accueille des MOOC de nombreux établissements français. On pourrait citer de nombreux autres acteurs nationaux, ou des outsiders qui cherchent à se positionner sur le créneau. Le portail MOOC list en dénombre plus de quarante à travers le monde.

    Quand une offre se diversifie, l’écosystème voit éclore des portails pour guider l’internaute dans ses choix. Outre MOOC list, citons Mooctivity qui offre des fonctionnalités sociales, et MOOC Francophone qui s’est spécialisé dans les cours en français. La communauté européenne propose également un tel point d’entrée en faisant la promotion de la production européenne au travers du site Open Education Europa.

    https://www.flickr.com/photos/92641139@N03/
    https://www.flickr.com/photos/92641139@N03/

    Apprendre en ligne

    Évidemment, le MOOC n’est pas la seule manière d’apprendre en ligne. Nombreux sont ceux qui ont pris l’habitude de travailler sur des ressources variées. Khan Academy vous propose de vous accompagner de votre première addition jusqu’à l’université. Les informaticiens vont chercher des réponses à leurs questions techniques sur des sites comme stackoverflow. Code Academy vous propose d’apprendre à programmer de manière interactive par vous-même. Les cours en ligne disponibles sur OpenClassrooms sont connus de tous les professionnels, étudiants et lycéens de France, pour l’informatique, mais aussi de plus en plus en sciences. De plus ces sites sont contributifs, chacun peut proposer du contenu qui sera reversé à la communauté, selon des modalités spécifiques.

    Un site comme OpenClassrooms a pourtant fait le choix de proposer des MOOC en plus de ses ressources, pour plus de dynamique et de visibilité. Si l’on parle si souvent de MOOC, c’est qu’ils constituent une réponse à ce besoin d’apprendre en ligne, proposés par le monde universitaire, portés par de grandes institutions, et donc bénéficiant de la réputation des universités. Les MOOC sont plébiscités car ils proposent un cadre connu, ce sont un cours, un événement avec un début, une fin, un objectif et surtout une équipe d’enseignants, qui donne un cadre à la communauté. C’est donc un accélérateur pour faire évoluer la formation vers le monde numérique.

    La forme n’est néanmoins pas figée. Les formes de MOOC sont variées et vont continuer d’évoluer.

    Le terme MOOC nous vient d’ailleurs d’un cours de 2008 sur une nouvelle manière d’apprendre en ligne, appelée connectivisme, qui soutient qu’apprendre à l’ère de l’abondance des ressources sur le Web est un processus de création basées sur son propre parcours construit sur des connexions entre des nœuds qui peuvent aussi bien être des ressources, des expériences, ou des personnes. L’apprentissage est alors un phénomène émergent. Cette vision de l’apprentissage est en phase avec les modèles de systèmes complexes et les phénomènes d’auto-organisation ou auto-apprentissage observés par des scientifiques de l’éducation comme Sugata Mitra.

    S’il est ainsi prouvé que de tels autres modes d’apprentissage sont possibles, nombre de MOOC cherchent à apporter leurs propres spécificités, qui l’évaluation entre pairs, qui l’utilisation du smartphone comme outil de mesure, qui l’organisation de rencontres dans des tiers lieux comme les fablabs… L’enjeu est bien ici de renouveler l’enseignement, chacun apportant sa pierre à l’édifice d’une connaissance ouverte.

    Créer son MOOC

    Chacun pourra en effet créer son propre cours. C’est la promesse que nous fait mooc.org, site porté par edX et Google, mais qui reste encore à réaliser. En attendant, choisissez votre thématique, cherchez ce qui existe déjà dans le domaine, identifiez votre public, mettez-vous à sa place, proposez-lui une expérience enrichissante comme le font tous les sites web. Vous pouvez vous inscrire au MOOC de votre choix pour voir comment les autres ont fait, au MOOC « Monter son MOOC de A à Z » sur FUN, à lire les retours d’expérience de ceux qui en ont suivi ou fait un sur mooc.fr, voire à y contribuer…

    Ensuite, c’est un travail d’enseignant connecté qui vous attend. Vous chercherez sans doute à constituer une équipe. Vous choisirez votre option d’hébergement. Vous préparerez en groupe votre cours, son déroulement, vous développerez ses ressources, dont sans doute des vidéos, au moins un teaser pour présenter votre sujet, des questions de compréhension, des exercices, des activités de groupe, des projets. Et le jour du démarrage du cours, vous serez là pour lancer un message de bienvenue, pour voir les premiers échanges, pour animer une séance de questions réponses, pour corriger les erreurs vite détectées par les participants, pour susciter les échanges, pour participer.

    Tous étudiants, tous professeurs

    À l’heure où le numérique permet une ouverture nouvelle dans l’accès à la formation, certains voient dans les MOOC l’annonce d’une standardisation des formations. C’est ignorer que le renouvellement des savoirs croit de manière exponentielle. La faute au web !

    La formation restera donc dynamique pour suivre les évolutions et contribuer à sa structuration. C’est bien en s’inscrivant dans cette dynamique qu’il faut imaginer l’apprentissage. Le MOOC constitue une réponse actuelle à ce besoin de formation, dans un environnement web qui nous a habitué à innover sans cesse, et à nous proposer d’être tous contributeurs. Tout comme dans l’industrie du cinéma, il y aura des grands studios, de nombreuses productions, du cinéma d’auteur, et de multiples productions plus ou moins amateur, parfois géniales, et un renouvellement incessant.

    L’homme est un animal social. L’appétence pour les échanges entre pairs montrent bien que l’on apprend en enseignant. Et pour rester pertinent en tant qu’enseignant, on n’arrête jamais d’apprendre, donc de contribuer.

    Jean-Marie Gilliot, Telecom Bretagne

  • Le bitcoin, une monnaie 100 % numérique

    A l’heure où l’on se souvient des soucis du franc, où l’on a trop vite tendance à accuser l’euro de tous les maux, nous arrive une monnaie 100 % numérique, le bitcoin. De nombreux articles ont insisté sur des aspects financiers ou sociétaux du bitcoin qui sont passionnants. Binaire a demandé à Rémy et Stéphanie de nous raconter quelque chose de tout aussi passionnant : les algorithmes qui rendent possibles les bitcoins.

    bitcoin-binaire-rayclid@Ray Clid.

    (*) Un qubit est l’état quantique qui représente la plus petite unité de stockage d’information quantique. C’est l’analogue quantique du bit.

    Comment ça marche ?

    Bitcoin est une monnaie virtuelle sans contrepartie physique. A l’inverse des monnaies classiques, elle ne repose pas sur l’existence d’une autorité comme la Banque centrale européenne pour son émission ou sa régulation. Le bon fonctionnement des échanges est garanti par un protocole public et transparent. Cette nouvelle monnaie a été conçue avec un mécanisme d’autorégulation. Ainsi, nous allons découvrir comment ces bitcoins sont créés, échangés, et parfois même perdus.

    Mais concrètement, comment se passe une transaction ?

    Contrairement à l’intuition naïve d’une monnaie virtuelle, un utilisateur de bitcoin ne dispose pas d’un porte-monnaie sous forme d’un fichier ou dossier qui contiendrait les bitcoins qu’il possède. A la place, il a accès à un registre consignant toutes les transactions en bitcoins ayant eu lieu depuis la mise en place du protocole, registre à partir duquel il peut calculer sa fortune personnelle. Supposons par exemple qu’Alice souhaite acheter un livre à Bob en réalisant une transaction en bitcoins. Tout d’abord, il est important de veiller à la sécurité des messages échangés, et on utilise pour cela le mécanisme de signature électronique reposant sur le concept de clé privée et de clé publique. Chaque utilisateur dispose d’un tel couple de clés.

    1. Bob communique sa clé publique pub(Bob) à Alice ;
    2. Alice construit le message M indiquant qu’elle souhaite transférer N bitcoins à Bob :
      M = “transfert à pub(Bob) d’un montant de N bitcoins” ;
    3. Alice donne son accord pour effectuer ce transfert en signant ce message avec sa clé privée priv(Alice), et en diffusant la transaction :
      T = signature(M, priv(Alice)) ;
    4. Bob, à la réception de cette transaction T, peut vérifier la signature et s’assurer que le message vient bien d’Alice. Il vérifie aussi qu’Alice dispose bien des bitcoins qu’elle se propose de lui transférer en consultant le registre.

    Il est à noter aussi que le protocole n’exige pas de révéler son identité lors d’une transaction. Derrière chaque paire de clés, il y a un porte-monnaie et un propriétaire anonyme.

    Qui gère les comptes ?

    Comme mentionné précédemment, toutes les transactions sont consignées dans un grand livre de comptes publics appelé “registre” ou encore “blockchain”. Ce registre permet à chacun de calculer le nombre de bitcoins existant sur chaque compte et rend possible la validation des nouvelles transactions par tous ceux qui souhaitent participer à ce processus. Autrement dit, lors de l’échange précédent, tout le monde peut s’assurer que la transaction provenant d’Alice est bien valide. Cette opération n’est pas du seul ressort de Bob. En fait, chacun a son propre registre où il consigne les différentes transactions dont il a connaissance, et l’absence d’autorité centrale pose le problème de la cohérence entre tous ces registres. C’est un problème sur lequel nous reviendrons.

    Est-il possible de dépenser un même bitcoin plusieurs fois ?

    Considérons un scénario où Alice essaie de dépenser un même bitcoin pour payer un achat effectué auprès de Bob (transaction TBob), et régler sa dette envers Charlie (transaction TCharlie). En supposant une communication un peu lente entre Bob et Charlie, il se pourrait que parallèlement ces deux transactions se trouvent validées. Le réseau est alors divisé en deux, ceux qui ont été informés de la transaction TBob, et ceux qui ont été informés de la transaction TCharlie. Dans les deux cas, la transaction correspondante a été ajoutée au registre des comptes, et les deux registres résultants ne sont plus cohérents (mais personne n’est encore au courant de cette situation). Lorsqu’un participant apprendra l’existence des transactions TBob et TCharlie, la supercherie sera révélée, et il faudra alors décider du registre qui fait foi, et donc de la transaction à garder. On connaîtra enfin l’heureux détenteur du bitcoin d’Alice.

    L’idée de base est de travailler sur le registre le plus long dont on ait connaissance. Il se pourrait qu’il y ait localement des divergences, mais, dans un réseau où la communication est suffisamment rapide et où une majorité de nœuds jouent le jeu, il devrait se dégager un registre significativement plus long assez rapidement. Une fois une transaction réalisée, il faudrait donc laisser passer ce temps nécessaire à la synchronisation des registres pour garantir que la transaction se retrouve bien dans le registre qui fait foi, et pouvoir la valider définitivement.

    Le problème est que la longueur d’un registre serait alors facilement manipulable par quelqu’un de mal intentionné. Alice pourrait en ajoutant des transactions faire en sorte que les registres contenant respectivement TBob et TCharlie deviennent les registres de références à tour de rôle. Elle pourrait ainsi faire croire à Bob qu’il doit lui faire parvenir son livre, puis à Charlie qu’elle a réglé sa dette. Bob se rendrait compte que le bitcoin est finalement dans les mains de Charlie… mais ce serait trop tard.

    Comment empêcher Alice de manipuler le registre des transactions ?

    L’idée centrale est de rendre la validation d’une transaction (ou en réalité d’un bloc contenant une dizaine de transactions) coûteuse. Ainsi, Alice ne pourra pas aisément ajouter des transactions au registre et ainsi valider l’opération avec Charlie. Pour expliquer ce mécanisme central de Bitcoin, on a besoin d’introduire une nouvelle notion : celle de fonction de hachage.

    Le hachage est une opération qui consiste à transformer un texte de longueur arbitraire en un texte de longueur fixe. Dans le cas de Bitcoin, une suite de 256 bits. Mais cette suite (appelée hash du texte) doit vérifier une propriété fondamentale : il est virtuellement impossible de reconstituer le texte original à partir de son hash.

    Dorénavant, mettre à jour le registre des transactions sera plus compliqué. Plutôt que de simplement vérifier si la transaction TBob  est valide avant de l’ajouter au registre, il faudra aussi trouver un nombre x tel que le message “TBob + x” ait un hash se terminant par dix zéros (par exemple). Trouver une bonne valeur pour x demande du temps de calcul mais il est en revanche très facile, étant donné x, de vérifier que la valeur convient bien. Ainsi, pour chaque transaction, ou pour être précis bloc de transactions, des utilisateurs de Bitcoin, appelés « mineurs », vont vérifier que celui-ci est valide et trouver une valeur de x. Le premier mineur ayant réussi à trouver x l’enverra aux autres utilisateurs, qui pourront ajouter ces transactions à leur registre. On appelle cette opération réaliser une preuve de travail ou encore « minage » dans le vocabulaire des crypto-monnaies.

    Qu’est-ce qui a changé ?

    Maintenant, si Alice veut ajouter un nouveau bloc de transactions au registre pour tenter de faire valider TCharlie plutôt que TBob, elle va devoir effectuer de lourds calculs en un temps très réduit (avant que d’autres mineurs ne minent les blocs correspondants), ce qui lui sera concrètement impossible, à moins qu’Alice ne contrôle l’essentiel de la puissance de calcul de l’ensemble du réseau. L’utilisation d’une fonction de hachage permet par ailleurs de chaîner les différents blocs de transactions : en ajoutant à tout nouveau bloc le hash du bloc précédent, il est désormais impossible pour quiconque d’introduire de nouvelles transactions au milieu du registre commun.

    Création des bitcoins : qui, quand, et comment ?

    Nous avons vu comment s’échanger des bitcoins, mais, en l’absence d’autorité centrale, il demeure une question essentielle. Quelles sont les mécanismes permettant à cette monnaie de s’autoréguler ? Comment les bitcoins sont-ils créés ?

    Toutes les dix minutes environ, un bloc de transactions est miné. Mais que gagnent les mineurs à faire tourner leurs machines et consommer de l’énergie ? Des bitcoins fraîchement créés ! Le mineur reçoit une récompense de 25 bitcoins, ce qui correspond, au cours actuel, à environ 8 500 euros ! C’est en fait la seule et unique façon de créer de nouveaux bitcoins. Il faut savoir que cette récompense diminue en pratique tous les quatre ans. L’unité bitcoin n’étant pas divisible à l’infini, cette récompense atteindra aux alentours de 2 140, la plus petite sous-unité, appelée “satoshi”, et plus aucun bitcoin ne pourra alors être créé. Ils seront alors au nombre de 21 millions.

    Les plus pessimistes verront cette limite comme annonçant la fin des bitcoins… mais, pour continuer à assurer le bon fonctionnement du protocole au delà de cette date, un mécanisme de commission (similaire à des frais bancaires) a été prévu. Les mineurs pourront donc toujours prétendre à leur récompense, mais l’utilisateur devra payer !

    Enfin, sachez que…

    Si vous avez choisi de vous lancer dans l’aventure, veillez à conserver votre clé privée précieusement. La perte de cette dernière rend inutilisables ses propres bitcoins, et ce sans aucun recours possible.

    Si vous souhaitez devenir riche en vous lançant dans le minage de blocs, sachez qu’en pratique la compétition est telle que les ordinateurs de bureau actuels n’ont plus aucune chance de gagner de l’argent via la minage.

    Si vous souhaitez utiliser cette monnaie pour effectuer des opérations en toute discrétion, il faut savoir que, même si le détenteur d’un compte peut rester anonyme, les bitcoins sont, eux, parfaitement traçables. On peut à tout moment calculer la fortune détenue par une adresse quelconque ou obtenir la liste des transactions qu’elle a réalisées dans le passé. Alice est donc peut-être anonyme, mais ses bitcoins sont marqués, permettant de les suivre à la trace sur le réseau.

    Bitcoin est enfin avant tout un protocole cryptographique utilisant nombre d’éléments traditionnels en sécurité informatique. La conception de tels objets est notoirement difficile et a, par le passé, laissé paraître des failles longtemps après leur diffusion. La résistance du protocole Bitcoin est encourageante et prometteuse. Cependant, peu d’analyses de sécurité ont été menées, et on ne peut, à l’heure actuelle, que spéculer sur l’absence de failles dans ce protocole.

    Bitcoin n’est qu’une expérience, n’y investissez que le temps et l’argent que vous pouvez vous permettre de perdre.

    Rémy Chrétien, doctorant ANR VIP & Stéphanie Delaune, CNRS

    Pour aller plus loin :

  • Enseigner la programmation au lycée

    Le cours « Informatique et sciences du numérique » a été installé en Terminale S. Des profs se démènent pour l’enseigner et, au-delà, enseigner l’informatique au lycée. Aujourd’hui, binaire donne la parole à l’un d’entre eux, David Roche, qui enseigne les sciences physiques et l’informatique au lycée Guillaume Fichet de Bonneville (Haute-Savoie). David nous parle de son expérience passionnante qui s’appuie sur les technologies Web.

    « Je milite depuis plusieurs années (2009) pour l’enseignement de la programmation en lycée et plus généralement pour l’enseignement de la science informatique.

    Le but est multiple : susciter des vocations, montrer que la programmation est une activité enrichissante intellectuellement, montrer que la programmation peut permettre aux élèves d’exprimer leur potentiel créatif, et leur donner une « culture informatique » minimum. Le but n’est évidemment pas de former des informaticiens, mais « d’éduquer » le plus grand nombre possible d’élèves (et pas seulement les élèves suivant une filière scientifique).

    Pour rendre cet enseignement attractif, j’ai choisi de m’appuyer sur les « technos web ». J’ai rédigé tout un ensemble d’activités autour du trio HTML5, CSS3 et surtout JavaScript. C’est l’occasion d’apprendre aux élèves les bases de la programmation : variable, boucle, condition, fonction, etc. Les élèves travaillent de manière autonome, chacun à son rythme, sans avoir à « subir » de longs cours magistraux, même si je ne m’interdis pas, sur certains sujets délicats,  des « interventions collectives ».

    Une fois ces bases acquises, je propose aux élèves de seconde et de première des projets comme la création de jeu 2D avec EaselJS, d’application web avec jQuery, nodeJS et mongoDB, d’application pour smartphone sous Firefox OS, ou de jeu 3D avec BabylonJS. photo_GFichet image_GFichet Ici aussi, j’ai rédigé des activités permettant aux élèves de progresser à leur rythme. Les élèves qui auront, par exemple, choisi de s’initier à la création de jeu vidéo devront s’interroger sur différents aspects : Comment afficher une image (sprite) ? Comment déplacer ce sprite à l’écran ? Une fois ce problème de déplacement résolu, il faudra s’intéresser au moyen d’éviter que le sprite « sorte » de l’écran. Comment gérer le clavier et la souris ?… Une fois toutes ces bases acquises, les élèves pourront se lancer dans la création de leur propre jeu vidéo : en écrivant un scénario, en mettant en place un cahier des charges… L’enseignant est, une fois de plus, présent uniquement pour guider les élèves et les aider en cas de difficulté, pas pour les « abreuver » de grands discours théoriques.

    Ces activités peuvent aussi amener les élèves à étudier certains aspects de la science informatique. En effet, comment créer une application web sans s’intéresser à la notion de client-serveur ? Sans comprendre ce qu’est une requête HTTP ? Sans tout simplement avoir des bases en matière de réseau ? Cette approche par activité et par projet fonctionne bien.

    Tout le matériel pour mes cours est disponible, sous Creative Commons, sur mon site web. Dans le même temps, mon collègue Nicolas Bechet travaille avec les mêmes élèves sur la programmation du microcontrôleur Arduino Uno, ce qui permet d’aborder les notions de capteur et de traitement de l’information. Ici aussi, la mise en activité des élèves ainsi que la pédagogie de projet sont des priorités. Ce que je décris ici est une initiative locale. Mais son succès nous encourage à vouloir la généraliser à d’autres lycées. Elle pourrait aussi servir de base pour enrichir des sites web d’enseignement de l’informatique.

    La demande de formation à l’informatique — et notamment à la programmation — est énorme bien au-delà de seulement les enfants ou les adolescents : lors de la dernière journée « portes ouvertes » du lycée, de nombreux parents nous ont demandé si nous n’envisagions pas de créer des cours du soir pour adultes ! Une telle formation peut permettre de trouver un emploi, de mieux se réaliser professionnellement, ou juste personnellement.

    Si vous voulez me rejoindre pour participer à ce mouvement, toute collaboration serait, bien sûr, la bienvenue… »

    David Roche, enseignant

    Pour en savoir plus :

     

  • Salut Gilles ! Tu as 68 ans ce jeudi 17 avril.

    Gilles Kahn est une figure majeure de la recherche française en science informatique [0]. Mais c’est aussi le «Papa en informatique» de bien des collègues chercheur-e-s. C’est aussi un «Monsieur » qui quand il croisait quelqu’un disait un vrai, profond et sincère « Bonjour ». De ceux qui font se poser quelques secondes pour répondre avec franchise à cette profonde et humaine attention. Alors, à cette date qui fut 59 fois celle de son anniversaire, voici que j’ai envie de lui dire :

    «Salut Gilles ! Tu as 68 ans ce jeudi 17 avril. Tu nous manques, tu sais, depuis 8 ans maintenant que la maladie t’a forcée à tirer ta révérence. Mais tu restes tellement présent.

    gilles-1
    Gilles Kahn, un visionnaire (1)

    Tu vois, par exemple, les collègues dont tu t’étais entouré continuent de travailler sur ces belles idées partagées avec eux : patiemment ils continuent de développer des méthodes de preuve par ordinateur. À inventer des mécanismes de vérification des algorithmes. Bref : à éviter les bugs [1]. Toi qui as contribué à élucider le bug probablement le plus célèbre de l’histoire industrielle [2], tu serais content de voir nos systèmes de carte à puce ou des systèmes robotiques au service de la chirurgie, protégés directement ou indirectement par ces méthodes formelles, qui permettent de garantir le bon fonctionnement logiciel.. Ils viennent de recevoir, hier, une des plus prestigieuses distinctions scientifiques pour ce travail [3].

    Serait-ce ces travaux là ? Ou bien tes «réseaux de Kahn» qui permettaient de modéliser des calculs distribués sur plein de calculateurs ? Ou encore tes travaux théoriques de «sémantique naturelle des programmes» (qui ne m’est pas naturelle du tout !) ? Ou tous ensemble qui ont fait de toi le premier académicien français en sciences informatiques ? En tout cas, c’est bien avec ton nom, Gilles Kahn, que l’informatique est devenue une science pour l’académie des sciences de France.

    Comment expliquer simplement en quoi tes travaux étaient si novateurs ? On pourrait dire très simplement dire que tu as contribué à «donner du sens» aux langages de programmation. On peut avec tes formalismes manipuler un programme comme une formule mathématique, donc calculer des propriétés liées à ce qu’il va faire (ou pas). On ne se contente donc pas de vérifier que le programme est syntaxiquement correct (c’est à dire que la machine va être en mesure de le traduire pour l’exécuter). On vérifie aussi qu’il correspond aux spécifications que le concepteur s’était donné. Tes idées permettent donc de prouver mécaniquement (automatiquement ou interactivement), de certifier, les éléments de sens (sémantiques donc) liés au code que le programmeur se propose de réaliser. Cette percée a ouvert la voie au développement d’environnements de programmation, pour utiliser concrètement ces idées théoriques.

    Et l’histoire continue : le plus prestigieux prix de thèse en informatique dans notre pays (il se nomme le «prix de thèse Gilles Kahn», lol), c’est une jeune collègue de ton domaine de recherche qui a eu l’honneur de le recevoir dernièrement [4].

    gilles-2
    Gérard Huet et Gilles Kahn (2)

    D’ailleurs tu rigolerais bien de savoir que depuis quelques mois, l’informatique théorique (celle ou chaque objet a un «type» qui permet de manipuler de manière bien-fondée ces entités formelles) a été en mesure de proposer de nouveaux fondements à sa grande sœur [5]. Oui : aux mathématiques ! Avec la collaboration d’un de tes étudiants du reste [6]. Nous voilà désormais dans un monde scientifique dans lequel toutes les maths semblent pouvoir être refondées grâce à l’informatique théorique dont tu es un pionnier.

    gilles-3
    Gilles Kahn en 2005 (3)

    On se souvient aussi que tu nous disais l’importance «d’allumer l’étincelle de curiosité dans les yeux des enfants». Dans ce rapport que tu rédigeas pour l’Élysée en 2000 sur «l’accès de tous à la connaissance» apparaissait clairement ta vision en avance sur ton temps. Tu nous montrais l’importance de partager avec chaque citoyenne et citoyen ces sciences si récentes. Pour que personne ne soit exclue du monde numérique. Du site )i(nterstices, tu as été le propulseur et le rédacteur en chef si précieux. On te cite toujours, côté Inria, quand on explique notre volonté que chacune et chacun comprennent les sciences et techniques de l’information de la communication qui font le monde numérique d’aujourd’hui [7].

    Tout ne va pas si bien que ça, tu sais, Gilles, dans ce monde que tu nous avais laissé en héritage. En France, il y a toujours des gens qui réussissent à empêcher nos enfants d’apprendre l’informatique à l’école, donc obligent à limiter leur rôle à consommer les produits numériques, sans leur offrir la possibilité de développer ceux qu’ils pourraient vouloir créer, comme cela devrait [8]. Des états ont massivement trahi la confiance des citoyens en allant espionner des données personnelles [9], pour ne pas parler de ce qui a pu se faire de pire ailleurs. Toi qui étais très vigilant sur les applications militaires de nos sciences, voilà qu’est même délégué à des sociétés privées le fait d’aller tuer à distance avec des robots volants télécommandés (des «drones» dit-on maintenant) les personnes indésirables, en dehors de tout cadre juridique [10]. Je n’ose te dire à quel point nous vivons sur une planète fragile et abimée.. À toi l’agnostique, pour qui le Shalom (שָׁלוֹם) des tiens rimait avec le Salaam (سلام) de mes proches, comment te parler de ce monde où fractures et inégalités se creusent, comme par le passé, où «ceux qu’on foule aux pieds» devenaient l’épouvante de ceux qui sont leur crainte [11] ?

    Euh … excuse-moi ! Tu étais tout sauf un nostalgique, Gilles. Face aux défis posés par cette société que nous allons nous aussi laisser en héritage à nos enfants, je sais ce que tu proposerais. De poursuivre ce travail fondamental, théorique et expérimental, de développement des sciences du numérique. Pour mieux mettre au service des enjeux sociétaux de nouvelles idées d’innovation pour la société qui entraineront un progrès pour les hommes et les femmes. Par exemple si nos familles, nos amis, sont mieux soignés demain, ce sera en partie grâce à toi, Gilles, qui a su détecter très tôt l’impact à venir des sciences du numérique dans la santé, comme cela devient maintenant courant [12].»

    Thierry Viéville et tou-te-s les éditeurs de Binaire autour de Serge Abiteboul avec la complicité de Laurence Rideau.

    Références:
    [0] https://fr.wikipedia.org/wiki/Gilles_Kahn
    [1] http://www-sop.inria.fr/marelle
    [2] https://fr.wikipedia.org/wiki/Vol_501_d%27Ariane_5
    [3] http://coq.inria.fr/coq-received-acm-sigplan-programming-languages-software-2013-award
    [4] http://www.societe-informatique-de-france.fr/recherche/prix-de-these-gilles-kahn/prix-de-these-2013
    [5] http://images.math.cnrs.fr/A-la-croisee-des-fondements-des.html
    [6] http://www.math.ias.edu/sp/univalent/participants
    [7] https://wiki.inria.fr/wikis/mecsci/images/2/29/Mediation-scientifique-v0.2.pdf
    [8] http://www.academie-sciences.fr/activite/rapport/rads_0513.pdf
    [9] https://fr.wikipedia.org/wiki/Révélations_de_surveillance_par_la_NSA_en_2013
    [10] http://www.agoravox.tv/actualites/international/article/drones-tueurs-et-guerres-secretes-39276
    [11] « A ceux qu’on foule aux pieds », 1872, Victor Hugo, Poésie. XII, L’année terrible, Paris : J. Hetzel, A. Quantin, 1883.
    [12] http://www.college-de-france.fr/site/nicholas-ayache/inaugural-lecture-2014-04-10-18h00.htm

    Illustrations:
    (1) Gilles Kahn un visionnaire, http://www.inria.fr/institut/inria-en-bref/ceux-qui-ont-fait-inria/gilles-kahn
    (2) Gérard Huet et Gilles Kahn, au temps de l’équipe Inria pauillac.inria.fr ( et des vestes en velours et cols roulés 🙂 )
    (3) Gilles Kahn en 2005, lors de la visite de Bill Gates à Paris http://www.journaldunet.com/solutions/0510/051027_microsoft.shtml

     

  • La télécarte est finie…

    Vous savez le truc qui permettait de téléphoner dans une cabine téléphonique dans la rue, en fait l’ancêtre du mobile,  quoi.

    Eh bien, tout fout le camp ma bonne dame.

    Photo-Telecarte

    Mardi matin dernier, petit mail d’un copain qui annonce la fin de la télécarte. Nouvelle reprise par 20minutes, le Figaro, le Huff…

    Bon je fonce sur le site d’Orange : rien !… je paie un verre à celui qui me trouve l’annonce officielle sur le site, car bien évidemment il n’est question que de 4G, de talents du numérique, mais pas de télécarte qui ne sera plus distribuée aux réseaux de grossistes.

    Ces petits objets (appelés aussi cartes à mémoire) étaient revendus par les buralistes et autres vendeurs. Tout le monde a compris que les débits (des ventes bien sûr) n’étaient pas terribles sinon la profession des buralistes aurait fait entendre le son de leurs revendications.

    Mais pour quoi on arrête les télécartes ? Parce que personne ne téléphone dans la rue depuis une cabine téléphonique ! Ce mobilier urbain a disparu des villes et bientôt des campagnes, car on a tous un téléphone pardon un mobile voire même un smartphone… Mais que restera-t-il à ceux qui n’ont pas accès à ces nouvelles technologies ?…

    Une télécarte ?

    C’est simple, c’est un plan de mémoire (256 bits – je n’ai oublié ni le K ni le M). Une partie est protégée par un fusible grillé lors de la fabrication/personnalisation après inscription des informations liées à l’émetteur (l’opérateur) et au service portés par la carte (par exemple 50 unités téléphoniques, 67 entrées à la piscine, voire 150 jetons). Une partie moins protégée permettait de (dé)compter des unités en fonction d’impulsions électriques (on dit programmer un point mémoire).

    Quand les unités sont consommées (écrites, programmées) la carte est en fin de vie, elle peut être jetée… ou gardée par les amoureux des beaux objets pour constituer un marché de collection.

    Telecarte-ET-1001-1erepage Telecarte-ET-1001-Plan

    Archives personnelles : Jean-Pierre Gloton (Fondateur de Gemplus, devenu Gemalto après la fusion entre Axalto et Gemplus), spécification de l’ET 1001. Photo : Pierre Paradinas.

    Pas très sécurisé, vous me direz, ce dispositif… mais il a tenu. Des centaines de millions de cartes ont été distribuées, une nouvelle génération a vu le jour avec une authentification cryptographique de la carte — nom de code T2G (Télécarte 2ème génération). Une famille d’algorithmes et de protocoles sur la rive droite du Rhin avec les industriels allemands et une autre avec nos industriels, ont augmenté la sécurité de ce type de carte… au final il s’en distribuera en France un milliard.

    Il n’y a pas de morale à l’histoire.

    1974, Roland Moreno dépose des brevets sur un dispositif mémoire, l’industrie et les services associés à la carte mettront du temps à se développer puis se déployer. Au milieu des années 80, la télécarte se développe dans les télécommunications.

    40 ans après, la télécarte est arrêtée, le bibop est déjà oublié, la téléphonie mobile à base de GSM est passée par là.

    Néanmoins, on reviendra sur ce blog sur cette technologie (la carte à puce qui elle n’est pas terminée) en parlant des cartes à microprocesseur car après la mémorisation on traite les données…

    Pierre Paradinas

    PS : Pour un regard historique sur des usages perdus, ou pour retrouver quelques images de l’époque en allant sur le site de l’INA : http://www.ina.fr/playlist-audio-video/1769989/les-telecartes-c-est-fini-playlist.html#]

     

     

     

     

     

     

     

  • Ceinture noire d’informatique ?

    Apprendre l’informatique tout seul quand on part de zéro, ça intimide. Mais ne vous inquiétez pas ; c’est possible !

    J’ai commencé par « Le site du zéro » (maintenant OpenClassroom). Ils vous mettent de suite à l’aise : « Le monde du Web vous intéresse, mais vous n’y connaissez rien ? ». Ça tombait bien ; c’était mon cas. Les cours expliquent tout, même les concepts les plus basiques. J’avais besoin de ça. Avec son changement de nom, le site est devenu sérieux. Exit Zozor, l’âne mascotte, pour être remplacé par un beau logo coloré avec des petites boites qui s’envolent. 

    Le seul problème pour moi, c’est qu’OpenClassroom, ça reste des cours. On lit ses leçons ; on fait des TD. J’ai perdu la motivation… Il y a deux semaines, j’ai découvert codewars.com dont le slogan est :

    « Achieve code mastery through challenge. »

    Ici on apprend la programmation comme on apprendrait le karaté, à travers des kata. Vous vous inscrivez et vous choisissez un langage de programmation (pour l’instant, 2 options, javascript et ruby) et c’est parti.

    test

    Si vous jouez régulièrement vous montez en grade jusqu’à être première Dan. (Je ne suis que 5 Kyu, une novice ; à la prochaine promotion, je serai compétente). C’est incroyablement addictif ; chaque Kata prend entre 30 secondes et une heure. Vous devez aller explorer sur Internet et tout découvrir par vous-même. À chaque challenge, vous apprenez un petit truc en plus. Un jour, vous réalisez que vous avez appris à créer et manipuler des objets, des classes, à trier des tableaux… Ce n’est peut-être pas un vrai cours. Mais c’est tellement plus amusant.

     levels

    Manon Abiteboul

     

  • Information et communication scientifique, à l’heure du numérique

    6884-1793-CouvertureOuvrage collectif, dans Les essentiels d’Hermes. Des regards différents sur plusieurs aspects du problème. La diffusion des résultats est au cœur de la science. Le numérique conduit à une remise en question complète de tout le système même si on revient souvent au même constat : le peer reviewing est un mauvais système ; mais c’est ce qu’on connaît de mieux. Comment le faire évoluer ? Peut-on inventer autre chose ?

    À lire au moins pour la présentation générale par Valérie Schafer qui a dirigé cet ouvrage. Chercheuse à l’Institut des sciences de la communication du CNRS (ISCC), notre collègue est spécialiste d’histoire des télécommunications et de l’informatique, en particulier des réseaux de données. Elle étudie actuellement le développement de l’internet et du Web en France dans les années 1990 (histoire des FAI, des premiers sites Web, régulation, etc.) et les questions de patrimonialisation du numérique.

    Et un article intéressant Three myths about scientific peer review.

    Serge Abiteboul

     

  • De bonnes raisons d’aller à Intelligences Numériques 2014

    diLa 1ère conférence internationale consacrée aux cultures et à la société numériques se tient à Nantes du 17 au 19 septembre 2014. Digital Intelligence 2014 /Intelligences numériques 2014  #di2014. Marie-Agnès Énard, responsable communication Inria, nous donne de bonnes raisons d’aller à DI2014. Une raison supplémentaire : Marie-Agnès a toujours raison.
    Serge Abiteboul

    Communicante dans un centre de recherche en informatique, cernée par des scientifiques passionnés, curieuse de cultures numériques et de productions artistiques, je découvre l’annonce sur la Toile de DI2014. J’épluche consciencieusement le pré-programme, j’essaie tous les liens du très beau site de la conférence. J’en arrive à l’évidence que je veux absolument y aller et que j’aimerais aussi vous convaincre de m’y retrouver.

    Voici donc mes 5 bonnes raisons :

    1. Tout est dans le titre : Intelligences numériques. Durant 3 jours, des chercheurs, des artistes, des étudiants d’horizon et de disciplines différents vont échanger, partager et mixer leurs savoirs pour enrichir collectivement le domaine des cultures numériques. Et le plus incroyable c’est qu’ils nous invitent à y participer. En effet le public visé couvre un large éventail de métiers ou de centres d’intérêt ; du sociologue à l’entrepreneur, en passant par l’urbaniste ou le community manager. Même la responsable de la communication que je suis y trouvera son compte.

    2. Parmi les 11 thématiques qui sont proposées et qui font échos à des sujets d’actualités et de débats au sein de notre société, il y en a forcément un ou plusieurs qui vous touche ou vous interpelle :

    • Données
    • Humanités numériques
    • Biens communs numériques
    • Villes intelligentes
    • Arts numériques
    • Littérature numérique
    • Web social
    • Interactions homme-machine
    • Culture et pratiques numériques
    • E-learning
    • Sécurité, vie privée et identité numérique.

    3. Jetez un œil à la liste des personnalités qui sont aux commandes de cet évènement : présidents de programme, coorganisateurs, conférenciers, coordinateurs thématiques, membres du comité de programme… Vous avez en face de vous ce qui se fait de mieux dans le domaine des cultures numériques.

    4. DI2014 s’inscrit dans le cadre de la semaine du numérique planifiée sur Nantes avec une programmation très riche. Ce sera l’occasion de participer à la 13ème édition du festival des cultures électroniques et des arts numériques Scopitone2014 dont je vous invite à aller voir le Best Of 2013 en vidéo. Durant 3 jours, nous pourrons nous immerger dans les cultures numériques avec délectation.

    5. Mon dernier argument est plus personnel. Je pense qu’il faut encourager, soutenir, participer et marquer notre intérêt pour ce type de manifestation pluri- et interdisciplinaire autour des cultures numériques.  Cette première édition se passe sur le territoire français ; l’édition 2015 sera à Québec. Encourageons les deux universités à l’initiative de cet évènement, Nantes et Laval (Québec), à atteindre l’objectif ambitieux annoncé de « fertiliser les échanges et les frictions créatives »

    A présent, il faut attendre le mois de juin pour avoir le programme consolidé mais une chose est sûre, j’y serai et vous ?

    Marie-Agnès Enard

  • Le professeur d’Informatique en visite au lycée

    Jean est professeur d’Informatique dans une école un peu particulière d’un quartier parisien, l’École Normale Supérieure.  Pendant ses vacances, il a fait le choix d’aller assister à trois cours d’ISN (Informatique et Sciences du Numérique) en terminale S. Voici son témoignage.

    « Merci tout d’abord à ceux qui m’ont reçu pour la chaleur de l’accueil, et l’excellente ambiance des classes. J’ai beaucoup appris. »

    À Besançon et à Pontarlier, j’ai tenté d’aider quelques élèves à préparer leurs projets ISN pour le bac (dans deux mois). Beaucoup de projets sont des jeux : Bataille navale, Pendu, Mille bornes, Mastermind… Ils sont choisis par les élèves en accord avec les professeurs. J’ai vu les élèves  se demander comment  tirer des cartes au hasard, déplacer des images sur un fond, relier son monde au clic de la souris ? …   et tenter de répondre par eux-mêmes ; découvrir le travail en groupe (par deux ou trois) ; apprendre à décomposer une tâche complexe en modules simples (réalisables en temps imparti) ; ne pas hésiter à rechercher et trouver par eux-mêmes sur Internet et ailleurs la réponse aux questions qui bloquent (convertir des images/sons au bon format, etc…). Un élève de Pontarlier avait même déjà dialogué avec un chercheur du  bureau d’accueil Inria, et reçu une réponse !

    Lors des exposés, j’ai vu aussi les élèves se poser des questions au-delà des sciences et techniques, sur les droits à l’image, la difficulté/impossibilité à effacer quoi que ce soit de déjà publié sur Internet (même en France avec la loi « Informatique et Libertés »), les techniques par lesquelles certains soi-disant artistes tentent/arrivent à nous escroquer… À Montbéliard, j’ai découvert avec les élèves comment suivre le cheminement de ces pourriels qui nous inondent tous, par des méthodes précises qui remontent au cheminement géographique du message sur Internet.isn-binaire-rayclidJe reviens convaincu que l’ISN est un enseignement porteur d’avenir pour notre pays, et décidé à faire tout ce que l’enseignant-chercheur que je puis peut faire pour contribuer. Diffuser la culture scientifique et technique est une des facettes de mon métier (article 1 du code de la recherche). Je compte rester en contact avec vous, et réciproquement. Je saurai rarement répondre par moi-même à vos questions techniques, mais je connais probablement des gens qui le peuvent.

    Le programme ISN est ambitieux ; personne n’est qualifié pour enseigner TOUT (je serais incapable d’enseigner la partie robotique) ; de plus, c’est impossible avec deux heures par semaine. Mais ce n’est pas un souci ! Apprendre le codage des objets numériques et l’algorithmique est le tronc commun de cet enseignement, enrichir cette base selon les compétences et appétences ne signifie pas être exhaustif. Cet apprentissage par la réalisation d’un projet est la partie la plus valorisante pour les élèves, et c’est aussi celle qui est notée au bac. La communauté des profs d’ISN a besoin d’une plateforme pour échanger, partager,  trouver des ressources. Le «SIL:O!» est une première réponse, à compléter par bien d’autres : Wikipédia, Euler, les collègues, …

    L’Académie de Besançon est vaste et pauvre en transports en commun. Entre Pontarlier et Montbéliard, j’ai dû affronter deux tempêtes de grésil ! Coupler deux établissements pour noter les projets ISN au bac est une excellente idée pragmatique et j’espère que l’Éducation Nationale saura prendre en compte ce principe à tous les niveaux.

    Amicalement, et à suivre …

    Jean Vuillemin

     

  • Le patient numérique personnalisé

    Nicholas Ayache nous parle de son cours au collège de France, « Le patient numérique personnalisé : images, médecine, informatique ». Un mariage de l’informatique et de la médecine,  l’image omniprésente. Il nous fait pénétrer dans des recherches parmi les plus avancées en imagerie médicale computationnelle. Il nous fait découvrir un aspect essentiel de la médecine de demain.

    1@Asclepios-Inria

    L’imagerie médicale computationnelle, à la croisée de l’informatique, des sciences numériques et de la médecine, a pour objectif de concevoir et développer des logiciels de traitement informatique des images médicales pour assister le médecin dans sa pratique clinique. Ces logiciels visent notamment à enrichir le diagnostic en extrayant, à partir des images médicales, des informations objectives et cliniquement utiles. Ils visent également à assister la pratique thérapeutique avec des algorithmes de planification et de simulation appliqués à un modèle numérique du patient.

    Mais avant de développer ces différents points, revenons un instant sur la nature même des images médicales, et sur les nombreux problèmes que pose leur exploitation.

    L’essor des images médicales

    Les images médicales sont aujourd’hui omniprésentes dans la pratique clinique courante et hospitalière. Outre les radiographies, quatre grandes modalités d’imagerie sont couramment utilisées : le scanner, l’IRM, l’échographie, ou la scintigraphie . Les images produites par ces quatre modalités sont volumiques : elles fournissent en chaque point du corps humain des informations mesurées dans un petit élément de volume appelé voxel, l’extension volumique du pixel.

    Il existe d’autres modalités d’imagerie du corps humain, et de nouvelles techniques émergent régulièrement. Citons par exemple l’élastographie qui permet de mesurer l’élasticité des tissus à partir d’IRM ou d’ultrasons, et l’endomicroscopie qui permet de visualiser l’architecture microscopique des cellules à l’extrémité de fibres optiques.

    La plupart des images médicales sont très volumineuses. L’image anatomique d’un organe, voire du corps entier peut contenir entre quelques millions et plusieurs centaines de millions de voxels (pixel en 3D), stockés dans d’immenses matrices 3-D de nombres. La quantité d’information augmente rapidement lorsque plusieurs images sont acquises sur un même patient pour exploiter la complémentarité des différentes modalités, ou pour suivre une évolution temporelle ; il s’agit alors d’images 4-D avec trois dimensions spatiales et une dimension temporelle.

    Comme si ce déluge d’images ne suffisait pas, de grandes bases de données d’images deviennent progressivement accessibles sur la Toile d’Internet. Ces images sont souvent accompagnées de métadonnées sur l’histoire du patient et sur sa pathologie.

    Le rôle de l’informatique et des sciences numériques

    Face à toutes ces images et à leur complexité, le médecin ne peut généralement extraire visuellement que des informations lacunaires et qualitatives. Les images volumiques ne sont souvent visualisées que sous la forme de coupes 2-D. Il est alors quasiment impossible de quantifier précisément le volume d’une tumeur, de détecter une anomalie isolée dans un organe entier et suivre son évolution subtile entre deux examens, ou de quantifier dans une série temporelle d’images le mouvement d’un organe dynamique comme le cœur. Il est encore plus difficile de planifier une intervention délicate sans l’aide de l’ordinateur.

    L’informatique et les sciences numériques jouent alors un rôle crucial pour exploiter de façon rigoureuse et optimale cette surabondance d’information. Elles sont essentielles pour l’analyse des images reconstruites dont le but est d’extraire de façon objective l’information cliniquement pertinente et de la présenter dans un cadre unifié et intuitif au médecin. Elles offrent également la possibilité de construire un modèle numérique du patient pour la simulation : simulation de l’évolution d’une pathologie ou de l’effet d’une thérapie par exemple, ou simulation de gestes médicaux ou chirurgicaux pour l’entrainement du praticien (réalité virtuelle). Enfin, en combinant des images pré-opératoires avec des images interventionnelles (prises pendant l’intervention), elles offrent de nouvelles capacités de visualisation qui rendent le patient virtuellement transparent (réalité augmentée) pour le guidage de gestes complexes.

    Analyse et simulation informatiques des images médicales reposent sur des algorithmes qui doivent prendre en compte la spécificité de l’anatomie et de la physiologie humaines à l’aide de modèles mathématiques, biologiques, physiques ou chimiques, adaptés à la résolution des images. Ces modèles du corps humain dépendent eux-mêmes de paramètres permettant de modifier la forme et la fonction des organes simulés. Utilisés avec un jeu de paramètres standard, les modèles sont génériques : ils décrivent et simulent la forme et la fonction moyennes des organes dans une population. Mais avec les images médicales et l’ensemble des données disponibles sur un patient spécifique, les paramètres d’un modèle générique peuvent être ajustés grâce à des algorithmes pour reproduire plus précisément la forme et la fonction des organes de cet individu. On dispose alors d’un modèle personnalisé.

    Patient numérique personnalisé et médecine computationnelle

    Le patient numérique personnalisé n’est autre que cet ensemble de données numériques et d’algorithmes permettant de reproduire à diverses échelles la forme et la fonction dynamique des principaux tissus et organes d’un patient donné. C’est aussi le cadre unifié qui permet d’intégrer les informations provenant des images anatomiques et fonctionnelles du patient, ainsi que les informations qui décrivent l’histoire singulière du patient et de sa maladie.

    Rappelons ici que les modèles numériques et personnalisés du patient sont destinés à assister le médecin dans sa pratique médicale : assister le diagnostic en quantifiant l’information présente dans les images ; assister le pronostic en simulant l’évolution d’une pathologie ; assister la thérapie en planifiant, simulant et contrôlant une intervention. Voilà ce qui préfigure la médecine computationnelle de demain, une composante informatique de la médecine destinée à assister le médecin dans l’exercice de sa pratique médicale au service du patient.

    Des images médicales au patient numérique

    Dans ma leçon inaugurale, intitulée « des images médicales au patient numérique », j’ai choisi quatre exemples qui illustrent une certaine progression des algorithmes et des modèles mis en œuvre pour exploiter les images médicales. Les deux premiers exemples, morphométrie et endomicroscopie computationnelles, relèvent du domaine de l’anatomie computationnelle. Les algorithmes utilisés s’appuient sur des modèles géométriques, statistiques et sémantiques du corps humain. Les deux exemples suivants, oncologie et cardiologie computationnelles, relèvent de la physiologie computationnelle. Leurs algorithmes s’appuient en plus sur des modèles biologiques, physiques ou chimiques du corps humain, à plusieurs échelles.

    21Tractographie dans des images IRM de diffusion
    pour révéler la connectivité du cerveau. @Asclepios-Inria

    22Divergence du flux de déformation dans l’évolution de la maladie d’Alzheimer:
    la couleur représente les régions changeant de volume @Asclepios-Inria

    23Variabilité des sillons corticaux mesurée sur 98 cerveaux sains,
    les zones rouges étant les zones de plus forte variabilité @Asclepios-Inria

    Exemple 1 : Morphométrie Computationnelle

    À l’aube du 21ème siècle, l’anatomie descriptive devient statistique. L’informatique et les sciences numériques permettent d’exploiter de larges bases de données d’images médicales pour construire des atlas statistiques 3-D de l’anatomie des organes. Ils permettent ainsi de quantifier la variabilité de la forme du cortex cérébral, ou celle de la structure des ventricules cardiaques. La dimension temporelle peut être prise en compte, pour construire des atlas statistiques 4-D, qui capturent l’évolution statistique des formes anatomiques avec le temps, et permettent par exemple de construire des algorithmes capables de quantifier l’atrophie anormale du cerveau dans la maladie d’Alzheimer. L’imagerie computationnelle joue ici le rôle d’un microscope informatique qui permet de révéler des informations cliniquement pertinentes qui sont peu ou pas visibles dans les images médicales originales.

    3Atlas Intelligent en endomicroscopie :
    à la présentation  de l’image de la première ligne,  les images visuellement similaires
    s’affichent automatiquement avec leur diagnostic
    @maunakeatech

    Exemple 2 : Endomicroscopie Computationnelle

    De nouvelles technologies d’imagerie permettent d’acquérir des images de résolution microscopique des tissus à l’intérieur du corps humain. L’informatique est appelée à la rescousse pour améliorer la qualité des images, pour augmenter le champ de vue tout en préservant la résolution grâce à des algorithmes de mosaïques numériques, et enfin en développant le concept d’atlas intelligent : il s’agit de conserver une grande base de données d’images déjà interprétées, et d’utiliser des algorithmes d’indexation d’images par leur contenu pour rapprocher d’une nouvelle image les images de la base de données les plus similaires. Les atlas intelligents pourraient se généraliser à de très nombreuses formes d’images médicales dans le futur.

    4142Modèle computationnel personnalisé
    de croissance d’une tumeur cérébrale @Asclepios-Inria

    Exemple 3 : Oncologie Computationnelle

    Des modèles numériques de tumeurs cérébrales sont développés pour mieux exploiter les observations fournies par les images médicales. Ces modèles incluent une composante physiopathologique qui décrit l’évolution de la densité des cellules tumorales dans les tissus cérébraux du patient. Une fois ces modèles personnalisés, des algorithmes permettent de mieux quantifier l’évolution passée de la tumeur, et sous certaines hypothèses, de mieux prédire son infiltration et son évolution future. Les modèles peuvent être enrichis pour guider la planification thérapeutique, notamment en radiothérapie. Ils peuvent également servir à construire des bases de données d’images de tumeurs virtuelles, utilisées pour entrainer des algorithmes d’apprentissage statistique à interpréter automatiquement les images de tumeurs réelles.

     51Maillage de calcul des 4 cavités cardiaques p
    our la simulation électromécanique du cœur @Asclepios-Inria

    52Orientations des fibres cardiaques mesurées in vivo
    par IRM de diffusion @Asclepios-Inria

    Exemple 4 : Cardiologie Computationnelle

    Les modèles numériques du cœur permettent de simuler son activité électrique et mécanique, ainsi que le mouvement 4-D qui en résulte. Ces modèles peuvent être personnalisés grâce à des images médicales dynamiques, et des mesures de pression et d’électrophysiologie pour l’instant assez invasives (utilisation de cathéters endovasculaires). Les modèles personnalisés permettent à des algorithmes de quantifier la fonction cardiaque, et de prédire certains risques d’arythmie. Ils permettent dans certaines conditions de prédire le bénéfice attendu de certaines thérapies, par exemple la pose d’une prothèse vasculaire dans une artère coronaire, ou l’implantation d’un stimulateur cardiaque destiné à resynchroniser le mouvement des ventricules. Des prototypes permettent déjà à des algorithmes de simuler de façon interactive certains gestes de cardiologie interventionnelle destinés à corriger des arythmies.

    6162Modèle computationnel du foie pour la réalité augmentée
    et la réalité virtuelle @Ircad-Inria, @Asclepios-Inria

    L’imagerie médicale computationnelle, à la croisée de l’informatique et de l’imagerie médicale, fournit de nouveaux outils numériques au service du médecin et du patient, dans le cadre plus large de la médecine computationnelle.
    Les progrès actuels dans ces domaines permettent d’entrevoir comment l’informatique et les sciences numériques peuvent accompagner le passage d’une médecine normalisée et réactive à une médecine plus personnalisée, préventive et prédictive . Ils reposent en grande partie sur des avancées algorithmiques en traitement d’images et dans la modélisation numérique de l’anatomie et de la physiologie du corps humain.
    Les cours à venir, ainsi que les séminaires et le colloque de clôture approfondiront les fondements algorithmiques, mathématiques et biophysiques de ce domaine de recherche en plein essor, tout en illustrant son caractère pluridisciplinaire et ses avancées les plus récentes. On y retrouvera des scientifiques et des médecins de spécialités variées, au chevet du patient numérique.

    Nicholas Ayache, Inria et professeur au Collège de France