Catégorie : Science

  • Un informaticien Médaille d’or du CNRS 2014 : Gérard Berry

    college2

    Annonce par Alain Fuchs, président du CNRS.

    Voir un article récent dans Binaire : l’informatique s’installe au college de france

    Et sa page dans Wikipédia.

    La médaille d’or du CNRS est la plus haute distinction scientifique française. Elle est décernée par le Centre national de la recherche scientifique (CNRS) tous les ans depuis sa création en 1954. Elle récompense « une personnalité scientifique qui a contribué de manière exceptionnelle au dynamisme et au rayonnement de la recherche ».

    Gérard a apporté des contributions majeures en sciences informatiques. Grâce à ses collègues et lui, nous comprenons mieux, par exemple, comment fonctionne un système numérique (logiciel et/ou matériel) qui interagit en temps-réel avec son environnement et comment on peut garantir la logique de son fonctionnement.
    Et depuis que Gérard est devenu un scientifique académicien célèbre, il fait cette chose exemplaire de mettre sa notoriété au service du partage de la culture scientifique pour permettre à chacune et chacun de comprendre « pourquoi et comment le monde devient numérique ».

  • Cod cod coding à Nancy

    codcodcoding-logoCod Cod Coding ? C’est le nom de la toute nouvelle activité de programmation créative récemment qui vient d’éclore au sein de la MJC centre social Nomade à Vandoeuvre-lès-Nancy.

    Avec Cod cod coding, les poussins à partir de 8 ans peuvent inventer des jeux, des histoires animées, ou simuler des robots avec l’ordinateur.  Le partage d’une culture scientifique en informatique est-il un problème de poule et d’œuf ?  Comment ceux qui ne sont pas du tout initiés aux sciences du numérique peuvent-ils comprendre la pertinence et la nécessité de partager des sciences du numérique ? Voire même une source de querelles de poulaillers ? Est-ce que nos mômes seront initiés à ces sciences du XXième siècle quand les poules auront des dents ? Plus maintenant !

    codcodcoding-vueatelierBien loin de ces prises de bec et sans jamais casser d’œufs, un jeune chercheur en sciences informatiques consacre une partie de son activité à permettre aux enfants de découvrir, en jouant, comment faire éclore des bout de logiciels pour co-créer le monde numérique de demain.  Avec le logiciel Scratch, ils apprennent : la logique, l’algorithmique, le codage numérique de l’information. Ils auront même le droit de se tromper pour trouver des solutions (seul ou avec ses voisin(e)s), personne n’est là pour leur voler dans les plumes !! Oui, apprendre le code, c’est aussi une seconde chance de picorer quelques grains de science, y compris pour ceux qui sont plus ou moins à l’écart du nid scolaire.

    Et pour en savoir plus, rendez-vous sur le blog associé à cette activité,  une poule aux œufs d’or pour partager les réalisations des participants ! Voir aussi comment faire de l’informatique en primaire, comme nous l’explique Martin Quinson. Et si vous cherchez un lieu de ce type près de chez vous : rendez-vous sur jecode.org qui offre une carte de France de ces initiatives.

    Florent Masseglia et Véronique Poirel, propos recueillis par Thierry Viéville  et Marie-Agnès Enard.

    codcodcoding-tweets

  • Comment l’informatique a révolutionné l’astronomie

    Françoise Combes, astronome à l’Observatoire de Paris et membre de l’Académie des Sciences (lien Wikipédia), a un petit bureau avec un tout petit tableau blanc, des étagères pleines de livres, un sol en moquette, et deux grandes colonnes de tiroirs étiquetées de sigles mystérieux. Au mur, des photos de ciels étoilés. Elle parle avec passion de son domaine de recherche, et met en exergue le rôle fondamental qu’y joue l’informatique.
    Entretien réalisé par Serge Abiteboul et Claire Mathieu

    fc-aug02

    La naissance des galaxies…

    B : Peux-tu nous parler de tes sujets de recherche ? Vu de l’extérieur, c’est extrêmement poétique : « Naissance des galaxies », « Dynamique de la matière noire » …
    FC : La question de base, c’est la composition de l’univers. On sait maintenant que 95% est fait de matière noire, d’énergie noire, et très peu de matière ordinaire, qui ne forme que les 5% qui restent. Mais on ignore presque tout de cette matière et de cette énergie noire. Les grands accélérateurs, contrairement à ce qu’on espérait, n’ont pas encore trouvé les particules qui forment la matière noire. On a appris vers l’an 2000 grâce aux supernovae que l’expansion de l’univers était accélérée. Mais la composition de l’univers que l’on connaissait alors ne permettait pas cette accélération ! Il fallait un composant pouvant fournir une force répulsive, et c’est l’énergie noire qui n’a pas de masse, mais une pression négative qui explique l’accélération de l’expansion de l’univers. On cherche également maintenant de plus en plus en direction d’autres modèles cosmologiques qui n’auraient pas besoin de matière noire, des modèles de « gravité modifiée ».

    B : Cette partie de ton travail est surtout théorique ?
    FC : Non, pas seulement, il y a une grande part d’observation, indirecte évidemment, observation des traces des composants invisibles sur la matière ordinaire. On observe les trous noirs grâce à la matière qu’il y a autour. Les quasars, qui sont des trous noirs, sont les objets les plus brillants de l’univers. Ils sont au centre de chaque galaxie, mais la lumière piégée par le trou noir n’en sort pas ; c’est la matière dans le voisinage immédiat, qui tourne autour, et progressivement tombe vers le trou noir en spiralant, qui rayonne énormément. Ce qui est noir et invisible peut quand même être détecté et étudié par sa « signature » sur la matière ordinaire associée.
    Pour mieux étudier la matière noire et l’énergie noire, plusieurs télescopes en construction observeront pratiquement tout le ciel à partir des années 2018-2020, comme le satellite européen Euclid, ou le LSST (Large Synoptic Survey Telescope) et le SKA (Square Kilometer Array). Le LSST par exemple permettra d’observer l’univers sur un très grand champ (10 degrés carrés), avec des poses courtes de 15 secondes pendant 10 ans. Chaque portion du ciel sera vue environ 1000 fois. Même dans une nuit, les poses reviendront au même endroit toutes les 30 minutes, pour détecter les objets variables : c’est une révolution, car avec cet outil, on va avoir une vue non pas statique mais dynamique des astres. Cet instrument fantastique va détecter des milliers d’objets variables par jour, comme les supernovae, sursauts gamma, astéroides, etc. Il va regarder tout le ciel en 3 jours, puis recommencer, on pourra sommer tous les temps de pose pour avoir beaucoup plus de sensibilité.
    Chaque nuit il y aura 2 millions d’alertes d’objets variables, c’est énorme ! Ce n’est plus à taille humaine. Il faudra trier ces alertes, et le faire très rapidement, pour que d’autres télescopes dans le monde soient alertés dans la minute pour vérifier s’il s’agit d’une supernova ou d’autre chose. Il y aura environ 30 « téraoctets » de données par nuit !  Des supernovae, il y en aura environ 300 par nuit sur les 2 millions d’alertes. Pour traiter ces alertes, on utilisera des techniques d’apprentissage (« machine learning »).

    B : Qui subventionne ce matériel ?
    FC : Un consortium international dont la France fait partie et où les USA sont moteur, mais il y a aussi des sponsors privés. Le consortium est en train de construire des pipelines de traitement de données, toute une infrastructure matérielle et logicielle.

    A273

    La place de l’informatique

    B : La part du « matériel informatique » dans ce télescope est très importante ?
    FC : Le télescope lui-même, de 8m de diamètre, est assez ordinaire. L’innovation est dans l’optique et les instruments pour avoir un grand champ, qui sont une partie importante du coût ; les images seront prises simultanément avec six filtres de couleur. Le traitement des données nécessite des super ordinateurs qui forment une grande partie du coût.

    B : Alors, aujourd’hui, une équipe d’astronomes, c’est pluridisciplinaire ?
    FC : Oui, mais c’est aussi très mutualisé. Il y a des grands centres (Térapix à l’Institut d’Astrophysique de Paris par exemple) pour gérer les pipelines de données et les analyser avec des algorithmes. Ainsi, on se prépare actuellement à dépouiller les données d’Euclid, le satellite européen qui sera lancé en 2020, dont le but est de tracer la matière noire et l’énergie noire, notamment avec des lentilles gravitationnelles. Les images des millions de galaxies observées seront légèrement déformées, car leur lumière est déviée par les composants invisibles sur la ligne de visée; il faudra reconstituer la matière noire grâce cette déformation statistique.

    B : Quels sont les outils scientifiques de base ? Des mathématiques appliquées ?
    FC : Oui. La physique est simple. Les simulations numériques de formation des galaxies dans un contexte cosmologique sont gigantesques : il s’agit de problèmes à  N-corps avec 300 milliards de corps qui interagissent entre eux ! Le problème est résolu par des algorithmes basés soit sur les transformées de Fourier soit sur un code en arbre, et à chaque fois le CPU croît en N log N. On fait des approximations, des développements en multi-pôles. En physique classique, ou gravité de Newton, cela va vite. Mais pour des simulations en gravité modifiée, là, c’est plus compliqué, il y a des équations qui font plusieurs pages. Il y a aussi beaucoup de variantes de ces modèles, et il faut éviter de perdre son temps dans un modèle qui va se révéler irréaliste, ou qui va être éliminé par des observations nouvelles. Il y a donc des paris à faire.

    B : Tu avais dit que vous n’étiez pas uniquement utilisateurs d’informatique, qu’il y a des sujets de recherche, spécifiquement en informatique, qui découlent de vos besoins ?
    FC : Je pensais surtout à des algorithmes spécifiques pour résoudre nos problèmes particuliers. Par exemple, sur l’époque de ré-ionisation de l’univers. Au départ l’univers est homogène et très chaud, comme une soupe de particules chargées, qui se recombinent en atomes d’hydrogène neutre, dès que la température descend en dessous de 3000 degrés K par expansion, 400 000 ans après le Big Bang. Suit une période sombre et neutre, où le gaz s’effondre dans les galaxies de matière noire, puis les premières étoiles se forment et ré-ionisent l’univers. Ce qu’on va essayer de détecter, (mais ce n’est pas encore possible actuellement) c’est les signaux en émission et absorption de l’hydrogène neutre, pendant cette période où l’univers est constitué de poches neutres et ionisées, comme une vinaigrette avec des bulles de vinaigre entourées d’huile. C’est pour cela que les astronomes sont en train de construire le « square kilometer array » (SKA). Avec ce télescope en ondes radio, on va détecter l’hydrogène atomique qui vient du début de l’univers, tout près du Big bang ! Moins d’un milliard d’années après le Big bang, son rayonnement est tellement décalé vers le rouge (par l’expansion) qu’au lieu de 21cm, il a 2m de longueur d’onde ! Les signaux qui nous arrivent vont tous à la vitesse de la lumière, et cela met 14 milliards d’années à nous parvenir – c’est l’âge de l’univers.
    Le téléscope SKA est assez grand et sensible pour détecter ces signaux lointains en onde métrique, mais la grande difficulté vient de la confusion avec les multiples sources d’avant-plan : le signal qu’on veut détecter est environ 10000 fois inférieur aux rayonnements d’avant-plan. Il est facile d’éliminer les bruits des téléphones portables et de la ionosphère, mais il y a aussi tout le rayonnement de l’univers lui-même, celui de la Voie lactée, des galaxies et amas de galaxies. Comment pourra-t-on pêcher le signal dans tout ce bruit? Avec des algorithmes. On pense que le signal sera beaucoup plus structuré en fréquence que tous les avant-plans. On verra non pas une galaxie en formation mais un mélange qui, on l’espère, aura un comportement beaucoup plus chahuté que les avant-plans, qui eux sont relativement lisses en fréquence. Faire un filtre en fréquence pourrait a priori être une solution simple, sauf que l’observation elle-même avec l’interféromètre SKA produit des interférences qui font un mixage de mode spatial-fréquentiel qui crée de la structure sur les avant-plans. Du coup, même les avant-plans auront de la structure en fréquence. Alors, on doit concevoir des algorithmes qui n’ont jamais été développés, proches de la physique. C’est un peu comme détecter une aiguille dans une botte de foin. Il faut à la fois des informaticiens et des astronomes.

    Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.

    Arp87Le couple de galaxies en interaction Arp 87,
    image du Hubble Space Telescope (HST), Credit NASA-ESA

    B : Cela veut-il dire qu’il faut des astronomes qui connaissent l’informatique ?
    FC : Les astronomes, de toute façon, connaissent beaucoup d’informatique. C’est indispensable aujourd’hui. Rien que pour faire les observations par télescope, on a besoin d’informatique. Par exemple le télescope SKA (et  son précurseur LOFAR déjà opérationnel aujourd’hui à Nançay) est composé de « tuiles » qui ont un grand champ et les tuiles interfèrent entre elles. Le délai d’arrivée des signaux provenant de l’astre observé sur les différentes tuiles est proportionnel à l’angle que fait l’astre avec le zénith. Ce délai, on le gère de façon numérique. Ainsi, on peut regarder dans plusieurs directions à la fois, avec plusieurs détecteurs. Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.
    Un astronome va de moins en moins observer les étoiles et les galaxies directement sur place, là où sont les télescopes. Souvent les observations se font à distance, en temps réel. L’astronome contrôle la position du télescope à partir de son bureau, et envoie les ordres d’observation par internet. Les résultats, images ou spectres arrivent immédiatement, et permettent de modifier les ordres suivants d’observation. C’est avec les télescopes dans l’espace qu’on a démarré cette façon de fonctionner, et cela s’étend maintenant aux télescopes au sol.
    Ce mode d’observation à distance en temps réel nécessite de réserver le télescope pendant une journée ou plus pour un projet donné, ce qui n’optimise pas le temps de télescope. Il vaut mieux avoir quelqu’un sur place qui décide, en fonction de la météo et d’autres facteurs, de donner priorité à tel ou tel utilisateur. Du coup on fait plutôt l’observation en différé, avec des opérateurs sur place, par « queue scheduling ». Les utilisateurs prévoient toutes les lignes du programme (direction, spectre, etc.) qui sera envoyé au robot, comme pour le temps réel, mais ce sera en fait en différé. L’opérateur envoie le fichier au moment optimum et vérifie qu’il passe bien.
    Selon la complexité des données, la calibration des données brutes peut être faite dans des grands centres avec des super computers. Ensuite, l’astronome reçoit par internet les données déjà calibrées. Pour les réduire et en tirer des résultats scientifiques, il suffit alors de petits clusters d’ordinateurs locaux. Par contre, les super computers sont requis pour les simulations numériques de l’univers, qui peuvent prendre des mois de calcul.
    Que ce soit pour les observations ou les simulations, il faut énormément d’algorithmes. Leur conception se fait en parallèle de la construction des instruments. Les algorithmes sont censés être prêts lorsque les instruments voient le jour. Ainsi, lorsqu’un nouveau télescope arrive, il faut qu’il y ait déjà par exemple tous les pipelines de calibrations. Cette préparation est un projet de recherche à part entière. Tant qu’on n’a pas les algorithmes, l’instrument ne sert à rien: on ne peut pas dépouiller les données. Les progrès matériels doivent être synchronisés avec les progrès des algorithmes.

    B : Est-ce que ce sont les mêmes personnes qui font la simulation de l’univers et qui font l’analyse des images ?
    FC : Non, en général ce sont des personnes différentes. Pour la simulation de l’univers, on est encore très loin du but. Les simulations cosmologiques utilisent quelques points par galaxie, alors qu’il y a des centaines de milliards d’étoiles dans chaque galaxie. Des « recettes » avec des paramètres réalistes sont inventées pour suppléer ce manque de physique à petite-échelle, sous la grille de résolution. Si on change quelques paramètres libres, cela change toute la simulation. Pour aller plus loin, il nous faut aussi faire des progrès dans la physique des galaxies. Même dans 50 ans, nous n’aurons pas encore la résolution optimale.

    B : Comment évalue-t-on la qualité d’une simulation ?
    FC : Il y a plusieurs équipes qui ont des méthodes complètement différentes (Eulérienne ou « Adaptive Mesh Refinement » sur grille, ou Lagrangienne, code en arbre avec particules par exemple), et on compare leurs méthodes. On part des mêmes conditions initiales, on utilise à peu près les mêmes recettes de la physique, on utilise plusieurs méthodes. On les compare entre elles ainsi qu’avec les observations.

    Crab_xrayImage en rayons X du pulsar du Crabe, obtenue
    avec le satellite CHANDRA, credit NASA

    B : Y a-t-il autre chose que tu souhaiterais dire sur l’informatique en astronomie ?
    FC : J’aimerais illustrer l’utilisation du machine learning pour les pulsars. Un pulsar, c’est une étoile à neutron en rotation, la fin de vie d’une étoile massive. Par exemple, le pulsar du crabe est le résidu d’une supernova qui a explosé en l’an 1000. On a déjà détecté environ 2000 pulsars dans la Voie lactée, mais SKA pourra en détecter 20000 ! Il faut un ordinateur pour détecter un tel objet, car il émet des pulses, avec une période de 1 milliseconde à 1 seconde. Un seul pulse est trop faible pour être détecté, il faut sommer de nombreux pulses, en les synchronisant. Pour trouver sa période, il faut traiter le signal sur des millions de points, et analyser la transformée de Fourier temporelle. L’utilité de ces horloges très précises que sont les pulsars pour notre compréhension de l’univers est énorme. En effet, personne n’a encore détecté d’onde gravitationnelle, mais on sait qu’elles existent. L’espace va vibrer et on le verra dans le 15e chiffre significatif de la période des pulsars. Pour cela on a besoin de détecter un grand nombre de pulsars qui puissent échantillonner toutes les directions de l’univers. On a 2 millions de sources (des étoiles) qui sont candidates. C’est un autre exemple où il nous faut des algorithmes efficaces, des algorithmes de machine learning.

    sextet-seyfert-hstLe groupe compact de galaxies, appelé le Sextet
    de Seyfert, image du Hubble Space Telescope (HST), Credit NASA-ESA

    Hier et demain

    B : L’astronomie a-t-elle beaucoup changé pendant ta carrière ?
    FC : Énormément. Au début, nous utilisions déjà l’informatique mais c’était l’époque des cartes perforées.

    B : L’informatique tenait déjà une place ?
    FC : Ah oui. Quand j’ai commencé ma thèse en 1976 il y avait déjà des programmes pour réduire les données. Après les lectrices de cartes perforées, il y a eu les PC. Au début il n’y avait même pas de traitement de texte ! Dans les années qui suivirent, cela n’a plus trop changé du point de vue du contact avec les écrans, mais côté puissance de calcul, les progrès ont été énormes. L’astrophysique a énormément évolué en parallèle. Par exemple pour l’astrométrie et la précision des positions : il y a 20ans, le satellite Hipparcos donnait la position des étoiles à la milliseconde d’arc mais seulement dans la banlieue du soleil. Maintenant, avec le satellite GAIA lancé en 2013, on va avoir toute la Voie lactée. Qualitativement aussi, les progrès sont venus de la découverte des variations des astres dans le temps. Avant tout était fixé, statique, maintenant tout bouge. On remonte le temps aujourd’hui jusqu’à l’horizon de l’univers, lorsque celui-ci n’avait que 3% de son âge. Toutefois, près du Big bang on ne voit encore que les objets les plus brillants. Reste à voir tous les petits. Il y a énormément de progrès à faire.

    B : Peut-on attendre des avancées majeures dans un futur proche ?
    FC : C’est difficile à prévoir. Étant donné le peu que l’on sait sur la matière noire et l’énergie noire, est-ce que ces composants noirs ont la même origine ? On pourrait le savoir par l’observation ou par la simulation. La croissance des galaxies va être différente si la gravité est vraiment modifiée. C’est un grand défi. Un autre défi concerne les planètes extrasolaires. Actuellement il y en a environ 1000 détectées indirectement. On espère « imager » ces planètes. Beaucoup sont dans des zones théoriquement habitables – où l’eau est liquide, ni trop près ni trop loin de l’étoile. On peut concevoir des algorithmes d’optique (sur les longueurs d’onde) pour trouver une planète très près de l’étoile. Des instruments vont être construits, et les astronomes préparent les pipelines de traitement de données.

    Le public

    B : Il y a beaucoup de femmes en astrophysique?
    FC : 30% en France mais ce pourcentage décroît malheureusement. Après la thèse, il faut maintenant faire 3 à 6 années de post doctorat en divers instituts à l’étranger avant d’avoir un poste, et cette mobilité forcée freine encore plus les femmes.

    B : Tu as écrit récemment un livre sur la Voie lactée?
    FC : Oui, c’est pour les étudiants et astronomes amateurs. Il y a énormément d’astronomes amateurs – 60000 inscrits dans des clubs d’astronomie en France. Quand je fais des conférences grand public, je suis toujours très étonnée de voir combien les auditeurs connaissent l’astrophysique. C’est de la semi-vulgarisation. Ils ont déjà beaucoup lu par exemple sur Wikipédia.

    B : Peuvent-ils participer à la recherche, peut-être par des actions de type « crowd sourcing »?
    FC : Tout à fait. Il y a par exemple le « Galaxy zoo ». Les astronomes ont mis à disposition du public des images de galaxies. La personne qui se connecte doit, avec l’aide d’un système expert, observer une image, reconnaître si c’est une galaxie, et définir sa forme. Quand quelqu’un trouve quelque chose d’intéressant, un chercheur se penche dessus. Cela peut même conduire à un article dans une revue scientifique. L’interaction avec le public m’intéresse beaucoup. C’est le public qui finance notre travail ; le public est cultivé, et le public doit être tenu au courant de toutes les merveilles que nous découvrons.

     stephanLe groupe compact de galaxies, appelé le Quintet
    de Stepĥan, image du Hubble Space Telescope (HST), Credit NASA-ESA

  • La science ne peut s’accommoder de certaines idées

    Dans Grand-peur et misère du IIIe Reich, Brecht nous indiquait comment la science ne pouvait s’accommoder de certaines idées. Il montrait également comment ces idées pénètrent une société, même quand elles y sont arrivées de façon tout à fait démocratique.
    Binaire est un Blog Scientifique. Il pourrait donc se contenter de regarder dans une autre direction, décider que les résultats électoraux en France n’ont aucun rapport avec Science et Technologie.

    Questionnements sur la montée du totalitarisme, mis en scène par Estelle Bordaçarre et joué par la jeune Compagnie Emoi ©Jolimome  

    Ou bien, il peut penser que si, justement, il y a un rapport.

    Si le lecteur de Binaire pense autrement, qu’il reste sur le site et nous continuerons à parler science et technologie. S’il accepte de voir un rapport, nous l’invitons à nous suivre sur ce lien externe.

    Colin, Eric, Marie-Agnès, Pierre, Serge, Sylvie et Thierry.

  • Le samouraï de Villeneuve la Garenne

    Quand j’ai visité Simplon, je suis resté sur ma faim. Je n’avais pas assez causé avec les élèves. Alors j’ai contacté Rodolphe (Rodolphe Duterval) et lui ai proposé de le retrouver pour un verre. C’est un élève de la première promo de Simplon.co à Montreuil… Un élève un peu particulier : je vais plus parler de lui comme enseignant que comme élève. Mais après tout, le brouillage du fossé entre élèves et enseignants, n’est-ce pas aussi un aspect de Simplon ?

    rodolpheRodolphe © Nicolas Friess

    Rodolphe est particulier parce qu’il a déjà suivi 4 ans d’une école d’ingénieur avant de laisser tomber pour atterrir à Simplon, confronté à la difficulté de trouver un stage, attiré par l’esprit entrepreneurial. Donc, contrairement à la plupart des autres, il ne part pas de zéro en informatique. Comme il s’accaparait Ruby on Rail plus vite que ses potes, les profs de Simplon lui ont proposé comme stage de partir évangéliser Villeneuve la Garenne.

    Rodolphe s’est dit : j’aime enseigner ; je vais peut-être me découvrir une vocation. Pourquoi pas ?

    vlgla cité de La Noue à Villeneuve la Garenne  © Nicolas Friess

    La destinée: la cité de La Noue a été originellement conçue par son architecte sur le modèle… d’un micro-processeur !

    Le cadre de l’insertion à VlG
    Les élèves sont une quinzaine pour suivre une formation rémunérée de six mois de développeur informatique. Ils ont entre 19 et 25 ans, « plus ou moins » le niveau bac, et niveau 0 en informatique. (Merci l’éducation nationale ; il est commun en France en 2014 de quitter l’éducation gratuite, laïque et obligatoire sans rien savoir en informatique.). Ses élèves sont pour certains décrocheurs ; ils cherchent tous vaguement leur voie – traduire, ils galèrent. Une association spécialisée dans l’économie sociale et solidaire, Pôle Solidaire, les a pris en contrat d’avenir, et fournit la salle. Les machines viennent de Simplon – c’est de la récup d’un labo pharmaceutique. Elles tournent Linux et rien d’autre : Rodolphe n’est-il pas ici pour évangéliser ?

    1404_simplon__NFR0387Photo d’élèves peut-être en cours © Nicolas Friess

    La pédagogie
    On se débarrasse vite fait des concepts et « vas-y ! ». Le plus difficile est de les garder concentrés. Et pour ça, il faut qu’ils fassent. Ils aiment aussi les belles histoires et Rodolphe est le king du story telling : « Si tu as une bonne idée, et si tu as la technique, tu peux devenir le roi du couscous ; C’est l’histoire d’un jeune Bill Gates qui passait tout son temps sur les ordinateurs, séchait les cours, avait des tas de problèmes à l’école…».  Les problèmes à l’école, ils connaissent. Avec Rodolphe, ils découvrent l’ordinateur. Et il ne leur vent pas du rêve. Lui ne peut que leur amener la technique ; il faut qu’ils bossent dur s’ils veulent réussir. Alors ils bossent.
    C’est plus la motivation que les neurones qui risque de manquer. Mais, alors que les 6 mois touchent à leur fin, tout va bien. Ils ont bien eu un peu de problème avec l’anglais, mais l’ambiance est au beau fixe, l’absentéisme anormalement faible (ce que l’on remarque souvent dans ce genre de formations). Pire, le soir, ils n’arrivent pas à se décoller du clavier. La programmation, c’est addictif ? Très probablement.
    En tous cas, ils ont progressé plus vite que prévu. Ils bossent sur de vrais projets de sites Web, pour des associations locales. Oui ! Ils y arrivent !

    Les débouchés visés
    Il faut qu’à la fin des six mois, ils soient « employables » comme « opérateur système ». Rodolphe reconnaît que ça ne veut pas dire grand-chose. Ils sauront faire un site Web et filer un coup de main aux handicapés de l’ordinateur et d’Internet (ça, ça ne manque pas). Ils seront à l’aise avec un clavier et un programme ; ils pourront tenir des jobs de médiateur numérique, de référant digital. Ils pourront être utiles dans des petites entreprises ou des associations. Et parmi eux, certains, les plus tenaces, les plus brillants deviendront de vrais développeurs. Tous auront changé.


    Nous sommes une communauté de lutteurs, samouraïs, Maitres de l’air, et les codeurs de sumo.
    Nous devenons meilleurs en programmation information en résolvant des problèmes @codersumo

    Et Rodolphe ?
    Il aime partager ce qu’il a appris, donc le job d’enseignant lui plait bien. Mais il aimerait aussi être plus créatif. Il a l’ambition de devenir un de ces supers développeurs, un vrai, de cette aristocratie qui savent faire naitre des programmes, complexes, beaux, novateurs. Alors, en attendant, il lit, il apprend, et il fait des katas sur codersumo.com. Et si vous avez un truc sympa à lui proposer, envoyez le à binaire qui fera suivre.

    Serge Abiteboul

  • Real Humans ?

    Dans un article du journal du CNRS, Raja Chatila, un chercheur en robotique, replace dans son vrai contexte la très attrayante série real humans que propose Arte. C’est une série qui « ne parle pas de robotique » mais utilise la robotique comme une fable pour nous aider à regarder notre humanité en miroir de ces êtres imaginaires.

    Raja nous explique que « ces machines sont extrêmement loin de la réalité ou même d’un futur éventuel » :

    • La notion de droit pour les robots est une absurdité, car ce sont bien des humains qui les ont conçus, développés et utilisés, donc qui sont juridiquement responsables de leurs agissements ;
    • La notion de conscience pour une machine est un oxymore, alors qu’on « ne sait même pas [complètement] définir la conscience chez les êtres humains» ;
    • Choisir de laisser un robot décider seul est un non-sens, car il y a bien une décision humaine : celle d’utiliser le résultat de l’algorithme de calcul sans chercher à l’analyser.

    Raja rappelle que les «risques de confusion entre le vivant et le non-vivant » est un sujet d’étude en soi. La vraie question est posée.

    Pinocchio de bois, Florence (dès que la fée passera ces patins seront humains ) ©Vladimir Menkov

    Nous sommes bien loin de ceux qui, personnifiant les objets numériques (machines, algorithmes, …), se perdent dans des débats illusoires ou confondent un résultat scientifique avec un coup de bluff médiatique.  Le dernier, « On a réussi le test de Turing », est démystifié par Jean-Paul Delahaye dans un joli billet.

    Raja est bien un chercheur à la pointe de la robotique et de l’intelligence mécaniste (dite souvent intelligence artificielle). Ce sont des scientifiques comme lui dont les travaux extrêmement sophistiqués permettent aux industriels de faire les robots qui changent notre vie, ceux qui la changeront encore plus demain. Ces objets numériques et mécaniques seront probablement plus des objets connectés intégrés à notre environnement quotidien que des marionnettes animées.

    Thierry Viéville.

  • Mon pote le robot

    Parlons de la découverte de la robotique à l’école primaire, quand la recherche se met au service de l’éducation. Didier Roy est un professeur de mathématiques du XXIe siècle. Il enseigne les sciences du numérique. Accueilli comme chercheur en optimisation et personnalisation des apprentissages au sein d’une équipe de recherche en robotique d’Inria Bordeaux Sud-Ouest, Flowers, son travail* fait de la robotique un outil d’éveil scientifique.

    Entrez avec nous dans la salle de classe.

    Nous sommes un mardi. Il est 15h45. Cet après-midi de printemps est radieux. Il doit être génial de jouer dehors. Pourtant, Lola, Safina et Oscar n’ont pas l’intention de sortir tout de suite de la salle de classe.

    Posé sur la table devant eux, un étrange objet** fait d’étranges choses. Il avance, tourne à gauche, à droite, recule, jette des éclairs de lumière verte, bleue ou rouge, émet des petits sons graves ou aigus, court ou longs.

    robot-thymio-2« C’est n’importe quoi », pense Oscar. Quarante secondes plus tard, il se demande s’il n’y a pas quelque chose à comprendre là-dedans. D’accord, mais quoi ? Au bout de 10 minutes, la petite équipe perce une première épaisseur de mystère : en appuyant sur les boutons on peut changer ce que fait le machin sur la table, on peut choisir son comportement.
    Quand il émet une couleur verte, il a aussi tendance à suivre un objet qui est devant lui, à être « amical ». « D’accord pour amical. On pourrait même dire collant ! » remarque Safina.

    Quand la couleur est rouge, impossible de l’approcher, il fuit sans arrêt. Ça doit être le mode « trouillard » dit Lola en rigolant.

    Pour le comportement bleu, c’est plus compliqué. On a beau avoir 8 ans, on ne sait pas tout.

    — Peut-être qu’il faut lui chanter quelque chose ? avance Safina.
    — Ou lui dire un mot spécial, ou lui tirer la langue ! répond Oscar en faisant des gestes. Comment on peut savoir ?
    — Ben, en réfléchissant et en essayant, à mon avis. Faisons une liste de ce qu’on pense, dit Lola.

    Les voilà d’accord. Une liste des catégories de choses à tester est commencée. La méthode prend forme, ils commencent à tester des mots, puis des gestes, mais le champ des possibilités est tellement vaste… Ils cherchent d’autres pistes, si possible offrant moins d’aléatoire. Il leur semble avoir (presque) tout essayé quand Safina se rappelle qu’on leur a aussi donné des trucs en même temps que le machin. Des cubes, des petites quilles et une feuille avec une espèce de circuit tracé en noir. Elle pose le robot sur le circuit. Et là, devant leurs yeux écarquillés, le machin se met à suivre la ligne noire en se balançant tout au long, comme un chien qui suit une piste le museau collé au sol. « Trop fort, le machin ! »

    Il faut maintenant franchir le deuxième cercle de mystère. Comment fonctionnent les comportements ? Par exemple, l’« amical ». Les enfants tombent d’accord en moins de deux minutes. Sur le devant du machin se trouvent comme de toutes petites fenêtres, qui détectent s’il y a un objet. S’il y en a un, il avance, s’il n’y a en a pas, il ne fait rien.

    Ça marche avec toutes les fenêtres ou pas ? Avec des objets différents ? Afin d’en savoir plus, on discute et s’accorde sur une série de tests à faire, un seul doigt devant une seule fenêtre, deux doigts devant deux fenêtres… À l’issue de l’expérience, c’est clair : n’importe quel nombre de n’importe quels objets devant n’importe quel nombre de n’importe quelles fenêtres fait avancer le robot !

    — Je le savais depuis le début, fanfaronne Oscar.
    — Peut-être bien que t’es trop fort mais là au moins on en est sûr que ça marche comme ça, lui rétorque Safina, légèrement agacée.

    Trois quarts d’heure plus tard, après avoir réalisé les autres activités données par l’animateur, Lola, Safina et Oscar rentrent chez eux avec des choses nouvelles à raconter à la maison. On leur a donné un machin dont ils ont essayé de comprendre le fonctionnement. Pour eux, c’est maintenant clair : dans le machin, il y a des capteurs qui permettent de détecter des choses, un petit ordinateur pour décider quoi en faire et des actionneurs pour faire ce qui a été décidé : rouler, tourner, faire de la lumière, faire du bruit.

    Ah ! Le machin ? il s’appelle un « robot ». Et son petit nom est Thymio 2.

    — Moi, quand je serai grande, je veux être roboticienne, c’est sûr ! lance Lola à ses parents, surpris de cet intérêt soudain pour les sciences.

    Vivement mardi prochain : on va apprendre à faire des programmes pour le robot !

    Quels sont les objectifs d’un tel enseignement de la robotique ?

    La robotique propose un micro-monde d’apprentissage, intégré, coopératif, motivant, ludique et riche. On y aborde naturellement une démarche scientifique en identifiant et définissant des problèmes, en formulant des hypothèses, en expérimentant, en analysant, en argumentant.

    La robotique s’inscrit dans le champ des sciences du numérique et de l’informatique, domaine essentiel pour des jeunes habiles avec les objets numériques qui leur sont familiers mais ayant également besoin de s’approprier des concepts qu’ils ne connaissent pas encore, afin de les dominer pour en tirer le meilleur.

    Contribuer à la promotion et à la démocratisation de ces sciences est par ailleurs fondamental, pour plus tard, quand ils devront vivre dans un monde où l’innovation prend une importance croissante dans l’activité économique, et dans le développement humain.

    On peut résumer ces objectifs dans cette table :

    Objectifs éducatifs
    Objectifs institutionnels
    • Développer des compétences en informatique et en robotique.
    • Amplifier le plaisir d’apprendre.
    • Apprendre à travailler en équipe autour de projets.
    • Apprendre une démarche scientifique.
    • Développer la créativité.
    • Promouvoir les filières de formation scientifique et technologique.
    • Enseigner les sciences du XXIe siècle liées au numérique.
    • Promouvoir l’égalité des chances notament en luttant contre le décrochage scolaire.

    L’évaluation de ces objectifs est un enjeu crucial, que nous ne développerons pas ici. Décrivons simplement les outils que nous utilisons, pour donner un aperçu de ce volet du travail qui prend aussi la forme d’un travail de recherche en didactique de l’informatique :

    Une évaluation des compétences des élèves
    • Un portfolio numérique par équipe avec compte-rendu de missions, petits reportages, textes, photos, vidéos, … Carnet de voyage.
    • Une présentation du portfolio devant les autres équipes.
    • Une observation par l’adulte accompagnateur.
    • Des QCM de connaissances.
    Une évaluation de l’enseignement
    • Des indicateurs :
      • Connaissances en informatique et en robotique.
      • Plaisir d’apprendre.
      • Qualité du travail en équipe.
      • Rigueur, méthode.
    • Des outils d’évaluation :
      • Questionnaire élèves en fin d’année.
      • Analyse des résultats aux tests de connaissance.
      • Analyse des observations durant les séances.
      • Analyse des portfolios et des présentations orales.

    Conclusion : un levier pour l’égalité des chances.

    L’initiation à la robotique contribue à la lutte contre l’échec scolaire. Elle suscite une pédagogie de projet, change le cadre d’enseignement en le rendant plus souple, moins stigmatisant, particulièrement pour les élèves en difficulté. Sa démarche de recherche active, son ouverture au débat, sont autant d’atouts pour faciliter l’expression d’élèves en rupture d’un cadre scolaire traditionnel et qui leur est mal adapté.

    La robotique n’est pas la seule à proposer un cadre facilitateur de progrès mais celui-ci y trouve là facilement sa place, par la nature même des activités proposées.

    Nous observons une appétence de la part des jeunes filles pour la robotique. Une porte d’entrée supplémentaire vers les sciences, particulièrement du numérique, domaine où on les voit peu à peu prendre leur place (46 % des participants au concours Castor Informatique et plus de la moitié des lycéen-ne-s inscrit-e-s en spécialité Informatique et Sciences du Numérique (ISN) de Terminale S sont des filles). Une tendance à conforter.

    À travers la robotique, il est légitime de travailler différentes disciplines, notamment le français et les maths, disciplines qui prennent tout leur sens pour exprimer ou comprendre. L’aspect tangible est également un atout pour amplifier ce sens. Et la composante ludique, facteur de plaisir d’apprendre, ne fait que renforcer une autre vision de l’apprentissage, moins rigide et davantage portée vers la valorisation des individus en situation de recherche.

    Cet enseignement de la robotique, et plus largement de l’informatique, est devenu indispensable dans une société où le numérique est à la fois si présent et si peu compris, où la technologie sépare les humains en deux catégories ; celles et ceux qui l’utilisent en en connaissant les bénéfices mais également les pièges, qui saisissent les fondements essentiels de la pensée informatique. Et les autres. La première catégorie doit croître aussi rapidement qu’il est possible, pour assurer un usage maîtrisé et sécurisé des technologies du numérique, si l’on veut veiller à ce que personne ne soit mis de côté et encore moins esclave d’un monde qu’il ne comprendrait plus.

    Didier Roy.

    (*) Le module est en cours de finalisation (disponible sous forme open source à la mi-juin). Rendez-vous sur le site dédié à la médiation de la robotique, « Dessine-moi un robot ».

    (**) Le thymio-2, créé par l’EPFL, est un formidable robot pour l’éducation (en savoir plus).

  • Journées pédagogiques : Informatique et MOOC

    https://www.flickr.com/photos/92641139@N03/
    https://www.flickr.com/photos/92641139@N03/

    Les 23 et 24 juin prochain, la SIF (Société informatique de France), le CNAM, le CNRS, Inria, l’Institut Mines-Télécom, et le Groupe thématique Logiciel Libre de Systematic Paris-Region organisent les journées pédagogiques sur l’Informatique et les MOOC. 

    Ces journées permettront dans un premier temps de découvrir les MOOC, Massive Open Online Courses, ces cours en ligne interactifs, gratuits, et ouverts à tous. Au delà de cet état de l’art, ces journées proposeront de réfléchir aux relations particulières entre l’informatique en tant que discipline et les MOOC.

    Des intervenants de différents horizons (académiques, associatifs, enseignants) aborderont des sujets liés au métier d’enseignant et/ou chercheur :

    • les MOOC qui enseignent l’informatique,
    • les MOOC dans/pour la formation des enseignants de l’informatique,
    • le renouveau de l’enseignement (de l’informatique) avec les MOOC,
    • ressources libres et ouvertes pour les MOOC
    • technologies et recherche en informatique autour des MOOC.

    En avril dernier, Jean-Marie Gilliot publiait sur binaire un article intitulé « Moi je mooc, et vous ? » qui nous permettait de faire un tour d’horizon de ces fameux Cours en Ligne Ouverts et Massifs (CLOM étant la traduction française de Massive Open Online Course). Jean-Marie Gilliot concluait son article par ces mots :

    « L’homme est un animal social. L’appétence pour les échanges entre pairs montrent bien que l’on apprend en enseignant. Et pour rester pertinent en tant qu’enseignant, on n’arrête jamais d’apprendre, donc de contribuer. »

    Nous vous invitons donc à relire l’intégralité de son article et à vous inscrire rapidement à ces journées pédagogiques afin de partager avec lui et d’autres sur les enjeux liés à l’informatique et au MOOC.

    Site des journées pédagogiques : Informatique et MOOC
    Inscription obligatoire avant le 14 juin : formulaire en ligne
    Et n’hésitez pas à soutenir la SIF en y adhérant

    Marie-Agnès Enard

     

  • À chacun sa logique !

    LogiqueEtInformatiqueLa logique tient une place importante en informatique. Est-ce la même logique que celle dont parlent les mathématiciens ? À quoi la logique sert-elle en informatique ? Guillaume Cano, un jeune docteur en informatique, nous parle de ces sujets. Je vous encourage à lire son texte passionnant « Une petite histoire pas très sérieuse de deux très sérieuses logiques« , paru dans Images des Maths du CNRS.  Un jeune philosophe, Baptiste Mélès, reviendra bientôt dans nos colonnes sur ces liens étroits entre logique et informatique.

    Thierry Viéville

  • Analepse et prolepse pour une science du numérique à l’École

    L’informatique doit-elle rester un simple outil à l’École? Faut-il ou pas apprendre à « coder » et « programmer » à l’École ?  Ces questions qui divisent, Binaire les a posées à Michèle Drechsler. Nous imaginons avec elle ce que l’informatique et la programmation pourraient apporter à l’École. Un exemple : l’expérience de la programmation permet de montrer aux élèves que les erreurs peuvent être riches d’enseignement.

    Étant donné la densité des programmes en vigueur, l’intégration de l’enseignement de l’informatique à l’École pourrait-elle se faire au détriment de priorités actuelles ? Quel serait son impact sur l’égalité des chances et la réussite de tous élèves ? A ce propos, il est intéressant de procéder à une analepse pour poser le focus sur cet enseignement à l’école, il y a presque 20 ans, et d’imaginer une prolepse pour réfléchir à l’intégration d’un tel enseignement à l’école maintenant.

    Analepse pour l’informatique

    Si la question se pose actuellement et déclenche de nombreux débats à l’ère du B2I (brevet Internet et informatique), il faut se rappeler que l’informatique était  introduit dans les programmes scolaires  comme nous le montre ce tableau récapitulatif des programmes avant 2008.

    MicheleDreshlerProgramme
    Synthèse proposée au colloque Eprep 2008.

    Actuellement, les élèves du primaire et du collège doivent acquérir des compétences et des connaissances dans de nombreux domaines avec l’arrivée du socle commun de connaissances, de compétences et de culture. Depuis 1996, nous pouvons noter qu’aucune réforme des programmes n’a modifié en profondeur cette répartition des responsabilités entre « objet d’enseignement » et « outil » d’enseignement dans le domaine de l’informatique.

    Un curriculum pour développer  une culture numérique  ?

    Apprendre à l’heure du numérique, c’est acquérir à la fois la culture numérique et la maîtrise  des outils numériques. «Ce sont les deux facettes indissociables d’une évolution qui affecte l’ensemble de la société, mais semble peiner paradoxalement à toucher l’école», comme le précise le rapport Fourgous de 2012. La question fondamentale que nous devons nous poser est de savoir si, de nos jours,  les élèves ont besoin de développer des compétences dans le domaine des sciences du numérique. Le programme de physique-chimie des collégiens actuel ne fait pas référence à une science du numérique en tant que telle même s’il s’appuie sur des sciences dites «  d’observation, d’expérimentation et technologies ». Au cycle central, dans le programme de technologie,  les activités proposées doivent faciliter notamment l’appropriation du troisième domaine du B2i : « créer, produire, traiter, exploiter des données » à travers la programmation et la modélisation,  mais les notions  relatives aux sciences du numérique ne sont pas approchées d’une façon  spécifique  et progressive tout au long de la scolarité du collège et de l’école primaire (voir par exemple le programme du collège). Les programmes du collège prévoient des notions à construire autour de l’électricité, l’astronomie, avec « les mouvements de la Terre, de la Lune, des planètes qui donnent une première structuration de l’espace et du temps, introduisent l’idée qu’un modèle peut fournir une certaine représentation de la réalité ». Pourquoi ne pourrait-on pas prévoir aussi des modèles équivalents, une construction progressive des connaissances relatives au monde du numérique qui, de nos jours est omniprésent dans notre vie quotidienne, chez soi ou dans le monde du travail ?  Il est important de pouvoir donner des « clés » pour mieux appréhender le monde du numérique et  comme je le précisais déjà dans un article du Monde de l’éducation de mars 2008 et en attendant la mise en place des « nouveaux programmes » 2008 de l’époque :  « Il est nécessaire d’avoir un lieu de réflexion, d’abstraction, par rapport à une pratique quotidienne. Il ne doit pas se réduire à un cours dénué de sens. Il doit y avoir un va-et-vient entre les usages dans chaque discipline et cet enseignement plus général car usages et études de l’objet sont indissociables si on veut agir et comprendre les phénomènes, ou les fonctionnements comme pour la maîtrise de la langue.»

    Tout l’art de la pédagogie est de construire des notions et des concepts avec progression «en perçant les boîtes noires» à bon escient et en proposant des situations appropriées.  Il nous faudrait définir une «grammaire» de l’informatique permettant la construction progressive des concepts qui sont associés comme nous le faisons bien pour la grammaire, les notions de respiration, d’énergie … .  Un  curriculum  pourrait prévoir des situations, des  projets numériques permettant aux élèves de développer des formes d’activité dans le domaine des sciences du numérique et de construire progressivement les notions et compétences à maîtriser. À ce propos, beaucoup de pays s’y intéressent en Europe. Un groupe de travail Informatics-Europe et ACM-Europe a rédigé un rapport commun sur l’enseignement de l’informatique dans le primaire et le secondaire : « Informatics education: Europe cannot afford to miss the boat, avril 2013. » (Parmi les membres du groupe de travail : Gérard Berry du Collège de France,  Antoine Petit d’Inria et Michèle Drechsler). Ce rapport, basé sur une analyse de la situation actuelle et des expériences dans de nombreux pays, identifie les problèmes et propose des recommandations opérationnelles (schéma directeur) pour les décideurs politiques. Il établit une distinction entre la «culture numérique» (digital literacy) et la science informatique (computer science). Tous les citoyens devant être formés aux deux. Ce rapport nous donne des  recommandations et nous rappelle que «littératie numérique» et science informatique sont indispensables comme composantes d’une éducation du 21ème siècle, avec le développement d’une culture du numérique dès l’école primaire. L’incapacité à le reconnaître peut nuire gravement à l’avenir de l’Europe qui doit former non pas que de simples « consommateurs » de technologie.

    Programmation à l’école

    La programmation a des effets bénéfiques sur les  apprentissages comme nous le montrent les travaux menés en robotique dans une classe de CE2-CM1-CM2 en 1989. De ce fait, elle a toute sa place à l’école. À travers ce projet, nous approchons le concept d’information et de fonction à partir de situations de «robotique». Les élèves découvrent que l’ordinateur ne peut rien faire si on ne lui donne pas tous les «ordres» à partir d’un langage. À travers ces projets de robotique, nous arrivons à un premier niveau de formulation du concept d’information qui, exprimé par les élèves, est assez proche de la définition simple qu’en donne J. De Rosnay :  «l’information est le contenu d’un message qui déclenche une action». Dans le cadre de projets de robotique avec une interface Légo au CE2-CM1-CM2 (voir «Analepse et prolepse pour une informatique retrouvée ?» pour les détails), nous avons des outils pédagogiques motivants entre les mains des élèves.

    MicheleDreshlerRobotique
    Activités de programmation pour commander des feux. (Projet C.A.F.I.P.E.M.F. Drechsler), 1989
    MicheleDreshlerFeux
    Activités de programmation pour commander des feux. (Projet C.A.F.I.P.E.M.F. Drechsler), 1989

    Les élèves de CE2-CM1-CM2 ont pu également visiter une ferme robotisée près de l’école et comprendre le dispositif «des vaches branchées» à un ordinateur. Ils ont réalisé un reportage (voir la vidéo : « vaches branchées à un ordinateur ») en situation. Quelques représentations des élèves sont disponibles en ligne.

    Une réhabilitation de l’erreur au centre du processus d’apprentissage

    Les activités de programmation invitent les élèves à réfléchir sur leurs erreurs, face à une situation donnée en fonction du problème posé. C’est la machine qui donne un retour à  l’élève lui permettant d’analyser les traces de ses erreurs et comme nous le montre le constructivisme, l’erreur n’est plus considérée comme une simple déficience de l’élève comme dans le modèle transmissif. Elle est placée au cœur du processus d’apprentissage. Giordan nous rappelle que l’enseignant doit d’abord faire émerger les conceptions des élèves pour ensuite, lorsque certaines de celles-ci s’avèrent inexactes, convaincre les élèves qu’ils se trompent ou que leurs conceptions sont limitées. Apprendre consiste donc d’abord à «s’apercevoir que ses savoirs sont peu ou pas adéquats pour traiter une situation et ensuite à dépasser ses conceptions initiales pour progresser vers des connaissances plus pertinentes». Les activités de programmation rentrent bien dans cette définition qui situe clairement l’apprentissage dans une perspective cognitiviste en soulignant le rôle des conceptions antérieures et plus particulièrement des conceptions erronées. La prise en compte des erreurs en  est une des clés.

    L’ordinateur : des objets pour penser avec, des instruments pour réfléchir

    Margarida Romeo dans son article « métacognition et environnement informatique d’apprentissage humain » nous montre que dans un environnement où l’apprenant se retrouve seul face à la machine, par exemple à l’ordinateur, le besoin «métacognitif» devient d’une grande importance. En fait, les élèves peuvent réfléchir sur leurs procédures de pensée, revenir sur les traces de leurs programmes et comprendre leurs erreurs. Papert impressionné par la façon de Piaget de «considérer les enfants comme des constructeurs actifs de leurs propres structures intellectuelles» avait déjà développé cette  vision dans son livre, «Le jaillissement de l’esprit» :

    «Ma vision est celle d’une culture informatique particulière, une culture mathématique , autrement dit, une culture qui n’aide pas seulement à apprendre, mais à apprendre pour l’apprentissage. Il  nous a montré que le travail sur l’ordinateur peut faciliter l’accès à la notion de « mode de pensées », ce qu’il appelle le « style of thinking ». L’informatique permet donc de construire des univers dans lesquels un enfant peut par un comportement actif et constructif acquérir des méthodes d’analyse et de résolution de problèmes» et comme il nous le précise : «Penser sur sa pensée c’est devenir épistémologue, c’est entrer dans une étude critique de sa propre réflexion. Une expérience que bien des adultes ne vivent jamais !»

    Pour  Loarer, «Il est important que l’école développe une éducation cognitive qui peut être définie comme la recherche explicite, dans la mise en œuvre d’une démarche de formation, de l’amélioration du fonctionnement intellectuel des personnes».  Les outils cognitifs via l’ordinateur et les activités de programmation sont des instruments qui peuvent médiatiser des apprentissages métacognitifs pour lesquelles les erreurs sont au centre.  Proposer des activités de programmation aux élèves,  c’est aussi leur donner la  liberté d’explorer les coulisses derrière l’interface des systèmes de jeu.  C’est l’occasion de découvrir et comprendre la source du jeu, de montrer que l’on peut créer ce que l’on veut au-delà de l’interface, en programmant. Les ordinateurs peuvent être considérés comme de véritables machines à apprendre, de «véritables machines à représenter, à nous représenter nous-mêmes». Ils deviennent l’outil cognitif par excellence. Ils  agissent comme un amplificateur pour l’exploration de l’esprit humain dans tous les dédales de ses erreurs. Ils sont une des clés pour mettre en une véritable éducation cognitive à l’école.

    Des langages ou des logiciels dès l’École primaire.

    Si Logo a été très utilisé depuis les années 80, le logiciel Scratch est un  environnement de programmation visuel et multimédia  destiné à la réalisation et à la diffusion de séquences animées sonorisées ou non. Il s’agit d’un logiciel de programmation grâce auquel les élèves peuvent animer des objets qu’ils auront préalablement choisis, ou eux-mêmes dessinés. L’intégration de Scratch peut se faire rapidement au premier cycle du primaire permettant ainsi aux élèves de développer rapidement l’apprentissage de la programmation. L’élève peut ainsi suivre des procédures simples comme mettre en place un décor, prévoir des personnages, concevoir des «sprites » (lutins animés), utiliser les briques ou « kits »  de commandes toutes prêtes pour programmer. Le principe est donc comme un légo, de briques que l’on monte et que l’on  démonte, selon son projet à réaliser.

    L’élève peut trouver la  liberté de faire des erreurs autant qu’il veut pour mener son projet à bien. Comme le précise une enseignante québecoise, Martine Trudel : «Terrain de jeu illimité afin d’amener nos élèves à problématiser, à raisonner à l’aide du langage mathématique et à mettre en œuvre leur pensée créatrice, Scratch captive les élèves… Plus ils progressent, plus ils sont motivés à relever des défis plus élevés. C’est merveilleux de voir tous les élèves persévérer malgré les difficultés rencontrées…»

    Conclusion

    À l’heure de la société de la connaissances où il est important que chaque citoyen ne soit pas un simple consommateur de technologie, nous avons des défis à relever autour des sciences du numérique et de l’informatique qui devraient avoir la même place que les sciences de la vie et de la Terre dans la formation d’un individu. Qu’en sera-t-il des nouveaux programmes pour la construction des notions pour une culture du numérique autour d’une sciences du numérique  ? Dépasseront-ils les simples compétences du B2I d’utilisation de l’informatique ? Sauront-ils intégrer des notions ou des connaissances à construire progressivement, en s’appuyant sur une « grammaire informatique » en interaction avec l’environnement, pour développer chez les élèves, des aptitudes à décrypter les enjeux des applications informatiques dans la société et utiliser le numérique d’une façon raisonnée ?  L’école saura-t-elle intégrer des logiciels comme Scratch, des logiciels pour apprendre à programmer, créer des objets numériques et qui facilitent le développement d’objectifs métacognitifs, un tiercé gagnant pour «apprendre à apprendre», une clé pour la réussite scolaire ?

    Michèle Drechsler

    Pour en savoir plus

    sur l’auteure

    Dessus, P, Erreur et apprentissage, 2006

    Papert, S. Jaillissement de l’esprit, (Ordinateurs et apprentissage), Flammarion 1981

    Giordan, A. Apprendre ! Paris: Belin (1998)

    Linard, M. — Des machines et des hommes : apprendre avec les nouvelles technologies, Jacquinot Geneviève   Revue française de pédagogie     Année   1992   Volume   99   Numéro   99   pp. 131-133

    Loarer, E. (1998). L’éducation cognitive : modèle et méthodes pour apprendre à penser. Revue Française de Pédagogie, 122, 121-161.

    Dreschler, M. 2008 : Analepse et prolepse pour une informatique retrouvée ? Intervention au colloque ePrep

     

  • Les mots pour le dire : D comme décoder.

    A ? comme Algorithme !

    B ? comme … ah ben comme Binaire, pardi.

    C ? comme … Codage

    et D ?

    D ? … comme Décoder le Codage.

     «Décoder le Codage ?» Cela veut dire très simplement comprendre comment marchent ces machines (ces robots/ordinateurs/tablettes/…) que l’on dit programmables.

    Gérard Berry nous l’explique brièvement de manière lumineuse en reprenant la belle métaphore de Maurice Nivat sur Outils, machines et informatique. Et si nous prenions un peu plus de temps pour comprendre et …

    … allons dans une cuisine. Faire un quatre-quart à l’orange. Oui c’est facile : on prend de la farine, des œufs, du beurre et du sucre, à parts égales, on ajoute le parfum d’orange et on met au four une demi-heure. Bien. Même un informaticien saura faire ça.

    Mais que se passe-t-il si nous introduisons cette recette dans un ordinateur ou un robot… enfin une machine quoi ?1395178658_cake_7 Et bien il ferait exactement ce que nous lui avons commandé. Il mélangerait la farine, les œufs, le beu… Ah ! Les œufs : avec les coquilles, personne ne lui a dit de les retirer. Les humain-e-s savent ce qu’est un œuf, ce mot a du sens pour eux, elles ou ils comprennent le contexte dans lequel on parle. Mais une machine, voyons ? Quelle chance aurait-elle de savoir que (contrairement aux batailles d’œufs dans les cantines de potaches) on doit d’abord se débarrasser de la coquille ? De plus, bien plus précisément qu’un humain, le gâteau sera mis au four 30 minutes, 0 seconde, 0 dixième, … sans allumer le four. Puisque cela n’a pas été dit explicitement.

    En bref : un ordinateur ou un robot, … c’est « très con ». 1395178709_kcronCe mot d’argot de la langue française ne dit pas que le sujet est « sans intelligence » mais qu’il agit sans discernement, sans comprendre le contexte, sans dévier ce qui reste implicite. De l’intelligence mécanique quoi ! Et non pas je ne sais quelle « intelligence artificielle » (qui dans l’imaginaire collectif renvoie à la science-fiction).

    Alors à quoi bon détailler tout cela ? Cela aide à comprendre quelle est la différence entre mon intelligence et celle d’une machine. La machine « calcule de manière fabuleusement rapide et efficace mais reste totalement dénuée de pensée ». Qui ne comprend pas la différence entre l’intelligence mécanique et l’intelligence humaine, ne sait pas se positionner correctement par rapport à ces systèmes numériques. Et alors, très naturellement, ces objets virtuels sont personnifiés, vus comme magiques, donc nous dominent.

    Bien, voilà un point d’acquis. Et pour comprendre le codage alors ?

    Retournons dans notre cuisine, et pour apprendre à programmer, mettons-nous à deux.

    Gnirut, un monstre codeur - © S. Auvin
    Gnirut, un monstre codeur – © S. Auvin

    L’un va faire le robot (donc exécuter ce qu’on lui demande de la manière la plus mécanique possible), et l’autre va lui faire faire correctement la recette. Si vous faites cela il va se passer quatre choses amusantes.

     1/ Vous allez lui donner la recette à exécuter dans ses moindres détails, pas à pas, sous forme d’une séquence d’instructions élémentaires que la mécanique du robot peut exécuter au niveau de ses mécanismes physiques (ce sera « avancer de trois pas dans la cuisine », « tendre le bras », « prendre le paquet de farine blanc dans le placard » … (qui sait ce qu’est un « paquet de farine » sans en avoir jamais vu ?).

    2/ Et… que faire si il n’y a pas de beurre ? Disons : prendre de la margarine, pardi, sinon arrêter avant que ce soit un massacre. Tiens… ce n’est plus tout à fait une simple séquence, il y a aussi des tests (« si pas de beurre alors margarine… »)

    Et voilà que notre « intelligence mécanique » qui se réduit à faire tester une condition binaire, puis, selon qu’elle est vraie ou fausse, exécuter une séquence d’instructions ou une autre.

    3/ Bien. Voilà le robot en train de faire un quatre-quart à l’orange. Et pour le quatre-quart au citron ? Dois-je lui répéter toute la recette ou simplement lui dire… à la place de l’orange tu mets du citron ? Ou du chocolat ! Bref, voilà l’automate capable de faire tous les quatre-quarts du monde. Il sait faire un quatre-quart à « X ». Où X est une variable dont le nom est « parfum du gâteau » et dont la valeur est « orange » ou « citron »…

    Une variable c’est donc une boîte avec une étiquette (son nom) et dans laquelle on met une valeur. Grâce aux variables on peut programmer « tous les quatre-quarts du monde », de même que sur notre machine à laver, la température de l’eau correspond à la variable qui permet de laver tout le linge de la maison.

    4/ Nous y sommes presque. Pour faire 50 quatre-quarts pour la fête des voisins, je peux recopier la recette 50 fois pour mon robot. Ou mieux, faire une « boucle » : de 1 à 50 fait un quatre-quart, fait un quatre-quart…

    D’ailleurs nous avons un peu menti : on ne met pas vraiment le gâteau au four une demi-heure, mais dix minutes, on plante un couteau dedans et si le couteau ressort mouillé, on refait cuire dix minutes. C’est donc une boucle (« tant que le couteau ressort mouillé fait cuire dix minutes ») qui gère la cuisson du gâteau. Et si le four n’a pas été allumé, la semaine suivante le robot est toujours là à planter un couteau dans un gâteau pas cuit et surtout immangeable.

    Eh bien, à ce stade il y a un résultat énorme à partager.

    © Dessin : Paul Gendrot
    © Dessin : Paul Gendrot

    Si un ordinateur, un robot… enfin quoi, une machine, peut exécuter ces ingrédients des algorithmes alors elle peut faire TOUS les programmes d’informatique du monde !! Il n’y a pas un seul logiciel, algorithme du Web, programme de robot… qui ne se décompose pas en ces ingrédients. C’est ça l’intelligence mécanique. C’est une machine qui va pouvoir exécuter un algorithme qui a été exprimé dans un langage qui permet de traiter de l’information.

    Cela veut dire que mon smartphone, le processeur de ma machine à laver, le plus grand ordinateur au monde ou ma calculatrice programmable ont la même intelligence mécanique (donc sont tout aussi « con »). Bien entendu il y en a des plus ou moins rapides, efficaces, agréables à utiliser… Mais qualitativement, leurs capacités calculatoires (on va dire « computationnelles » en franglais) sont équivalentes : on peut coder des algorithmes dessus.

    C’est ce résultat monumental (on parle de la Thèse de Church-Turing) qui a fondé les sciences informatiques et permis au monde de passer de l’ère industrielle à l’âge numérique. Ne pas savoir, ne pas comprendre ça, c’est se priver du levier primal pour maîtriser cet univers qui est le nôtre aujourd’hui.

    Oui mais concrètement… Comment apprendre cette notion de codage à nos enfants ? Voici ici des éléments pour répondre à leur question « Dis maman (ou papa), c’est quoi un algorithme dans ce monde numérique ?
 »

    Et au-delà ? Comment avec tout ça peut-on coder et traiter de l’information par exemple ?

    … c’est une autre histoire de notre A.B.C. : À bientôt sur Binaire pour en Causer.

    Thierry Viéville.

  • Les mots pour le dire : C comme codage.

    A ? comme Algorithme !

    C’est ce concept (il est facile de savoir de quoi il s’agit) dont nous avons besoin pour comprendre le numérique : cet objet abstrait qui fait que les machines calculent de manière fabuleusement rapide et efficace mais restent totalement dénuées de pensées. Nous en reparlerons plus tard.

    B ? comme … ah ben comme Binaire, pardi.

    C ? comme …

    … comme Codage.

    « Codage ? » Oui, le reflet numérique des objets de notre vie.

    Codons d’abord un atome d’information : « oui ou non ». 1395177108_atomAh ben oui, répondre par oui ou par non, c’est bien donner une information, non ? En fait, c’est donner une information minimale, binaire. Disons : un 0 pour oui et 1 pour non. Ou l’inverse, mais surtout mettons-nous d’accord ! Et si quelqu’un fait moins que binaire (répond toujours 0 ou toujours oui), on ne risque pas d’apprendre quelque chose !

    Ce qui est amusant, par exemple quand on « joue au portrait », c’est que rien qu’en répondant oui ou non… on va pouvoir deviner y compris un personnage très très inattendu ou compliqué.

    En fait, c’est tout à fait sérieux : regardons quelles informations numériques peuvent se coder en binaire.

    Par exemple les nombres décimaux comme nous l’explique Sylvie ici ou http://interstices.info plus complètement ici.

    Et puis les lettres aussi, 1395177216_binarypar exemple disons 00000 pour A, 00001 pour B, 00010 pour C, et si vous continuez ainsi tout l’alphabet, donc tous les mots, tous les textes se retrouvent codés. C’est le «00001 00000 000010000» (euh pardon le «B.A.-BA») du codage ça.

    Et puis les images dont les pixels peuvent devenir des nombres, codés en binaire, et puis les sons dont chaque échantillon devient un nombre numérique, donc les vidéos et tout le multimédia.

    Et puis nos données : notre identité civile, et au-delà nos qualités, nos goûts : pour chaque item, on convient de standardiser les valeurs à donner à une variable qui spécifie une partie de ces données. 1395177264_022Par exemple pour la couleur des yeux on convient de dire : «bleu», «brun», «noir» ou «vert», au risque de biaiser le codage de la couleur chatoyante d’un regard mordoré.

     Oh, excusez-moi, je viens de recevoir un SMS :

    Cher Client,
    Avant l’informatisation de nos services, vous n’étiez pour nous qu’un simple numéro. Désormais, vous êtes beaucoup plus : vous êtes 11 digits, 14 caractères alpha-numériques, 25 items à choix multiples et 13 autres numéros…

    Ah. Bon, c’est clair. On peut coder beaucoup de choses, mais pas forcément toutes choses humaines.

    Toutes les données et informations formalisables ont donc un reflet numérique.1395177307_package_games_kids Bien faire comprendre cette idée à nos enfants leur donne une des clés de l’éducation au numérique. Cette éducation qui doit leur permettre de ne pas uniquement consommer les objets numériques, mais surtout les maîtriser afin de construire à leur tour les objets numériques ou les usages qui leur sied.

    Concrètement… Comment apprendre cette notion de codage à nos enfants ? Voici ici des éléments pour répondre à leur question « Dis maman (ou papa), mais comment sont codés les objets numériques ? »

    Nous voilà donc en train de concrétiser cette idée, souvent bien vague, que « les objets sont codés en binaire dans les ordinateurs ». On voit que ce codage est un choix, une convention entre les individus, exactement comme le langage. Ce qui est intéressant pour l’enfant de tout âge, c’est que cela aide à faire la différence entre le réel et le virtuel. Le codage d’un son ou d’une scène visuelle n’est que le reflet numérique de cet objet réel. Il y a le « S » que je dessine avec de la peinture, il est fait de matière. Il y a ensuite le codage du « S », ce paquet de 0 et de 1, qui ne représente le « S » que parce qu’on le veut bien.

    Ensuite, le fait que nos données (textes, sons, images…) soient devenus numériques permet de traiter l’information qu’elles contiennent avec des fonctions « universelles » : mémoriser, transmettre, dupliquer, compresser, crypter nos données se font avec des mécanismes similaires quels que soient leur nature. C’est un bouleversement par rapport au temps où la musique était sur des disques vinyles et les photos sur des plaques argentiques, comme nous l’explique Gérard Berry dans sa belle conférence.

    Le codage, bien entendu, au-delà des objets statiques (de nos données donc), concerne aussi des objets dynamiques (de la programmation donc) des actions, des événements, et…

    … c’est une autre histoire de notre A.B.C. : À bientôt sur Binaire pour en Causer.

    Thierry Viéville.

  • Salut Gilles ! Tu as 68 ans ce jeudi 17 avril.

    Gilles Kahn est une figure majeure de la recherche française en science informatique [0]. Mais c’est aussi le «Papa en informatique» de bien des collègues chercheur-e-s. C’est aussi un «Monsieur » qui quand il croisait quelqu’un disait un vrai, profond et sincère « Bonjour ». De ceux qui font se poser quelques secondes pour répondre avec franchise à cette profonde et humaine attention. Alors, à cette date qui fut 59 fois celle de son anniversaire, voici que j’ai envie de lui dire :

    «Salut Gilles ! Tu as 68 ans ce jeudi 17 avril. Tu nous manques, tu sais, depuis 8 ans maintenant que la maladie t’a forcée à tirer ta révérence. Mais tu restes tellement présent.

    gilles-1
    Gilles Kahn, un visionnaire (1)

    Tu vois, par exemple, les collègues dont tu t’étais entouré continuent de travailler sur ces belles idées partagées avec eux : patiemment ils continuent de développer des méthodes de preuve par ordinateur. À inventer des mécanismes de vérification des algorithmes. Bref : à éviter les bugs [1]. Toi qui as contribué à élucider le bug probablement le plus célèbre de l’histoire industrielle [2], tu serais content de voir nos systèmes de carte à puce ou des systèmes robotiques au service de la chirurgie, protégés directement ou indirectement par ces méthodes formelles, qui permettent de garantir le bon fonctionnement logiciel.. Ils viennent de recevoir, hier, une des plus prestigieuses distinctions scientifiques pour ce travail [3].

    Serait-ce ces travaux là ? Ou bien tes «réseaux de Kahn» qui permettaient de modéliser des calculs distribués sur plein de calculateurs ? Ou encore tes travaux théoriques de «sémantique naturelle des programmes» (qui ne m’est pas naturelle du tout !) ? Ou tous ensemble qui ont fait de toi le premier académicien français en sciences informatiques ? En tout cas, c’est bien avec ton nom, Gilles Kahn, que l’informatique est devenue une science pour l’académie des sciences de France.

    Comment expliquer simplement en quoi tes travaux étaient si novateurs ? On pourrait dire très simplement dire que tu as contribué à «donner du sens» aux langages de programmation. On peut avec tes formalismes manipuler un programme comme une formule mathématique, donc calculer des propriétés liées à ce qu’il va faire (ou pas). On ne se contente donc pas de vérifier que le programme est syntaxiquement correct (c’est à dire que la machine va être en mesure de le traduire pour l’exécuter). On vérifie aussi qu’il correspond aux spécifications que le concepteur s’était donné. Tes idées permettent donc de prouver mécaniquement (automatiquement ou interactivement), de certifier, les éléments de sens (sémantiques donc) liés au code que le programmeur se propose de réaliser. Cette percée a ouvert la voie au développement d’environnements de programmation, pour utiliser concrètement ces idées théoriques.

    Et l’histoire continue : le plus prestigieux prix de thèse en informatique dans notre pays (il se nomme le «prix de thèse Gilles Kahn», lol), c’est une jeune collègue de ton domaine de recherche qui a eu l’honneur de le recevoir dernièrement [4].

    gilles-2
    Gérard Huet et Gilles Kahn (2)

    D’ailleurs tu rigolerais bien de savoir que depuis quelques mois, l’informatique théorique (celle ou chaque objet a un «type» qui permet de manipuler de manière bien-fondée ces entités formelles) a été en mesure de proposer de nouveaux fondements à sa grande sœur [5]. Oui : aux mathématiques ! Avec la collaboration d’un de tes étudiants du reste [6]. Nous voilà désormais dans un monde scientifique dans lequel toutes les maths semblent pouvoir être refondées grâce à l’informatique théorique dont tu es un pionnier.

    gilles-3
    Gilles Kahn en 2005 (3)

    On se souvient aussi que tu nous disais l’importance «d’allumer l’étincelle de curiosité dans les yeux des enfants». Dans ce rapport que tu rédigeas pour l’Élysée en 2000 sur «l’accès de tous à la connaissance» apparaissait clairement ta vision en avance sur ton temps. Tu nous montrais l’importance de partager avec chaque citoyenne et citoyen ces sciences si récentes. Pour que personne ne soit exclue du monde numérique. Du site )i(nterstices, tu as été le propulseur et le rédacteur en chef si précieux. On te cite toujours, côté Inria, quand on explique notre volonté que chacune et chacun comprennent les sciences et techniques de l’information de la communication qui font le monde numérique d’aujourd’hui [7].

    Tout ne va pas si bien que ça, tu sais, Gilles, dans ce monde que tu nous avais laissé en héritage. En France, il y a toujours des gens qui réussissent à empêcher nos enfants d’apprendre l’informatique à l’école, donc obligent à limiter leur rôle à consommer les produits numériques, sans leur offrir la possibilité de développer ceux qu’ils pourraient vouloir créer, comme cela devrait [8]. Des états ont massivement trahi la confiance des citoyens en allant espionner des données personnelles [9], pour ne pas parler de ce qui a pu se faire de pire ailleurs. Toi qui étais très vigilant sur les applications militaires de nos sciences, voilà qu’est même délégué à des sociétés privées le fait d’aller tuer à distance avec des robots volants télécommandés (des «drones» dit-on maintenant) les personnes indésirables, en dehors de tout cadre juridique [10]. Je n’ose te dire à quel point nous vivons sur une planète fragile et abimée.. À toi l’agnostique, pour qui le Shalom (שָׁלוֹם) des tiens rimait avec le Salaam (سلام) de mes proches, comment te parler de ce monde où fractures et inégalités se creusent, comme par le passé, où «ceux qu’on foule aux pieds» devenaient l’épouvante de ceux qui sont leur crainte [11] ?

    Euh … excuse-moi ! Tu étais tout sauf un nostalgique, Gilles. Face aux défis posés par cette société que nous allons nous aussi laisser en héritage à nos enfants, je sais ce que tu proposerais. De poursuivre ce travail fondamental, théorique et expérimental, de développement des sciences du numérique. Pour mieux mettre au service des enjeux sociétaux de nouvelles idées d’innovation pour la société qui entraineront un progrès pour les hommes et les femmes. Par exemple si nos familles, nos amis, sont mieux soignés demain, ce sera en partie grâce à toi, Gilles, qui a su détecter très tôt l’impact à venir des sciences du numérique dans la santé, comme cela devient maintenant courant [12].»

    Thierry Viéville et tou-te-s les éditeurs de Binaire autour de Serge Abiteboul avec la complicité de Laurence Rideau.

    Références:
    [0] https://fr.wikipedia.org/wiki/Gilles_Kahn
    [1] http://www-sop.inria.fr/marelle
    [2] https://fr.wikipedia.org/wiki/Vol_501_d%27Ariane_5
    [3] http://coq.inria.fr/coq-received-acm-sigplan-programming-languages-software-2013-award
    [4] http://www.societe-informatique-de-france.fr/recherche/prix-de-these-gilles-kahn/prix-de-these-2013
    [5] http://images.math.cnrs.fr/A-la-croisee-des-fondements-des.html
    [6] http://www.math.ias.edu/sp/univalent/participants
    [7] https://wiki.inria.fr/wikis/mecsci/images/2/29/Mediation-scientifique-v0.2.pdf
    [8] http://www.academie-sciences.fr/activite/rapport/rads_0513.pdf
    [9] https://fr.wikipedia.org/wiki/Révélations_de_surveillance_par_la_NSA_en_2013
    [10] http://www.agoravox.tv/actualites/international/article/drones-tueurs-et-guerres-secretes-39276
    [11] « A ceux qu’on foule aux pieds », 1872, Victor Hugo, Poésie. XII, L’année terrible, Paris : J. Hetzel, A. Quantin, 1883.
    [12] http://www.college-de-france.fr/site/nicholas-ayache/inaugural-lecture-2014-04-10-18h00.htm

    Illustrations:
    (1) Gilles Kahn un visionnaire, http://www.inria.fr/institut/inria-en-bref/ceux-qui-ont-fait-inria/gilles-kahn
    (2) Gérard Huet et Gilles Kahn, au temps de l’équipe Inria pauillac.inria.fr ( et des vestes en velours et cols roulés 🙂 )
    (3) Gilles Kahn en 2005, lors de la visite de Bill Gates à Paris http://www.journaldunet.com/solutions/0510/051027_microsoft.shtml

     

  • Le patient numérique personnalisé

    Nicholas Ayache nous parle de son cours au collège de France, « Le patient numérique personnalisé : images, médecine, informatique ». Un mariage de l’informatique et de la médecine,  l’image omniprésente. Il nous fait pénétrer dans des recherches parmi les plus avancées en imagerie médicale computationnelle. Il nous fait découvrir un aspect essentiel de la médecine de demain.

    1@Asclepios-Inria

    L’imagerie médicale computationnelle, à la croisée de l’informatique, des sciences numériques et de la médecine, a pour objectif de concevoir et développer des logiciels de traitement informatique des images médicales pour assister le médecin dans sa pratique clinique. Ces logiciels visent notamment à enrichir le diagnostic en extrayant, à partir des images médicales, des informations objectives et cliniquement utiles. Ils visent également à assister la pratique thérapeutique avec des algorithmes de planification et de simulation appliqués à un modèle numérique du patient.

    Mais avant de développer ces différents points, revenons un instant sur la nature même des images médicales, et sur les nombreux problèmes que pose leur exploitation.

    L’essor des images médicales

    Les images médicales sont aujourd’hui omniprésentes dans la pratique clinique courante et hospitalière. Outre les radiographies, quatre grandes modalités d’imagerie sont couramment utilisées : le scanner, l’IRM, l’échographie, ou la scintigraphie . Les images produites par ces quatre modalités sont volumiques : elles fournissent en chaque point du corps humain des informations mesurées dans un petit élément de volume appelé voxel, l’extension volumique du pixel.

    Il existe d’autres modalités d’imagerie du corps humain, et de nouvelles techniques émergent régulièrement. Citons par exemple l’élastographie qui permet de mesurer l’élasticité des tissus à partir d’IRM ou d’ultrasons, et l’endomicroscopie qui permet de visualiser l’architecture microscopique des cellules à l’extrémité de fibres optiques.

    La plupart des images médicales sont très volumineuses. L’image anatomique d’un organe, voire du corps entier peut contenir entre quelques millions et plusieurs centaines de millions de voxels (pixel en 3D), stockés dans d’immenses matrices 3-D de nombres. La quantité d’information augmente rapidement lorsque plusieurs images sont acquises sur un même patient pour exploiter la complémentarité des différentes modalités, ou pour suivre une évolution temporelle ; il s’agit alors d’images 4-D avec trois dimensions spatiales et une dimension temporelle.

    Comme si ce déluge d’images ne suffisait pas, de grandes bases de données d’images deviennent progressivement accessibles sur la Toile d’Internet. Ces images sont souvent accompagnées de métadonnées sur l’histoire du patient et sur sa pathologie.

    Le rôle de l’informatique et des sciences numériques

    Face à toutes ces images et à leur complexité, le médecin ne peut généralement extraire visuellement que des informations lacunaires et qualitatives. Les images volumiques ne sont souvent visualisées que sous la forme de coupes 2-D. Il est alors quasiment impossible de quantifier précisément le volume d’une tumeur, de détecter une anomalie isolée dans un organe entier et suivre son évolution subtile entre deux examens, ou de quantifier dans une série temporelle d’images le mouvement d’un organe dynamique comme le cœur. Il est encore plus difficile de planifier une intervention délicate sans l’aide de l’ordinateur.

    L’informatique et les sciences numériques jouent alors un rôle crucial pour exploiter de façon rigoureuse et optimale cette surabondance d’information. Elles sont essentielles pour l’analyse des images reconstruites dont le but est d’extraire de façon objective l’information cliniquement pertinente et de la présenter dans un cadre unifié et intuitif au médecin. Elles offrent également la possibilité de construire un modèle numérique du patient pour la simulation : simulation de l’évolution d’une pathologie ou de l’effet d’une thérapie par exemple, ou simulation de gestes médicaux ou chirurgicaux pour l’entrainement du praticien (réalité virtuelle). Enfin, en combinant des images pré-opératoires avec des images interventionnelles (prises pendant l’intervention), elles offrent de nouvelles capacités de visualisation qui rendent le patient virtuellement transparent (réalité augmentée) pour le guidage de gestes complexes.

    Analyse et simulation informatiques des images médicales reposent sur des algorithmes qui doivent prendre en compte la spécificité de l’anatomie et de la physiologie humaines à l’aide de modèles mathématiques, biologiques, physiques ou chimiques, adaptés à la résolution des images. Ces modèles du corps humain dépendent eux-mêmes de paramètres permettant de modifier la forme et la fonction des organes simulés. Utilisés avec un jeu de paramètres standard, les modèles sont génériques : ils décrivent et simulent la forme et la fonction moyennes des organes dans une population. Mais avec les images médicales et l’ensemble des données disponibles sur un patient spécifique, les paramètres d’un modèle générique peuvent être ajustés grâce à des algorithmes pour reproduire plus précisément la forme et la fonction des organes de cet individu. On dispose alors d’un modèle personnalisé.

    Patient numérique personnalisé et médecine computationnelle

    Le patient numérique personnalisé n’est autre que cet ensemble de données numériques et d’algorithmes permettant de reproduire à diverses échelles la forme et la fonction dynamique des principaux tissus et organes d’un patient donné. C’est aussi le cadre unifié qui permet d’intégrer les informations provenant des images anatomiques et fonctionnelles du patient, ainsi que les informations qui décrivent l’histoire singulière du patient et de sa maladie.

    Rappelons ici que les modèles numériques et personnalisés du patient sont destinés à assister le médecin dans sa pratique médicale : assister le diagnostic en quantifiant l’information présente dans les images ; assister le pronostic en simulant l’évolution d’une pathologie ; assister la thérapie en planifiant, simulant et contrôlant une intervention. Voilà ce qui préfigure la médecine computationnelle de demain, une composante informatique de la médecine destinée à assister le médecin dans l’exercice de sa pratique médicale au service du patient.

    Des images médicales au patient numérique

    Dans ma leçon inaugurale, intitulée « des images médicales au patient numérique », j’ai choisi quatre exemples qui illustrent une certaine progression des algorithmes et des modèles mis en œuvre pour exploiter les images médicales. Les deux premiers exemples, morphométrie et endomicroscopie computationnelles, relèvent du domaine de l’anatomie computationnelle. Les algorithmes utilisés s’appuient sur des modèles géométriques, statistiques et sémantiques du corps humain. Les deux exemples suivants, oncologie et cardiologie computationnelles, relèvent de la physiologie computationnelle. Leurs algorithmes s’appuient en plus sur des modèles biologiques, physiques ou chimiques du corps humain, à plusieurs échelles.

    21Tractographie dans des images IRM de diffusion
    pour révéler la connectivité du cerveau. @Asclepios-Inria

    22Divergence du flux de déformation dans l’évolution de la maladie d’Alzheimer:
    la couleur représente les régions changeant de volume @Asclepios-Inria

    23Variabilité des sillons corticaux mesurée sur 98 cerveaux sains,
    les zones rouges étant les zones de plus forte variabilité @Asclepios-Inria

    Exemple 1 : Morphométrie Computationnelle

    À l’aube du 21ème siècle, l’anatomie descriptive devient statistique. L’informatique et les sciences numériques permettent d’exploiter de larges bases de données d’images médicales pour construire des atlas statistiques 3-D de l’anatomie des organes. Ils permettent ainsi de quantifier la variabilité de la forme du cortex cérébral, ou celle de la structure des ventricules cardiaques. La dimension temporelle peut être prise en compte, pour construire des atlas statistiques 4-D, qui capturent l’évolution statistique des formes anatomiques avec le temps, et permettent par exemple de construire des algorithmes capables de quantifier l’atrophie anormale du cerveau dans la maladie d’Alzheimer. L’imagerie computationnelle joue ici le rôle d’un microscope informatique qui permet de révéler des informations cliniquement pertinentes qui sont peu ou pas visibles dans les images médicales originales.

    3Atlas Intelligent en endomicroscopie :
    à la présentation  de l’image de la première ligne,  les images visuellement similaires
    s’affichent automatiquement avec leur diagnostic
    @maunakeatech

    Exemple 2 : Endomicroscopie Computationnelle

    De nouvelles technologies d’imagerie permettent d’acquérir des images de résolution microscopique des tissus à l’intérieur du corps humain. L’informatique est appelée à la rescousse pour améliorer la qualité des images, pour augmenter le champ de vue tout en préservant la résolution grâce à des algorithmes de mosaïques numériques, et enfin en développant le concept d’atlas intelligent : il s’agit de conserver une grande base de données d’images déjà interprétées, et d’utiliser des algorithmes d’indexation d’images par leur contenu pour rapprocher d’une nouvelle image les images de la base de données les plus similaires. Les atlas intelligents pourraient se généraliser à de très nombreuses formes d’images médicales dans le futur.

    4142Modèle computationnel personnalisé
    de croissance d’une tumeur cérébrale @Asclepios-Inria

    Exemple 3 : Oncologie Computationnelle

    Des modèles numériques de tumeurs cérébrales sont développés pour mieux exploiter les observations fournies par les images médicales. Ces modèles incluent une composante physiopathologique qui décrit l’évolution de la densité des cellules tumorales dans les tissus cérébraux du patient. Une fois ces modèles personnalisés, des algorithmes permettent de mieux quantifier l’évolution passée de la tumeur, et sous certaines hypothèses, de mieux prédire son infiltration et son évolution future. Les modèles peuvent être enrichis pour guider la planification thérapeutique, notamment en radiothérapie. Ils peuvent également servir à construire des bases de données d’images de tumeurs virtuelles, utilisées pour entrainer des algorithmes d’apprentissage statistique à interpréter automatiquement les images de tumeurs réelles.

     51Maillage de calcul des 4 cavités cardiaques p
    our la simulation électromécanique du cœur @Asclepios-Inria

    52Orientations des fibres cardiaques mesurées in vivo
    par IRM de diffusion @Asclepios-Inria

    Exemple 4 : Cardiologie Computationnelle

    Les modèles numériques du cœur permettent de simuler son activité électrique et mécanique, ainsi que le mouvement 4-D qui en résulte. Ces modèles peuvent être personnalisés grâce à des images médicales dynamiques, et des mesures de pression et d’électrophysiologie pour l’instant assez invasives (utilisation de cathéters endovasculaires). Les modèles personnalisés permettent à des algorithmes de quantifier la fonction cardiaque, et de prédire certains risques d’arythmie. Ils permettent dans certaines conditions de prédire le bénéfice attendu de certaines thérapies, par exemple la pose d’une prothèse vasculaire dans une artère coronaire, ou l’implantation d’un stimulateur cardiaque destiné à resynchroniser le mouvement des ventricules. Des prototypes permettent déjà à des algorithmes de simuler de façon interactive certains gestes de cardiologie interventionnelle destinés à corriger des arythmies.

    6162Modèle computationnel du foie pour la réalité augmentée
    et la réalité virtuelle @Ircad-Inria, @Asclepios-Inria

    L’imagerie médicale computationnelle, à la croisée de l’informatique et de l’imagerie médicale, fournit de nouveaux outils numériques au service du médecin et du patient, dans le cadre plus large de la médecine computationnelle.
    Les progrès actuels dans ces domaines permettent d’entrevoir comment l’informatique et les sciences numériques peuvent accompagner le passage d’une médecine normalisée et réactive à une médecine plus personnalisée, préventive et prédictive . Ils reposent en grande partie sur des avancées algorithmiques en traitement d’images et dans la modélisation numérique de l’anatomie et de la physiologie du corps humain.
    Les cours à venir, ainsi que les séminaires et le colloque de clôture approfondiront les fondements algorithmiques, mathématiques et biophysiques de ce domaine de recherche en plein essor, tout en illustrant son caractère pluridisciplinaire et ses avancées les plus récentes. On y retrouvera des scientifiques et des médecins de spécialités variées, au chevet du patient numérique.

    Nicholas Ayache, Inria et professeur au Collège de France

  • Que diriez-vous d’Ordinateur ?

    «Que diriez-vous d’Ordinateur ?»

    C’est par ces mots que commence la réponse, datée du samedi 16 avril 1955, de Jacques Perret, professeur de philologie latine à la Sorbonne, à Christian de Waldner, alors président d’IBM France.

    Ce dernier, sous la recommandation de François Girard, responsable du service « Promotion Générale Publicité » et ancien élève de Jacques Perret, l’avait sollicité pour trouver un terme concis et précis pour traduire ce que les américains, qui ne s’embarrassent pas de philologie, avait appelé Electronic Data Processing System ou en abrégé EDPS.

    ordinateur

    Jacques Perret ajoutait dans son courrier « C’est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l’ordre dans le monde ».

    Il ne se doutait probablement pas qu’à peine 60 ans plus tard, les successeurs de cet ordinateur qu’il venait de baptiser allaient dominer le monde en y faisant régner l’ordre du tout numérique.

    La lettre se terminait par « Il me semble que je pencherais pour « ordinatrice électronique », car il trouvait qu’il « permettrait de séparer plus encore votre machine du vocabulaire de la théologie« .

    Peut-être pas si mécontents de cette filiation divine, les dirigeants d’IBM préférèrent Ordinateur et le mot eut un tel succès qu’il passa rapidement dans le domaine public.

    La recherche de ce vocable avait aussi un but marketing car Il s’agissait de le différencier du terme computer, facilement traduisible en calculateur, qui était réservé aux premiers ordinateurs scientifiques comme l’IBM 701.

    Les premiers ordinateurs universels, faisant disparaître la nécessité de ce distinguo, n’apparaitront chez IBM que le 7 avril 1964 avec l’annonce de la série 360 qui va connaître un succès fabuleux et dont les programmes peuvent encore fonctionner aujourd’hui sur les plus puissants ordinateurs de la marque.

    Le premier « ordinateur » d’IBM fut l’IBM 650, ordinateur à tubes de première génération, qui possédait une mémoire à tambour magnétique de 2000 mots et une mémoire vive en ferrite de 60 mots qui servait de tampon entre l’ordinateur et les unités externes, essentiellement lecteur/perforateur de cartes, bandes magnétiques et une tabulatrice l’IBM 407.

    IBM vendit 2 000 exemplaires de cette machine dont la carrière commença en 1953 pour se terminer en 1962, longévité exceptionnelle même à cette époque.

    Nous étions loin des performances de la plus petite calculatrice de nos jours avec un temps d’opération de 2 ms pour une addition, 13 ms pour une multiplication et 17 ms pour une division !

    Nous sommes carrément à des années lumières des performances incroyables du moindre smartphone, sans parler des supercalculateurs (ou superordinateurs) qui sont engagés dans une course folle aux 100 péta-flops dans laquelle les chinois sont en tête avec le Tianhe 2 qui affiche 55 péta-flops en vitesse de pointe.

    Faut-il rappeler qu’un péta-flops c’est la bagatelle de 10 millions de milliards d‘opérations en virgule flottante par seconde ?

    Pour les non initiés la virgule flottante est la forme généralement utilisée pour représenter des nombres réels dans les mémoires des ordinateurs.

    Mais aujourd’hui, où la technologie nous submerge et envahit notre quotidien, tout cela semble aussi naturel et aussi banal que d’allumer une lampe électrique.

    Le moindre smartphone, qui se manipule intuitivement, presque naturellement, du bout des doigts, donne accès à des milliers d’applications et enfouit le miracle de la technologie dans une banalité quotidienne.

    Et puis après la volonté opiniâtre d’imposer un vocabulaire francophone avec le terme Informatique inventé par Philippe Dreyfus en 1962, l’adoption du terme bureautique créé par Louis Naugès en 1976, on peut dire qu’à partir de la vague du Personal Computer l’anglo-saxon s’est imposé comme la langue unique du monde de l’informatique et des réseaux.

    Patrice Leterrier

    Cet article est paru initialement le 28 mars 2014 sur le blog de Patrice Leterrier  que nous vous invitons à aller découvrir.

  • En toute modestie

    Le provincial peut s’émerveiller en ce moment devant la fresque qui recouvre l’intégralité de l’interminable corridor qui relie Montparnasse à Bienvenüe. Cette fresque, intitulée le Monde en équation est proposée par le CNRS.

    Sur plus de cent mètres les superbes images de synthèse illustrent des textes qui nous expliquent ce que physiciens, chimistes, mathématiciens, biologistes peuvent faire des données, modélisations et simulations numériques.sans_les_mainsL’exposition permet également de noter l’extrême modestie de l’informaticien qui laisse croire aux Parisiens, aux provinciaux et aux touristes que le tout peut se faire sans une science informatique, sans algorithmes, sans analyse des données, sans recherche en image.

    Colin de la Higuera

  • Bravo Leslie Lamport, Prix Turing 2013

    Le 18 mars dernier, la société savante ACM a dévoilé le nom du lauréat 2013 du prestigieux prix Turing. Il s’agit du Dr. Leslie Lamport, chercheur à Microsoft Research. Leslie est d’ailleurs membre du laboratoire INRIA-Microsoft situé à Palaiseau. Le prix Turing est souvent considéré comme l’équivalent du prix Nobel pour l’informatique, les Nobel ayant eu le mauvais goût d’oublier l’informatique. Notons que, comme ils ont aussi oublié les mathématiques, nous sommes en très bonne compagnie.

    Le père du calcul réparti

    De la même façon que l’on peut dire que E.W. Dijkstra est le père de la synchronisation (entres autres), on peut dire que Leslie Lamport est le père du calcul réparti, activité qui, par sa nature même, met en jeu plusieurs machines qui doivent coopérer pour réaliser un but commun.

    lesliePage personnelle de Leslie Lamport

    Les résultats de Leslie Lamport sont impressionnants. Il a été le premier à poser les problèmes qui fondent le calcul réparti, à en donner les concepts fondamentaux et à proposer les premiers algorithmes qui soient véritablement répartis. On lui doit entre autres le concept d’horloge logique, de sûreté (safety), de vivacité (liveness), de fautes byzantines ou d’atomicité.

    Leslie Lamport n’a pas résolu les problèmes qu’il se posait lui-même mais les problèmes qui se posaient dans son domaine de recherche. Alliant de façon remarquable travaux théoriques et applications pratiques, il a notamment créé le langage TLA+ (temporal logic language). Il est aussi le concepteur du logiciel de préparation de documents LaTeX.

    Le Prix Turing lui est décerné « for advances in reliability and consistency of computing systems« .

    Michel Raynal, Irisa, Institut Universitaire de France, professeur à l’Université de Rennes 1

    Pour en savoir plus : Communiqué officiel de l’ACM sur l’attribution du prix Turing 2013 à Leslie Lamport.

  • L’enseignement ISN en 2013, une preuve que l’informatique se décline aux deux genres

    L‘Informatique et science du numérique (connue sous l’abréviation ISN) est ce nouvel enseignement de spécialité de terminale série scientifique qui permet aux jeunes d’apprendre les sciences informatiques, donc de maîtriser le numérique et de découvrir qu’il y a de beaux métiers techniques ou non sur ce secteur économique majeur (ces nouveaux métiers du numérique représenteraient plus de 1 million d’emplois [ref] et environ 25% de notre croissance économique [ref], plusieurs milliers d’emploi restent à pourvoir chaque année [ref]).

    Cette spécialité ISN est proposée pour la seconde année grâce à l’investissement parfois héroïque des professeurs qui se sont formés à cette nouvelle discipline (presque uniquement sur leur temps libre) dans le cadre d’une coopération profonde et puissante avec des centres universitaires et de recherche dans chacune des Académies. Parmi les lycéens de terminale, 10 000 élèves en 2012 et presque 15 000 en 2013 ont choisi cet enseignement. Cela semble être un véritable succès. Toutefois, cela est encore considéré comme une « expérimentation ».

    Ce succès est à relier à celui d’un concours « libre » (rien à gagner, mais le plaisir de faire un bon score) sur l’informatique organisé par un petit groupe d’informaticiens motivés. Ce n’est pas une compétition « geek », mais un concours ludique, accessible à tous, qui montre comment l’informatique peut être amusante et variée avec la représentation de l’information, la pensée algorithmique, des jeux de logique, … Ce « concours Castor informatique » a intéressé pas moins de 170 000 jeunes cette année et double son public en France chaque année depuis trois ans. Un grand succès et une très belle mixité avec 48% de filles.

    Les statistiques de l’enseignement d’Informatique et sciences du numérique pour 2013 montrent elles aussi une progression sensible et un intéressant équilibre des genres :

    • à la rentrée 2012, 10 035 élèves avaient choisi ISN, dont 2 010 filles (soit 20,0 %)
    • à la rentrée 2013, 14 511 élèves ont choisi ISN, dont 4 170 filles (soit 28,7 %)
    • une progression globale de +44,6 % et de +107,5 % pour les filles

    Un succès !

    Philippe Marquet

  • Minimalisme numérique

    En musique, en architecture un courant minimaliste existe, il influence et structure ces activités… et dans le numérique, qu’en est-il ?

    La simplicité – évidente aujourd’hui – des menus à partir de la pomme en haut à gauche de l’écran ou la simple application calculette étaient présents dès 1984 lors de la sortie du Macintosh. Dans la biographie de Steve Jobs, le lien avec les courants minimalistes du Bauhaus ou des maisons californiennes de Eichler est explicitement mentionné.

    320px-Eichler_Homes_-_Foster_Residence,_Granada_Hills

    On retrouve aussi des recherches et particularités d’informatique minimale, algorithmes simples qui peuvent rimer avec performances ou expressivité minimale de problème complexe via la récursivité…

    Les liens hypertextes sont aussi une forme de minimalisme renvoyant sur les informations pertinentes…

    Un bouquet d’applications très utilisées aujourd’hui est l’expression d’un minimalisme dans les applications numériques. Ces applications sont paradoxalement minimales.

    Il y a celle qui n’échange que 140 caractères, ce qui est moins que le SMS de base en téléphonie mobile de première génération ! Celle qui permet de voir seulement une photo quelques instants – et qui a refusé de tomber dans le giron de Facebook. Celle qui partage des photos entre ami(e)s ou qui généralise les échanges courts de messages (texte, photo, son…) et dont la valeur capitalistique est tout sauf minimale ! Et toutes celles qui permettent d’échanger un logement, prêter sa voiture…

    320px-WhatsApp_logo.svg

    Leurs interfaces et fonctions sont simples. On ne parle pas ici de l’infrastructure de mise en œuvre, qui peut être complexe, ni des données d’usage connectées, mais de leur proposition fonctionnelle. Où est la valeur ? Elle est dans la simplicité/force du service ou dans la base d’utilisateurs qui se comptent pour Whatapps par exemple en centaines de millions d’utilisateurs référencés.

    Quelle est la prochaine idée simple qui fera fureur ? Celle que tout le monde voudra et aura. Qui sera l’acteur, acheteur pour ne pas être dépassé par un concurrent et conforter sa base d’utilisateurs…

    Le coin des curieux : pour remonter à une des sources de la musique minimale, il faut écouter Moondog, à la radio ou dans un disque hommage  chez TraceLabel.

    Par Pierre Paradinas

     

  • Enseigner la science informatique à l’école ?

    EcoleMercredi 12 mars, jour des enfants, l’émission Rue des Écoles sur France Culture avait pour thème un sujet qui fait beaucoup débat en cette année 2014 : l’enseignement de la science informatique à l’école.

    A cette occasion, 3 invités dont deux qui sont des habitués de binaire sont intervenus ; Gérard Berry, Professeur au Collège de France et Claude Terosier, ingénieure, co-fondatrice de « Magic Makers« . Le troisième, que vous découvrirez bientôt sur binaire, est David Roche, professeur d’Informatique et Science du Numérique à Bonneville.

    Écouter l’émission

    M-A Enard