• Comment l’informatique a révolutionné l’astronomie

    Françoise Combes, astronome à l’Observatoire de Paris et membre de l’Académie des Sciences (lien Wikipédia), a un petit bureau avec un tout petit tableau blanc, des étagères pleines de livres, un sol en moquette, et deux grandes colonnes de tiroirs étiquetées de sigles mystérieux. Au mur, des photos de ciels étoilés. Elle parle avec passion de son domaine de recherche, et met en exergue le rôle fondamental qu’y joue l’informatique.
    Entretien réalisé par Serge Abiteboul et Claire Mathieu

    fc-aug02

    La naissance des galaxies…

    B : Peux-tu nous parler de tes sujets de recherche ? Vu de l’extérieur, c’est extrêmement poétique : « Naissance des galaxies », « Dynamique de la matière noire » …
    FC : La question de base, c’est la composition de l’univers. On sait maintenant que 95% est fait de matière noire, d’énergie noire, et très peu de matière ordinaire, qui ne forme que les 5% qui restent. Mais on ignore presque tout de cette matière et de cette énergie noire. Les grands accélérateurs, contrairement à ce qu’on espérait, n’ont pas encore trouvé les particules qui forment la matière noire. On a appris vers l’an 2000 grâce aux supernovae que l’expansion de l’univers était accélérée. Mais la composition de l’univers que l’on connaissait alors ne permettait pas cette accélération ! Il fallait un composant pouvant fournir une force répulsive, et c’est l’énergie noire qui n’a pas de masse, mais une pression négative qui explique l’accélération de l’expansion de l’univers. On cherche également maintenant de plus en plus en direction d’autres modèles cosmologiques qui n’auraient pas besoin de matière noire, des modèles de « gravité modifiée ».

    B : Cette partie de ton travail est surtout théorique ?
    FC : Non, pas seulement, il y a une grande part d’observation, indirecte évidemment, observation des traces des composants invisibles sur la matière ordinaire. On observe les trous noirs grâce à la matière qu’il y a autour. Les quasars, qui sont des trous noirs, sont les objets les plus brillants de l’univers. Ils sont au centre de chaque galaxie, mais la lumière piégée par le trou noir n’en sort pas ; c’est la matière dans le voisinage immédiat, qui tourne autour, et progressivement tombe vers le trou noir en spiralant, qui rayonne énormément. Ce qui est noir et invisible peut quand même être détecté et étudié par sa « signature » sur la matière ordinaire associée.
    Pour mieux étudier la matière noire et l’énergie noire, plusieurs télescopes en construction observeront pratiquement tout le ciel à partir des années 2018-2020, comme le satellite européen Euclid, ou le LSST (Large Synoptic Survey Telescope) et le SKA (Square Kilometer Array). Le LSST par exemple permettra d’observer l’univers sur un très grand champ (10 degrés carrés), avec des poses courtes de 15 secondes pendant 10 ans. Chaque portion du ciel sera vue environ 1000 fois. Même dans une nuit, les poses reviendront au même endroit toutes les 30 minutes, pour détecter les objets variables : c’est une révolution, car avec cet outil, on va avoir une vue non pas statique mais dynamique des astres. Cet instrument fantastique va détecter des milliers d’objets variables par jour, comme les supernovae, sursauts gamma, astéroides, etc. Il va regarder tout le ciel en 3 jours, puis recommencer, on pourra sommer tous les temps de pose pour avoir beaucoup plus de sensibilité.
    Chaque nuit il y aura 2 millions d’alertes d’objets variables, c’est énorme ! Ce n’est plus à taille humaine. Il faudra trier ces alertes, et le faire très rapidement, pour que d’autres télescopes dans le monde soient alertés dans la minute pour vérifier s’il s’agit d’une supernova ou d’autre chose. Il y aura environ 30 « téraoctets » de données par nuit !  Des supernovae, il y en aura environ 300 par nuit sur les 2 millions d’alertes. Pour traiter ces alertes, on utilisera des techniques d’apprentissage (« machine learning »).

    B : Qui subventionne ce matériel ?
    FC : Un consortium international dont la France fait partie et où les USA sont moteur, mais il y a aussi des sponsors privés. Le consortium est en train de construire des pipelines de traitement de données, toute une infrastructure matérielle et logicielle.

    A273

    La place de l’informatique

    B : La part du « matériel informatique » dans ce télescope est très importante ?
    FC : Le télescope lui-même, de 8m de diamètre, est assez ordinaire. L’innovation est dans l’optique et les instruments pour avoir un grand champ, qui sont une partie importante du coût ; les images seront prises simultanément avec six filtres de couleur. Le traitement des données nécessite des super ordinateurs qui forment une grande partie du coût.

    B : Alors, aujourd’hui, une équipe d’astronomes, c’est pluridisciplinaire ?
    FC : Oui, mais c’est aussi très mutualisé. Il y a des grands centres (Térapix à l’Institut d’Astrophysique de Paris par exemple) pour gérer les pipelines de données et les analyser avec des algorithmes. Ainsi, on se prépare actuellement à dépouiller les données d’Euclid, le satellite européen qui sera lancé en 2020, dont le but est de tracer la matière noire et l’énergie noire, notamment avec des lentilles gravitationnelles. Les images des millions de galaxies observées seront légèrement déformées, car leur lumière est déviée par les composants invisibles sur la ligne de visée; il faudra reconstituer la matière noire grâce cette déformation statistique.

    B : Quels sont les outils scientifiques de base ? Des mathématiques appliquées ?
    FC : Oui. La physique est simple. Les simulations numériques de formation des galaxies dans un contexte cosmologique sont gigantesques : il s’agit de problèmes à  N-corps avec 300 milliards de corps qui interagissent entre eux ! Le problème est résolu par des algorithmes basés soit sur les transformées de Fourier soit sur un code en arbre, et à chaque fois le CPU croît en N log N. On fait des approximations, des développements en multi-pôles. En physique classique, ou gravité de Newton, cela va vite. Mais pour des simulations en gravité modifiée, là, c’est plus compliqué, il y a des équations qui font plusieurs pages. Il y a aussi beaucoup de variantes de ces modèles, et il faut éviter de perdre son temps dans un modèle qui va se révéler irréaliste, ou qui va être éliminé par des observations nouvelles. Il y a donc des paris à faire.

    B : Tu avais dit que vous n’étiez pas uniquement utilisateurs d’informatique, qu’il y a des sujets de recherche, spécifiquement en informatique, qui découlent de vos besoins ?
    FC : Je pensais surtout à des algorithmes spécifiques pour résoudre nos problèmes particuliers. Par exemple, sur l’époque de ré-ionisation de l’univers. Au départ l’univers est homogène et très chaud, comme une soupe de particules chargées, qui se recombinent en atomes d’hydrogène neutre, dès que la température descend en dessous de 3000 degrés K par expansion, 400 000 ans après le Big Bang. Suit une période sombre et neutre, où le gaz s’effondre dans les galaxies de matière noire, puis les premières étoiles se forment et ré-ionisent l’univers. Ce qu’on va essayer de détecter, (mais ce n’est pas encore possible actuellement) c’est les signaux en émission et absorption de l’hydrogène neutre, pendant cette période où l’univers est constitué de poches neutres et ionisées, comme une vinaigrette avec des bulles de vinaigre entourées d’huile. C’est pour cela que les astronomes sont en train de construire le « square kilometer array » (SKA). Avec ce télescope en ondes radio, on va détecter l’hydrogène atomique qui vient du début de l’univers, tout près du Big bang ! Moins d’un milliard d’années après le Big bang, son rayonnement est tellement décalé vers le rouge (par l’expansion) qu’au lieu de 21cm, il a 2m de longueur d’onde ! Les signaux qui nous arrivent vont tous à la vitesse de la lumière, et cela met 14 milliards d’années à nous parvenir – c’est l’âge de l’univers.
    Le téléscope SKA est assez grand et sensible pour détecter ces signaux lointains en onde métrique, mais la grande difficulté vient de la confusion avec les multiples sources d’avant-plan : le signal qu’on veut détecter est environ 10000 fois inférieur aux rayonnements d’avant-plan. Il est facile d’éliminer les bruits des téléphones portables et de la ionosphère, mais il y a aussi tout le rayonnement de l’univers lui-même, celui de la Voie lactée, des galaxies et amas de galaxies. Comment pourra-t-on pêcher le signal dans tout ce bruit? Avec des algorithmes. On pense que le signal sera beaucoup plus structuré en fréquence que tous les avant-plans. On verra non pas une galaxie en formation mais un mélange qui, on l’espère, aura un comportement beaucoup plus chahuté que les avant-plans, qui eux sont relativement lisses en fréquence. Faire un filtre en fréquence pourrait a priori être une solution simple, sauf que l’observation elle-même avec l’interféromètre SKA produit des interférences qui font un mixage de mode spatial-fréquentiel qui crée de la structure sur les avant-plans. Du coup, même les avant-plans auront de la structure en fréquence. Alors, on doit concevoir des algorithmes qui n’ont jamais été développés, proches de la physique. C’est un peu comme détecter une aiguille dans une botte de foin. Il faut à la fois des informaticiens et des astronomes.

    Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.

    Arp87Le couple de galaxies en interaction Arp 87,
    image du Hubble Space Telescope (HST), Credit NASA-ESA

    B : Cela veut-il dire qu’il faut des astronomes qui connaissent l’informatique ?
    FC : Les astronomes, de toute façon, connaissent beaucoup d’informatique. C’est indispensable aujourd’hui. Rien que pour faire les observations par télescope, on a besoin d’informatique. Par exemple le télescope SKA (et  son précurseur LOFAR déjà opérationnel aujourd’hui à Nançay) est composé de « tuiles » qui ont un grand champ et les tuiles interfèrent entre elles. Le délai d’arrivée des signaux provenant de l’astre observé sur les différentes tuiles est proportionnel à l’angle que fait l’astre avec le zénith. Ce délai, on le gère de façon numérique. Ainsi, on peut regarder dans plusieurs directions à la fois, avec plusieurs détecteurs. Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.
    Un astronome va de moins en moins observer les étoiles et les galaxies directement sur place, là où sont les télescopes. Souvent les observations se font à distance, en temps réel. L’astronome contrôle la position du télescope à partir de son bureau, et envoie les ordres d’observation par internet. Les résultats, images ou spectres arrivent immédiatement, et permettent de modifier les ordres suivants d’observation. C’est avec les télescopes dans l’espace qu’on a démarré cette façon de fonctionner, et cela s’étend maintenant aux télescopes au sol.
    Ce mode d’observation à distance en temps réel nécessite de réserver le télescope pendant une journée ou plus pour un projet donné, ce qui n’optimise pas le temps de télescope. Il vaut mieux avoir quelqu’un sur place qui décide, en fonction de la météo et d’autres facteurs, de donner priorité à tel ou tel utilisateur. Du coup on fait plutôt l’observation en différé, avec des opérateurs sur place, par « queue scheduling ». Les utilisateurs prévoient toutes les lignes du programme (direction, spectre, etc.) qui sera envoyé au robot, comme pour le temps réel, mais ce sera en fait en différé. L’opérateur envoie le fichier au moment optimum et vérifie qu’il passe bien.
    Selon la complexité des données, la calibration des données brutes peut être faite dans des grands centres avec des super computers. Ensuite, l’astronome reçoit par internet les données déjà calibrées. Pour les réduire et en tirer des résultats scientifiques, il suffit alors de petits clusters d’ordinateurs locaux. Par contre, les super computers sont requis pour les simulations numériques de l’univers, qui peuvent prendre des mois de calcul.
    Que ce soit pour les observations ou les simulations, il faut énormément d’algorithmes. Leur conception se fait en parallèle de la construction des instruments. Les algorithmes sont censés être prêts lorsque les instruments voient le jour. Ainsi, lorsqu’un nouveau télescope arrive, il faut qu’il y ait déjà par exemple tous les pipelines de calibrations. Cette préparation est un projet de recherche à part entière. Tant qu’on n’a pas les algorithmes, l’instrument ne sert à rien: on ne peut pas dépouiller les données. Les progrès matériels doivent être synchronisés avec les progrès des algorithmes.

    B : Est-ce que ce sont les mêmes personnes qui font la simulation de l’univers et qui font l’analyse des images ?
    FC : Non, en général ce sont des personnes différentes. Pour la simulation de l’univers, on est encore très loin du but. Les simulations cosmologiques utilisent quelques points par galaxie, alors qu’il y a des centaines de milliards d’étoiles dans chaque galaxie. Des « recettes » avec des paramètres réalistes sont inventées pour suppléer ce manque de physique à petite-échelle, sous la grille de résolution. Si on change quelques paramètres libres, cela change toute la simulation. Pour aller plus loin, il nous faut aussi faire des progrès dans la physique des galaxies. Même dans 50 ans, nous n’aurons pas encore la résolution optimale.

    B : Comment évalue-t-on la qualité d’une simulation ?
    FC : Il y a plusieurs équipes qui ont des méthodes complètement différentes (Eulérienne ou « Adaptive Mesh Refinement » sur grille, ou Lagrangienne, code en arbre avec particules par exemple), et on compare leurs méthodes. On part des mêmes conditions initiales, on utilise à peu près les mêmes recettes de la physique, on utilise plusieurs méthodes. On les compare entre elles ainsi qu’avec les observations.

    Crab_xrayImage en rayons X du pulsar du Crabe, obtenue
    avec le satellite CHANDRA, credit NASA

    B : Y a-t-il autre chose que tu souhaiterais dire sur l’informatique en astronomie ?
    FC : J’aimerais illustrer l’utilisation du machine learning pour les pulsars. Un pulsar, c’est une étoile à neutron en rotation, la fin de vie d’une étoile massive. Par exemple, le pulsar du crabe est le résidu d’une supernova qui a explosé en l’an 1000. On a déjà détecté environ 2000 pulsars dans la Voie lactée, mais SKA pourra en détecter 20000 ! Il faut un ordinateur pour détecter un tel objet, car il émet des pulses, avec une période de 1 milliseconde à 1 seconde. Un seul pulse est trop faible pour être détecté, il faut sommer de nombreux pulses, en les synchronisant. Pour trouver sa période, il faut traiter le signal sur des millions de points, et analyser la transformée de Fourier temporelle. L’utilité de ces horloges très précises que sont les pulsars pour notre compréhension de l’univers est énorme. En effet, personne n’a encore détecté d’onde gravitationnelle, mais on sait qu’elles existent. L’espace va vibrer et on le verra dans le 15e chiffre significatif de la période des pulsars. Pour cela on a besoin de détecter un grand nombre de pulsars qui puissent échantillonner toutes les directions de l’univers. On a 2 millions de sources (des étoiles) qui sont candidates. C’est un autre exemple où il nous faut des algorithmes efficaces, des algorithmes de machine learning.

    sextet-seyfert-hstLe groupe compact de galaxies, appelé le Sextet
    de Seyfert, image du Hubble Space Telescope (HST), Credit NASA-ESA

    Hier et demain

    B : L’astronomie a-t-elle beaucoup changé pendant ta carrière ?
    FC : Énormément. Au début, nous utilisions déjà l’informatique mais c’était l’époque des cartes perforées.

    B : L’informatique tenait déjà une place ?
    FC : Ah oui. Quand j’ai commencé ma thèse en 1976 il y avait déjà des programmes pour réduire les données. Après les lectrices de cartes perforées, il y a eu les PC. Au début il n’y avait même pas de traitement de texte ! Dans les années qui suivirent, cela n’a plus trop changé du point de vue du contact avec les écrans, mais côté puissance de calcul, les progrès ont été énormes. L’astrophysique a énormément évolué en parallèle. Par exemple pour l’astrométrie et la précision des positions : il y a 20ans, le satellite Hipparcos donnait la position des étoiles à la milliseconde d’arc mais seulement dans la banlieue du soleil. Maintenant, avec le satellite GAIA lancé en 2013, on va avoir toute la Voie lactée. Qualitativement aussi, les progrès sont venus de la découverte des variations des astres dans le temps. Avant tout était fixé, statique, maintenant tout bouge. On remonte le temps aujourd’hui jusqu’à l’horizon de l’univers, lorsque celui-ci n’avait que 3% de son âge. Toutefois, près du Big bang on ne voit encore que les objets les plus brillants. Reste à voir tous les petits. Il y a énormément de progrès à faire.

    B : Peut-on attendre des avancées majeures dans un futur proche ?
    FC : C’est difficile à prévoir. Étant donné le peu que l’on sait sur la matière noire et l’énergie noire, est-ce que ces composants noirs ont la même origine ? On pourrait le savoir par l’observation ou par la simulation. La croissance des galaxies va être différente si la gravité est vraiment modifiée. C’est un grand défi. Un autre défi concerne les planètes extrasolaires. Actuellement il y en a environ 1000 détectées indirectement. On espère « imager » ces planètes. Beaucoup sont dans des zones théoriquement habitables – où l’eau est liquide, ni trop près ni trop loin de l’étoile. On peut concevoir des algorithmes d’optique (sur les longueurs d’onde) pour trouver une planète très près de l’étoile. Des instruments vont être construits, et les astronomes préparent les pipelines de traitement de données.

    Le public

    B : Il y a beaucoup de femmes en astrophysique?
    FC : 30% en France mais ce pourcentage décroît malheureusement. Après la thèse, il faut maintenant faire 3 à 6 années de post doctorat en divers instituts à l’étranger avant d’avoir un poste, et cette mobilité forcée freine encore plus les femmes.

    B : Tu as écrit récemment un livre sur la Voie lactée?
    FC : Oui, c’est pour les étudiants et astronomes amateurs. Il y a énormément d’astronomes amateurs – 60000 inscrits dans des clubs d’astronomie en France. Quand je fais des conférences grand public, je suis toujours très étonnée de voir combien les auditeurs connaissent l’astrophysique. C’est de la semi-vulgarisation. Ils ont déjà beaucoup lu par exemple sur Wikipédia.

    B : Peuvent-ils participer à la recherche, peut-être par des actions de type « crowd sourcing »?
    FC : Tout à fait. Il y a par exemple le « Galaxy zoo ». Les astronomes ont mis à disposition du public des images de galaxies. La personne qui se connecte doit, avec l’aide d’un système expert, observer une image, reconnaître si c’est une galaxie, et définir sa forme. Quand quelqu’un trouve quelque chose d’intéressant, un chercheur se penche dessus. Cela peut même conduire à un article dans une revue scientifique. L’interaction avec le public m’intéresse beaucoup. C’est le public qui finance notre travail ; le public est cultivé, et le public doit être tenu au courant de toutes les merveilles que nous découvrons.

     stephanLe groupe compact de galaxies, appelé le Quintet
    de Stepĥan, image du Hubble Space Telescope (HST), Credit NASA-ESA

  • Votre vie numérique dans un Pims

    Une personne « normale » aujourd’hui a généralement des données sur plusieurs machines et dans un grand nombre de systèmes qui fonctionnent comme des pièges à données où il est facile de rentrer de l’information et difficile de la retirer ou souvent même simplement d’y accéder. Il est également difficile, voire impossible, de faire respecter la confidentialité des données. La plupart des pays ont des règlementations pour les données personnelles, mais celles-ci ne sont pas faciles à appliquer, en particulier parce que les serveurs de données sont souvent situés dans des pays avec des lois différentes ou sans véritable réglementation.

    Nous pourrions considérer qu’il s’agit du prix inévitable à payer pour tirer pleinement avantage de la quantité toujours croissante d’information disponible. Cependant, nous n’arrivons même pas à tirer parti de toutes les informations existantes car elles résident dans des silos isolés. La situation ne fait que s’aggraver du fait de l’accroissement  du nombre de services qui contiennent nos données. Nous sommes arrivés à un stade où la plupart d’entre nous avons perdu le contrôle de nos données personnelles.

    Pouvons-nous continuer à vivre dans un monde où les données sont de plus en plus importantes, vitales, mais aussi de plus en plus difficiles à comprendre, de plus en plus complexes à gérer ? De toute évidence, non ! Alors, quelles sont les solutions pour parvenir à un monde de l’information qui puisse durablement satisfaire ses utilisateurs ?

    Une première solution serait que les utilisateurs choisissent de déléguer toutes leurs informations à une entreprise unique. (Certaines entreprises rêvent clairement d’offrir tout le spectre des services de gestion d’information.) Cela faciliterait la vie des utilisateurs, mais les rendrait aussi totalement dépendants de cette société et donc limiterait considérablement leur liberté. Nous supposerons (même si c’est discutable) que la plupart des utilisateurs préfèrerait éviter une telle solution.

    Une autre possibilité serait de demander aux utilisateurs de passer quelques années de leur vie à étudier pour devenir des génies de l’informatique. Certains d’entre eux ont peut-être le talent pour cela ; certains seraient peut-être même disposés à le faire ; mais nous allons supposer que la plus grande partie des personnes préfèreraient éviter ce genre de solution si c’est possible.

    Y a-t-il une autre option ? Nous croyons qu’il en existe une, le système de gestion des informations personnelles, que nous appellerons ici pour faire court Pims pour « Personal information management system ».

    Pour aller plus loin : Article complet

    Serge Abiteboul Benjamin André Daniel Kaplan
    INRIA & ENS Cachan Cozy Cloud Fing & MesInfos

     

  • L’informatique à l’école : un pas bien timide, mais un pas quand même

    Depuis quelques mois les appels à un enseignement de l’informatique dans les écoles et lycées se multipliaient, traduisant l’impatience tant de parents que de personnalités politiques, de scientifiques et de représentants du monde numérique. En annonçant dans le Journal du dimanche du 13 juillet 2014 qu’il favoriserait « en primaire une initiation au code informatique, de manière facultative et sur le temps périscolaire », Benoît Hamon a fait un pas – certes timide mais difficile car le sujet n’est toujours pas consensuel.

    A défaut d’être la réponse attendue, c’est un signal d’encouragement aux très nombreux enseignants qui innovent jour après jour, luttent contre le décrochage scolaire, en s’appuyant sur les pratiques numériques de leurs élèves pour motiver et former aux approches critiques, mais butent vite sur le manque de compétences informatiques, le leur et celui de leurs élèves. C’est aussi un signal d’encouragement aux très nombreuses associations et aux rares collectivités territoriales qui ont pris à leur charge la formation à l’informatique que l’école différait. Les uns et les autres ont compris que la culture numérique implique une initiation précoce à l’informatique et ne saurait se suffire des « usages ». Les uns et les autres savent que la transition numérique de notre société appelle ces savoirs et savoir-faire, pour de futurs citoyens créatifs, solidaires et lucides.

    La programmation encourage naturellement l’apprentissage par l’essai-erreur, le travail collaboratif. Elle place les élèves dans des attitudes actives, créatives, de partage et de contribution. Un projet mené à bien est un plaisir, une fierté. Cela explique ses succès auprès d’élèves décrocheurs. L’entrée du « code » à l’école doit être l’occasion de participer à la transformation de l’enseignement.
    Si la volonté d’opérer en douceur semble être de mise avec une amorce par le périscolaire, le choix du primaire comme point de départ peut aussi s’envisager comme l’opportunité d’un changement de fond, une occasion de convergence entre les professeurs des écoles et les acteurs de l’éducation populaire, de la médiation scientifique et numérique, de l’entrepreneuriat social, pour une école ouverte, reliée aux territoires. Reste à savoir l’exploiter. Cet appel au riche tissu de ressources territoriales implique une gestion de projet, qui va mobiliser les directeurs d’école. Il faudra travailler en réseau entre écoles et associations, proposer aux animateurs et éducateurs qui le souhaitent une certification ou une validation d’acquis, l’enjeu pour les élèves étant la base d’une véritable littératie numérique qui aidera les autres savoirs fondamentaux à se révéler.

    Le recours au périscolaire ne pourrait évidemment seul suffire. Un enseignement périscolaire se doit d’être créatif, expérimental, ludique, émancipateur, non-institutionnel. Il peut enrichir l’enseignement scolaire, participer à faire évoluer contenus et méthodes, à cultiver des compétences transversales. Il ne peut se substituer à l’école. Une approche basée purement sur le périscolaire ne touchera pas tous les enfants, engendrera des inégalités entre territoires ruraux et agglomérations, entre écoles « branchées » et les autres (même si de telles inégalités pourraient être atténuées par des politiques volontaristes couteuses). Enfin et surtout sans une l’implication active des professeurs des écoles eux-mêmes, l’apprentissage de l’informatique par les enfants restera isolé des autres enseignements et ne pourra pleinement réussir.

    C’est là qu’une autre mesure annoncée par Benoît Hamon prend toute son importance, et traduit une vision qui dépasse heureusement la délégation aux associations : l’entrée de son enseignement dans les ESPE (les Ecoles Supérieures du Professorat et de l’Education), dont la loi de refondation de l’école a fait le cœur de la transformation numérique de l’enseignement. Il faut avancer rapidement et résolument dans ce sens et accompagner cette mesure par un développement de la formation continue dans ce domaine pour toucher la plus grande partie des professeurs des écoles. La formation de l’ordre de 350 000 professeurs des écoles est un défi considérable, que la profession va devoir organiser. On voit bien qu’il ne s’agit pas seulement de former tous les professeurs « au code », mais de les engager dans la transformation de leurs disciplines et de leur pédagogie, reconfigurées par la « société numérique » et désormais imprégnées par les sciences et techniques informatiques.

    Il faut aussi répondre aux inquiétudes légitimes : il ne s’agit pas de former de la main-d’œuvre pour l’industrie du logiciel ; il ne s’agit pas d’appendre à coder pour coder ; il ne s’agit pas d’apprendre une nouvelle discipline abstraite ; il ne s’agit pas non plus d’une démission de l’école, d’une brèche dans laquelle s’engouffreraient les nouveaux acteurs industriels de l’éducation numérique pour se substituer à l’école.

    Il reste que la tâche est complexe. Il faudra les efforts de tous et une mobilisation très large pour que ce projet réussisse.

    Au-delà de l’école primaire, la déclaration de Benoît Hamon touche le collège et le lycée. Il choisit de s’appuyer d’abord sur les professeurs de mathématiques et de technologie. C’est à court terme une solution. Le vivier de tels professeurs volontaires pour enseigner l’informatique existe mais on atteint vite ses limites, quand cela ne participe pas à accentuer comme en mathématiques une pénurie endémique de tels enseignants. Il est urgent d’ouvrir les portes de l’éducation nationale à des enseignants dont l’informatique est la compétence principale. Le vivier naturel se trouve dans les licences et master d’informatique, et aussi dans les entreprises pour des ingénieurs qui souhaiteraient une reconversion. Sur ce sujet, nous attendons une véritable vision qui fasse bouger les lignes.

    Benoît Hamon présente un projet qu’il faut concrétiser et enrichir. Tout ne peut se résumer à une brève initiation au « code informatique ». Il ne suffit pas de savoir écrire des programmes dans un langage informatique quelconque pour, par exemple, comprendre comment fonctionne le moteur de recherche de Google, l’encryption dans un système de vote électronique, ou une base de données « dans les nuages ». Au-delà des seuls aspects scientifiques et techniques, l’enseignement de l’informatique représente le chemin de l’acquisition d’une véritable culture numérique par tous. La formation de ses enseignants en informatique et en culture numérique est la clé de la réussite.  C’est bien là une des ambitions que l’éducation nationale doit porter dans les années à venir.

    Serge Abiteboul et Sophie Pène, membres du Conseil national du numérique

    Sur le site du CNNum

  • L’être humain au coeur de la recherche en IHM

    Wendy Mackay est Directrice de Recherche à Inria Saclay, responsable de l’équipe InSitu. Elle est en sabbatique à l’Université de Stanford. Pionnière de l’IHM, elle est une des spécialistes les plus connues dans le domaine de l’interface humain machine. Elle nous fait partager sa passion pour ces aspects si essentiels de l’informatique, qui sont souvent au cœur des réussites comme des échecs des nouveaux logiciels et des nouveaux objets numériques.

    Entretien réalisé par Claire Mathieu et Serge Abiteboul.

    CHI 2013© Inria / Photo G. Maisonneuve

    B : Bonjour Wendy. Pour commencer, une de tes grandes caractéristiques, c’est quand même d’être Américaine… Une Américaine qui fait de la recherche en France, c’est…
    WM : C’est assez rare.

    B : En effet. Est-ce que tu pourrais nous dire rapidement pourquoi tu as choisi la France pour faire ta recherche ?
    WM : La réponse courte, c’est que je suis mariée avec un Français et il fallait choisir entre la France et les États-Unis. Si on veut fonder une famille avec deux chercheurs qui travaillent tout le temps, c’est beaucoup mieux en France qu’aux États-Unis. Nous avions des offres à Xerox PARC, à San Diego, à Toronto, mais finalement les raisons personnelles l’ont emportées. La réponse qui serait plus longue à détailler, c’est que j’avais envie de voyager. Je suis née au Canada, j’ai grandi aux États-Unis, j’ai fait mes études et j’ai travaillé sur la côte Est et sur la côte Ouest… Ce qui est intéressant c’est que l’IHM était déjà un domaine de recherche bien connu aux États-Unis mais pas en France pourtant c’est un domaine important, qui est derrière les succès d’Apple, de Google, et de beaucoup d’autres choses. Quand je suis arrivée en France, ce qui m’a frappée c’est qu’il n’y avait que les mathématiques qui étaient importantes en informatique et les aspects utilisation par les humains étaient délaissés. J’ai eu la chance de pouvoir créer quelque chose de nouveau ici et saisi l’opportunité de créer mon équipe de recherche au sein d’Inria Futurs (structure de recherche qui incubait les futurs centres de Bordeaux, Lille et Saclay).

    B : Ainsi est née InSitu, première équipe de recherche d’Inria à Saclay ?
    WM : À l’époque on pouvait embaucher des gens, avoir de l’espace. On a commencé avec quatre permanents et un thésard. Maintenant on a huit permanents et trois membres de l’équipe ont créé leur propre équipe. L’interaction est devenue l’un des thèmes stratégiques d’Inria. Même si c’est plus large que notre définition de l’IHM, cela inclut tout ce qui concerne l’être humain, comme par exemple l’interaction avec les robots.

    B : Qu’est ce que l’interaction homme-machine?
    WM : L’interaction homme-machine, c’est un domaine vraiment pluridisciplinaire, avec trois grands axes. Il y a la partie informatique : comment concevoir le système. Un système interactif, ça ne marche pas tout seul, il faut un va-et-vient avec l’être humain, cela pose des problèmes informatiques. Le deuxième axe, c’est la psychologie, la sociologie et tous les aspects humains. L’attention, la perception, la mémoire, la motricité, tout cela : quelles sont les capacités et les limites de l’être humain. Et le troisième axe, c’est le design : comment concevoir le système interactif. Ce n’est pas seulement l’aspect esthétique, mais la conception de…

    B : L’ergonomie ?
    WM : Pour moi l’ergonomie cela concerne plutôt l’évaluation du système que la conception. C’est l’un des outils que l’on utilise lorsque l’on crée un système interactif, mais ce n’est pas vraiment le design. Par exemple, une idée répandue est qu’il faut faire des choses simples à utiliser. Mais pour nous ce n’est pas simple de faire des choses simples, et il y a toujours un compromis, un trade-off, entre la simplicité et la puissance. L’une des règles est qu’il faut pouvoir faire les choses simples simplement, mais il faut aussi avoir la possibilité de faire des choses complexes. Alors on ne veut pas compliquer ce qui est simple mais on veut aussi donner la possibilité de faire des choses plus avancées.

    B : D’apprendre aussi ?
    WM : Oui. L’apprentissage c’est l’adaptation du côté de l’être humain et c’est très intéressant. En fait c’est une grande partie de ma recherche actuelle. Je travaille sur un concept qu’on appelle co-adaptive instruments. Je veux réinventer les interfaces actuelles, les GUI ou graphical user interfaces. Ce sont tous les dossiers, les fichiers, les fenêtres que l’on trouve sur tous les ordinateurs. Ces interfaces graphiques ont été conçues à Xerox PARC il y a 35 ans. C’était destiné aux secrétaires de direction et c’est la raison pour laquelle on parle de couper / coller, de fichiers et de dossiers, etc. : parce que c’est leur univers. Ça a été une grande réussite, mais c’était conçu à l’époque où les machines étaient très chères et le coût du travail d’un salarié beaucoup moins élevé qu’actuellement. La plupart des ordinateurs étaient faits pour des experts. L’interface créée par Xerox était la première destinée à des non-experts, mais il s’agissait quand même d’utilisateurs dont le but était de travailler sur ordinateur. Depuis cette époque, on utilise cette métaphore du bureau pour tout, mais on se rend compte qu’elle ne marche plus vraiment car cela crée plein de limites pour de nouvelles fonctions. Sur le web aussi : on a gagné la possibilité de distribuer les documents très largement mais on a perdu beaucoup du côté de l’interaction. Finalement,  ce que l’on peut faire sur un site web est assez limité : cliquer des liens et remplir des formulaires, la plupart du temps. Et puis maintenant il y a les applications sur smartphones et tablettes. C’est encore une autre façon de concevoir l’interaction. Ces appareils sont incroyables, mais ils poussent à une interaction simple, et parfois simpliste. Il y a des barrières entre les applications et on ne peut pas partager des choses si facilement que ça. On voit qu’il y a eu une évolution dans trois directions pour des raisons historiques et techniques sur les interfaces graphiques, le web et les applications,  mais on n’a pas vraiment pensé à la perspective de l’utilisateur. Si on change de perspective et qu’on pense aux capacités de l’être humain plutôt qu’à celles de la technologie, on doit se demander : qu’est-ce que l’utilisateur veut faire et peut-on lui offrir ce dont il a besoin ?

    workspacePaper Tonnetz; © Inria / Photo H. Raguet

    B : On touche là les questions qui touchent ton sujet de recherche en particulier ?
    WM : En effet. Je vais prendre l’exemple du clavier. En France vous avez des claviers AZERTY. Moi j’utilise un clavier QWERTY, et mes doigts savent taper vite sur ce clavier. Aux États-Unis, on apprend à taper au clavier dès le lycée, et c’est très utile ! Mais quand je suis sur un clavier AZERTY, je suis plus lente que quelqu’un qui tape avec deux doigts parce que j’ai appris sur un clavier un différent. C’est un peu la même chose quand on demande aux gens, à chaque fois qu’ils changent d’application ou de machine, de réapprendre comment effectuer les mêmes fonctions. On est toujours en train d’imposer aux utilisateurs de changer entre QWERTY et AZERTY. Ça bouscule les habitudes et on y perd en efficacité. La vision que je défends dans ma recherche, c’est que les méthodes d’interaction doivent accompagner l’utilisateur et ne pas lui être imposées par le système.

    B : Pour faire une analogie, en gestion de connaissances, on retrouve un peu la même problématique. Pour utiliser un système d’information, il vous faut apprendre la terminologie de ce système, son ontologie, alors que vous devriez pouvoir l’interroger ou interagir avec en utilisant votre propre langage, votre propre ontologie. Ça correspond à ce que tu expliques ?
    WM : Oui, c’est la même chose. Comme êtres humains, nous sommes très forts pour apprendre des choses, mais pas très forts pour ré-apprendre des choses un peu différentes. C’est un peu comme si pour un pianiste, on changeait l’ordre des touches ou l’ordre des lignes sur la portée de temps en temps, aléatoirement. « Allez, jouez ! » Au comprend bien qu’au niveau moteur, de ce qu’on appelle la « mémoire des muscles », c’est un problème. Mais l’exemple que tu as donné était sur la terminologie, et c’est le même problème. Par exemple on a travaillé récemment sur la sélection de couleurs. Pourquoi est-ce différent dans Word, Excel, InDesign, PowerPoint ? Même dans Word, c’est différent si je change la couleur de texte ou la couleur de fond ! Ce que je veux, c’est choisir la façon dont je veux choisir une couleur et l’utiliser dans n’importe quelle application. En plus de faciliter l’apprentissage, ce qui est intéressant c’est que ça permet à différents utilisateurs d’utiliser différents sélecteurs. Et ça permet aussi à un même utilisateur de choisir un sélecteur différent selon la situation.

    B : C’est-à-dire que tout le monde n’a pas forcément envie d’utiliser le même crayon.
    WM : Exactement. Si je prends une artiste graphique, on imagine qu’elle a vraiment besoin de pouvoir choisir ses couleurs de manière précise et de créer des palettes de couleurs. Elle a pris le temps d’apprendre à utiliser des outils complexes et puissants. Mais un fois rentrée chez elle, cette même artiste a envie de dessiner avec sa fille de 4 ans, et là elle a juste besoin de choisir entre 4 couleurs. C’est la même personne, mais dans des contextes différents, avec des buts différents et des personnes différentes. Il faut donc bien comprendre comment les gens utilisent l’ordinateur, quels sont leurs besoins dans ces différentes situations. Il faut aussi que quand on passe d’un ordinateur à un autre, d’un laptop à un smartphone, il y ait une continuité. Bien sûr, il y a des différences : un clavier physique est différent d’un clavier tactile. Mais c’est l’utilisateur qui doit pouvoir décider comment interagir selon son contexte d’usage.
    Alors nous avons créé le concept d’instrument d’interaction et de substrate, de support d’information. Nous voulons que les instruments d’interaction soient des objets de première classe, qui appartiennent aux utilisateurs et qu’ils puissent les conserver et les utiliser dans n’importe quelle application. Les substrates permettent de filtrer l’information, de créer un contexte pour présenter les données, et que les mêmes données puissent être présentées dans différents substrates, par exemple du texte, un tableau ou un graphe. Le résultat est que cela change le business model pour le logiciel. Si on est Microsoft, on ne vend plus des grosses applications monolithiques avec des barrières étanches, mais une collection d’instruments et de substrates que les gens peuvent choisir et assembler à leur façon.

    B : Est-ce que ça ne demande pas de définir quelque chose qui serait des API  d’interaction, qu’on pourrait ensuite intégrer dans différents outils ?
    WM : Oui, en effet, on travaille sur ces API d’interaction. Mais c’est encore assez récent et cela soulève plein de questions intéressantes : comment le système peut-il aider à apprendre à utiliser un nouvel instrument ? Comment adapter un instrument à ses besoins ? En fait on imagine quelque chose qu’on pourrait appeler une physique de l’information. Par exemple, si j’ai le concept de couleur, je peux avoir des outils pour tester les couleurs, les changer, les archiver – c’est assez universel. Je peux les utiliser même si l’application ne l’a pas prévu. Et puis les gens vont s’en servir aussi de manière non prévue. Si je prends l’exemple d’un outil physique, par exemple un tournevis, c’est fait pour enfoncer des vis, mais je peux aussi m’en servir pour ouvrir une boite de conserve, pour attacher mes cheveux, pour caler la porte, pour…

    B : Assassiner quelqu’un avec un tournevis ?
    WM : Je n’espère pas ! Mais l’idée c’est que les gens adaptent les objets physiques tout le temps. Tout le temps. C’est ce qu’on fait en tant qu’êtres humains. Et bizarrement on a créé des systèmes informatiques qu’on ne peut pas facilement adapter à nos usages. Et c’est pour cela que je m’intéresse aux usages de l’ordinateur pour la créativité. Car les créatifs n’ont pas peur de tester les limites des outils pour voir ce que ça donne, de faire des combinaisons qui n’étaient pas prévues par les concepteurs, etc.

    B : Est-il possible de faire cela sans écrire de code ? Est-ce que spécifier comment on va utiliser une séquence d’outils l’un après l’autre et dire que si tel outil ne marche pas, allez alors utiliser tel autre, etc. C’est déjà un peu écrire du code ?
    WM : Oui. Et on peut le faire de manière assez visuelle, ou en disant : « Regarde-moi : j’ai fait ça et ça. ». Mais on retombe sur cette question de puissance et de simplicité. Comment faire un système où ce que je fais en temps normal reste simple, mais où j’ai aussi la possibilité de faire des choses plus complexes, ou de travailler avec quelqu’un de plus expert qui ne fait pas les choses pour moi mais me permet d’acquérir de l’expertise ? C’est un peu la vision de mon projet. C’est ambitieux et si j’étais immodeste je dirais que ça peut changer le monde… Le point important, c’est qu’on veut montrer comment repenser l’interaction. Par exemple, pour gérer les grandes quantités de données, il y a les langages de requête, les ontologies, etc. Mais c’est plutôt destiné aux experts. On peut aussi utiliser une approche visuelle, comme mon collègue Jean-Daniel Fekete qui travaille sur la visualisation interactive d’information. En fait on peut imaginer plein de façons d’interagir avec une base de données, mais on n’a pas de bonne conception des outils nécessaires pour interagir de façon cohérente pour un utilisateur qui n’est pas expert. Et je pense que si l’on considère l’interaction comme un objet de première classe, on peut répondre à ces questions et faire en sorte que des êtres humains normaux – pas des informaticiens ! – peuvent gérer des informations complexes.

    wendymackay-binaire-rayclid

    B : Peux-tu nous dire quelles ont été les grandes transformations ou les grandes avancées de ton domaine ?
    WM : Depuis 20 ans, l’interaction est sortie de l’écran et du clavier. J’ai participé au lancement de la réalité augmentée, qui à l’époque était vue comme l’inverse de la réalité virtuelle. Cela a aussi abouti aux interfaces tangibles, où on utilise des objets physiques pour interagir. Le papier interactif, sur lequel je travaille beaucoup, est une combinaison des deux. Plus récemment, il y a un grand intérêt pour l’interaction gestuelle avec les tablettes, les Kinect, etc., et puis le crowdsourcing, qui essaient d’utiliser l’intelligence humaine quand l’ordinateur ne sait pas faire. J’oublie plein de choses, bien sûr.

    On peut aussi parler de l’impact industriel. Par exemple, j’ai passé deux ans à Stanford, au HCI Lab, dirigé par Terry Winograd. Larry Page était son thésard. Il n’a jamais terminé sa thèse, mais il a créé Google. Pas mal ! En 2009, je me souviens avoir parlé avec Mike Krieger, toujours à Stanford, de mes recherches sur la communication à distance entre personnes proches et de notre notion de communication ambiante, et aussi de vidéo, etc. J’ai essayé de le prendre comme thésard mais il n’a pas voulu car il travaillait sur un petit projet. C’est devenu SnapChat… Il y a beaucoup d’exemples comme ça aux États-Unis.

    En France, ce n’est pas pareil. C’est dur de convaincre les industriels. On leur dit : « voilà une bonne interface » et ils répondent « oui, mais il y en a une qui marche déjà bien ». C’est l’avantage d’avoir habité dans plusieurs pays : on voit l’influence de la culture. En informatique, la culture américaine est très présente. Je commence à le voir après 20 ans passés en dehors des États-Unis, mais je reste américaine !

    B : : Il semble y avoir un changement de comportement par rapport aux modes traditionnels d’accès à l’information. On constate par exemple que les jeunes semblent avoir du mal avec l’écrit ?
    WM : En effet. Ce que je vois c’est que tout le monde pense que l’accès à l’information passe forcément par les interfaces graphiques actuelles. Moi j’ai « grandi » avec une Lisp Machine d’un côté, une station Sun sous Unix de l’autre. Avec Hal Abelson et Andy diSessa au MIT on a travaillé sur un système qui s’appelait Boxer, une sorte de Lisp visuel. Il y avait aussi Lego Logo, plein d’autres systèmes avec des hypothèses différentes. Aujourd’hui les gens ne connaissent que Windows, les applications, et le web, et c’est extrêmement limité. Et même les étudiants de nos Masters ont vraiment du mal à penser plus largement que ça et c’est un dommage. Et pour les plus jeunes, c’est vrai qu’ils ont du mal à écrire, peut-être parce qu’ils tapent tout le temps des SMS ?

    B : Avec les interfaces graphiques, les gens apprennent-ils autre chose que l’écriture dite classique ?
    WM : Je me souviens du moment où je suis passé de la recopie de texte écrit à la main à la rédaction directement sur l’ordinateur. Il y a des écrivains qui n’ont jamais fait ce pas et, de nos jours, des jeunes n’ont jamais fait la première partie : rédiger sur papier. C’est très différent, comme interaction. L’écriture, c’est très physique. Mais de pouvoir taper au clavier, c’est un bon changement en fait. Le champ des possibles su le papier est aussi varié : on peut aussi dessiner, faire des schémas, écrire de la musique. En fait, je travaille sur le papier interactif depuis 20 ans maintenant. Il y a des technologies comme Anoto, qui permettent de capturer ce que l’on écrit sur papier, et puis il y a des écrans qui ressemblent à du papier, comme celui du Kindle. Le papier électronique, c’est un peu cela le rêve : combiner ces deux technologies pour faire du papier interactif. C’est une question de temps. Mais ce qui m’intéresse, c’est que lorsque j’étudie des gens qui doivent utiliser l’ordinateur, comme les biologistes qui ont besoin de bases de données de gènes, d’algorithmes de séquençage, etc. Ils utilisent toujours le papier pour prendre des notes.

    B : Même les jeunes ?
    WM : Oui, même les jeunes. On essaye de comprendre les raisons de cela. En ce moment on travaille avec des musiciens et des compositeurs à l’IRCAM. On les appelle des « utilisateurs extrêmes » car ils poussent les limites de la technologie. Ils utilisent beaucoup l’ordinateur, mais ils travaillent aussi sur papier. Ils ont besoin des deux. Ce qui est très intéressant, c’est de comprendre quels sont les aspects du papier qui sont importants pour eux. Et la réponse est : pour pouvoir exprimer leurs idées plus facilement. Quand je suis sur l’ordinateur, je suis dans une application et je ne peux faire que ce qui a été prévu par ses concepteurs. Avec le papier, j’ai une grande souplesse d’expression. Je peux faire des schémas, tracer des courbes, écrire du texte. Les compositeurs veulent exprimer une idée musicale sous forme de dessin. Ils ne savent pas forcément encore ce que c’est. Alors comment créer une application sur un ordinateur pour aider quelqu’un à exprimer quelque chose qui est dans sa tête et n’est pas encore parfaitement défini ? C’est ça, en partie, la créativité dont je parlais tout à l’heure. En plus, chaque compositeur veut être unique : si je conçois une application qui répond exactement au besoin d’un compositeur, un autre ne voudra pas l’utiliser. Il faut donc réaliser un système que les utilisateurs peuvent personnaliser dès le début, mais avec lequel ils peuvent aussi immédiatement exprimer leurs idées. C’est un vrai défi. Et nous avons réalisé une série d’outils pour relever ce défi, et certains sont utilisés par des compositeurs pour des pièces qui vont être jouées en public. Et là aussi on utilise notre notion de substrate. Je vous fais une explication sur le tableau.

    substrates

    Si je fais une série de points (Wendy met des points apparemment au hasard sur le tableau…) et que je dis à l’ordinateur : « interprète cela », ça peut être plein de choses. Mais si j’ajoute ça (Wendy dessine cinq lignes), maintenant tout le monde comprend : c’est une portée. Mais qu’est-ce qui se passe si je fais ça (Wendy dessine deux axes perpendiculaires) ? C’est un graphe, du papier millimétré. L’idée, c’est qu’on peut créer différents contextes pour les données. Les points sont les données et la portée ou les axes, c’est ce qu’on appelle le substrate. C’est un moyen d’organiser les données, mais aussi de les interpréter, de définir ce que l’on peut faire avec. Cela touche aussi à ce que certains chercheurs font en base de données : comment organiser les données.

    PaperTonnetz workspace© Wendy Mackay

    B : Si l’on se penche sur le nom de ton équipe : Insitu. Dans le domaine artistique, in situ, c’est l’art qui est dans son contexte, l’art qui est dans sa position. Comme le street art. C’est lié à ça, le choix du mot in situ ?
    WM : Un peu. InSitu, c’est aussi l’abréviation de « interaction située ». C’est l’idée que les êtres humains utilisent toujours l’ordinateur dans un certain contexte et qu’il ne faut pas considérer l’interaction de façon abstraite, mais par rapport à ce contexte. Bien sûr, on utilise des abstractions pour concevoir le système, mais il ne faut pas oublier le contexte. Il y a un autre aspect, c’est que je travaille toujours avec de vrais utilisateurs et de vraies situations. J’ai observé les contrôleurs du trafic aérien, les biologistes de l’Institut Pasteur, les compositeurs de l’IRCAM pendant des dizaines d’heures. Nous travaillons avec eux, on fait des ateliers, on conçoit des prototypes  qu’ils peuvent utiliser pour jouer leur musique, analyser leurs données biologiques, utiliser le même simulateur de trafic aérien sur lequel ils s’entraînent. C’est très important de voir comment les prototypes marchent dans ces situations réelles.

    B : Est-ce que ça veut dire que la valeur de votre travail dépend du moment de l’histoire où on est ? Ou est-ce que vous avez des théorèmes ou des axiomes, des principes intemporels ?
    WM : Avec ma formation en psychologie expérimentale, ce qui m’intéresse c’est que l’on travaille avec des êtres humains. Si je regarde l’évolution de l’être humain au niveau cognitif depuis, disons, l’invention de l’ordinateur, j’ai une courbe plate. Peut-être que ça bouge un peu, on parlait des jeunes tout à l’heure, mais c’est à peu près plat. Mais pour les ordinateurs, avec la loi de Moore, on a une courbe comme exponentielle. C’est la capacité de stockage, la capacité de calcul, les réseaux.

    PastedGraphic-3

    B : Donc là, tu as marqué sur ton dessin que les machines sont devenues plus « quelque chose » que les êtres humains aux alentours de 1980… Plus intelligentes ?
    WM : (rire) Non, ce n’est pas ça… Il y a des gens comme Ray Kurzweil qui croient à ce point de convergence, la « grande singularité » où les machines vont dépasser l’homme. Moi je n’y crois pas parce que les êtres humains ne fonctionnent pas de la même façon que les ordinateurs. Mais il y a cette idée que la capacité de l’ordinateur augmente et que la complexité de ce que l’on traite avec l’ordinateur augmente de façon spectaculaire, alors que nos capacités à gérer toute cette information n’ont pas augmenté. C’est la raison de l’information overload.

    B : La surcharge d’information ?
    WM : C’est ça. Nos capacités sont de plus en plus limitées par rapport à la quantité d’informations et la complexité du système qu’on utilise. Alors il faut que les systèmes prennent bien en compte ces limitations. Il y a des normes, des capacités de l’être humain qu’on connaît et qu’on utilise dans la conception de nos systèmes. Par exemple il y a la Loi de Fitts, qui peut prédire précisément le temps qu’il faut pour déplacer le curseur vers une cible, comme un bouton, en connaissant la distance et la taille de la cible. Il y a aussi des connaissances qui viennent des sciences sociales, de la psychologie, même de la biologie. On peut utiliser cette connaissance de ce qui ne change pas beaucoup pour gérer cette augmentation de complexité du côté de l’ordinateur.

    B : Wendy, un dernier point que tu aurais aimé souligner, que nous n’aurions pas abordé ?
    WM : Je suis née au Canada, j’ai grandi aux États-Unis, et j’ai passé une grande partie de ma carrière en Angleterre et en Europe. Ce sont les quatre endroits où il se passe beaucoup de choses dans notre domaine. J’ai l’impression que pour beaucoup d’informaticiens, la culture n’a pas beaucoup d’influence sur leur domaine. Mais en interaction homme-machine, c’est important. Du côté européen, c’est plus théorique, du côté nord-américain, c’est plus pratique. L’IHM est très présente maintenant dans les meilleures universités aux États-Unis, au Canada et en Angleterre. C’est moins le cas dans le reste de l’Europe. Par exemple, Stanford a sa d.School et Carnegie Mellon University a le HCI Institute, le plus grand centre d’IHM au monde. Il y a aussi le MIT, l’Université de Toronto, Berkeley, etc. Et ils sont toujours à côté d’une école de design, ce qui est intéressant. Côté design, en Europe, le Royal College of Art à Londres a été le premier à enseigner le design pour l’IHM et en Italie il y a eu Ivrea qui était aussi une école de design mais liée à l’informatique. Au Pays-Bas, le design est très développé et Philips à Eindhoven a aussi poussé en ce sens. En France, c’est très difficile. On est très monodisciplinaire en France.

    PastedGraphic-5B : Il n’y a pas assez de connexions ou de relations entre les écoles de design françaises et les écoles d’informatique selon toi ?
    WM : Beaucoup trop peu. On a essayé avec l’ENSCI (l’Ecole Nationale Supérieure de Création Industrielle) plusieurs fois. Quand on a réussi, c’était très intéressant mais très difficile car les écoles de design sont gérées de façon différente, il est très dur pour un étudiant de prendre des cours des deux côtés. L’ENSCI a des liens avec le CEA, c’est sans doute plus facile pour des groupes de recherche industrielle. Mais en France, le manque de pluridisciplinarité vient du fait que les étudiants sont orientés très tôt. Ça crée des problèmes. Par exemple nous avons deux Masters en IHM à Paris-Sud : l’un pour les entrepreneurs, l’autre pour les chercheurs. Ils sont enseignés en anglais et la plupart de nos étudiants (100% des entrepreneurs et 90% du Master recherche) ne sont pas français. Je trouve ça dommage. L’autre chose, c’est que les étudiants en France ne savent pas ce qu’est la recherche. Ça arrive très tard, à la fin du M2 avec le stage de recherche. Et ils n’ont pas non plus l’expérience de définir leurs propres projets, ce sont les enseignants qui imposent le sujet. Quand on va au MIT, il y a des espaces partout pour faire des projets. Les étudiants sont toujours en train de travailler sur des projets. Il y a même un système qui s’appelle UROP, Undergraduate Research Opportunities Program pour qu’ils puissent travailler, dès le début de la licence, dans un labo et être payés (pas beaucoup) pour participer à la recherche dès le début de leur scolarité. Et ça change tout : les gens sont plus curieux, plus ouverts, plus autonomes. En France, un étudiant fait un Master de deux ans et il commence son premier stage de recherche à la fin de tous les cours.

    B : C’est un peu vrai à l’université. C’est un petit peu moins vrai dans les grandes écoles
    WM : C’est vrai, mais c’est vraiment dommage, et c’est vraiment trop tard.
    Comment savoir si on veut faire de la recherche ? La recherche, ce n’est pas juste une question d’intelligence. C’est aussi une question de curiosité, de personnalité. Il y a des gens qui sont faits pour être chercheur, d’autres non… Il faut être un peu rebelle pour être un bon chercheur, je pense. Comment savoir, si c’est à l’âge de 23 ans qu’on fait pour la première fois un peu de recherche ? Comment décider, après seulement quelques semaines de stage, si on veut candidater à une thèse ? Il y a des étudiants qui manquent de confiance et qui disent : « ah, je ne suis pas sûr de pouvoir le faire ». Et d’autres pensent : « bon, il faut travailler dans l’industrie parce qu’il faut gagner sa vie ». Mais c’est une belle vie, la recherche, pour les gens qui ont les capacités… Alors je trouve qu’on est en retard pour cette ouverture sur la recherche, et c’est aussi dommage pour ceux qui vont dans l’industrie. Moi, j’ai passé une partie de ma vie dans l’industrie, d’abord dans la R&D. Les travaux qu’on a fait en recherche sont devenus des produits qui ont rapporté du bénéfice et j’ai été chef d’un groupe où l’on a développé plein de logiciels. Au bout d’un moment, je me suis lassée et je me suis dit : non, c’est beaucoup mieux de faire de la recherche. Je suis revenue dans la recherche et j’adore ça. Mais je comprends les deux aspects, le développement de produits et la recherche, et cela m’a aidé des deux côtés. Il y a toujours des problèmes quand on fait des vrais produits dans le monde réel. Il y a les plannings à respecter, les spécifications fonctionnelles, etc. ; il y a la réalité, qui est très différente. Soit on s’adapte, soit on est absolument bloqué. je pense que si l’on fait un peu de recherche quand on est plus jeune, quand on va dans l’industrie ça donne un peu plus de souplesse pour gérer ces situations. Voilà, c’est l’interaction située, encore une fois ! En conclusions, j’aime beaucoup faire de la recherche en France. C’est difficile aux États-Unis en ce moment, car il y a beaucoup de pression pour faire des choses utiles à l’industrie. Moi, j’aime la capacité de pouvoir penser à plus long terme.

     

  • Lev Manovitch à Place de la Toile

    Interview de Lev Manovitch par Claire Richard à Place de la Toile.  Lev Manovich est professeur d’informatique à l’Université de New York, spécialiste des médias et de la visualisation de data masse. Il est l’auteur de Le langage des nouveaux médias et  l’an dernier de Software takes command.

    Ce Place de la Toile est le dernier de la saison et le dernier de Xavier de la Porte. C’est l’occasion, comme auditeur assidu,  de remercier Xavier pour de très bons moments, des moments forts, des moments intelligents qui forçent à réfléchir.

    A la question « Est-ce qu’il est important de comprendre comment fonctionnent les algorithmes », Manovitch répond évidemment que oui, une évidence pour les lecteurs de Binaire. Mais il soulève un problème : « Notre société ne repose plus sur une constitution de quelques pages de textes mais sur des algorithmes de millions de lignes de code, et ce code on ne peut pas le consulter ». Pas cool !

    En une phrase, il rejoint deux sujets sur lequel je m’arrache la tête depuis deux ans :

    Bon sang mais c’est bien sûr, les deux sujets sont très liés ! Pour vivre honnêtement dans une société numérique, il faut être formé pour cela (l’informatique) et il faut que la société arrête de nous entuber (la neutralité). Pour ça et le reste, allez écouter Manovitch et son accent russe des plus sympas.

    Serge Abiteboul

     

  • Affelnet : de l’infinie souplesse du logiciel

    Un ami de Binaire, Marc Shapiro, nous écrit pour parler de l’infinie souplesse du logiciel. Il mentionne brièvement un autre problème qu’il nous faudra aussi aborder : Qui de nous ou de la machine décide ? A l’ère  des voitures sans chauffeur, des échanges boursiers automatisés et des des drones-bourreau, on ne peut éluder la question.

    Dans le Monde du 2 juillet : « A Paris, un logiciel pour favoriser la mixité scolaire ».  Un logiciel, Affelnet, aide à répartir les collégiens entre lycées : « chaque rectorat y a introduit des critères spécifiques, le transformant avec plus ou moins de pertinence en un outil au service de la politique rectorale. » Ainsi, l’académie de Paris a choisi des paramètres qui remontent les élèves défavorisés, permettant ainsi à un boursier d’intégrer un « bon » lycée devant un élève mieux noté ; alors que d’autres académies ont fait le choix contraire.

    Cela nous rappelle que ce n’est jamais « la machine qui décide » et que, quels que soient les choix qui sont faits, ce sont des humains qui en sont responsables en amont.  C’est très clair ici : différentes académies utilisent le même logiciel, en le paramétrant selon des politiques spécifiques.

    Espérons en outre que, dans les académies, on prend en compte aussi l’individu concerné, et qu’on n’utilise pas le résultat du calcul comme un alibi ; mais ceci est une autre histoire…

    Pour en revenir à nos moutons, ce cas illustre aussi l’infinie souplesse du logiciel.  Tout logiciel un peu évolué regorge de paramètres que l’on peut varier, afin de modifier son comportement.  Si l’on en croit la description d’Affelnet dans le Monde, le responsable d’une académie peut, sans difficulté, changer le poids relatif des notes de troisième d’une part, et de divers indicateurs comme le statut de boursier ou l’adresse d’autre part.  Augmenter le poids des notes favorisera statistiquement les élèves ayant bénéficié jusque-là de bonnes conditions de scolarité.

    On peut aussi modifier le l’algorithme de calcul lui-même, afin par exemple de prendre en compte de nouvelles données (disons, la distance entre le domicile et le lycée ; ou bien, soyons fous : les souhaits de l’intéressé).  Chaque nouvelle « version » de logiciel incorpore un grand nombre de telles améliorations.

    Cette infinie souplesse va de pair avec une infinie complexité.  Les paramètres d’un gros logiciel sont nombreux, souvent difficiles d’accès, et presque toujours mal compris.  Le logiciel est infiniment souple, mais savoir le concevoir, le réaliser, le maintenir et modifier est un métier.  Cela demande méthode et rigueur, et la capacité de savoir passer du général (la spécification, ou ce à quoi le logiciel va servir) au particulier (le codage, ou mise en œuvre détaillée) et vice-versa (comment telle modification locale impactera l’ensemble).

    Enfin, cet exemple illustre parfaitement la distinction entre « mécanisme » et « politique ».  On attend d’un logiciel qu’il soit un outil générique pouvant être mis au service d’objectifs variés.  Dans le cas d’Affelnet, le « mécanisme », c’est l’aide à la décision de répartition des élèves ; la « politique », le choix d’un ensemble de paramètres. Cette distinction est un des apports fondamentaux de l’informatique.

    Marc Shapiro, Directeur de recherche Inria et membre du Lip6

  • Pièges à MOOC

    Il y a deux ans le New York Times faisait sa une sur « l’année du MOOC » (Massive Open Online Course). Des journalistes enthousiastes expliquaient le plus sérieusement du monde que le « FLOT » (Formation en Ligne Ouverte à Tous)  allait permettre de diffuser les meilleurs cours sur Internet, instruire l’humanité,  pour enfin sortir la majorité de la population mondiale de la pauvreté. Véritable révolution de l’enseignement ? Excès d’optimisme ? Binaire a demandé à un ami, Rachid Guerraoui, de nous expliquer ce qu’il en est.

    Cette époque coïncidait avec la mise en ligne de certains cours auxquels des milliers d’étudiants s’inscrivaient  partout dans le monde: le cours de Thrun à Stanford avec près de 150.000 inscrits, le cours de Guttag au MIT avec plus de 70.000 inscrits, le cours d’Odersky de l’EPFL avec plus de 50.000 inscrits, etc. Aucun de ces professeurs ne pourrait jamais espérer atteindre autant d’élèves dans sa carrière, même en se réincarnant plusieurs fois. La progression du nombre d’inscrits à de tels cours, plus fulgurante que celle de Facebook, laissait présager aux MOOCs un avenir des plus radieux.

    Il a fallu malheureusement un peu déchanter. On s’est rendu compte qu’une grande majorité d’inscrits abandonnait : jusqu’à 95%. Ceux qui restaient étaient pour la plupart très instruits et possédaient déjà des diplômes et un travail. Autrement dit, les MOOCs fonctionnent bien pour la formation professionnelle mais ne semblent pas toujours   adaptés aux jeunes élèves scolarisés. Aujourd’hui des médias parlent de la désillusion de l’enseignement numérique. Il y a plusieurs raisons à cela. En voici cinq.  Il s’agît de pièges dans lesquels sont tombés plusieurs projets. Ces pièges sont sournois car il partent à chaque fois  d’un constat tout à fait juste pour en déduire une conclusion parfois idéalisée, souvent hâtive, et qui peut signifier l’abandon à terme du projet.

    RachidRachid Guerraoui @Rachid

    Le terme « enseignement »

    Le constat de départ ici est que l’enseignement dans plusieurs parties du monde, y compris dans certaines régions de pays dits riches,  est dans un état catastrophique, mais qu’à l’inverse, Internet se propage de manière prodigieuse partout dans le monde. Rien de plus naturel alors que d’essayer de prendre l’enseignement là où il est le meilleur et d’utiliser Internet pour le diffuser le plus largement possible. On parle alors d’enseignement numérique.  Cela sous-entend (1) la conception d’un enseignement sous une forme numérique appelé contenu – typiquement la vidéo d’un professeur donnant un cours et   (2) la diffusion de ce contenu à travers un support de diffusion du numérique – typiquement Internet.

    Les élèves suivraient les cours sur Internet. On parle parfois de « flipping classes » dans le sens ou les élèves apprendraient les concepts « at-home »  pour venir en classe faire leur « home-work ». L’enseignement s’en trouverait complètement changé. Mais l’Histoire nous a démontré que l’enseignement traverse toutes les révolutions, techniques ou technologiques, sans changer radicalement. On a radicalement modifié au fil du temps notre manière de voyager, de se soigner, de faire du commerce, de s’amuser, mais pas d’enseigner.

    Depuis la nuit des temps, les professeurs debout s’agitent à quelques mètres de leurs élèves pour capter leur attention et les empêcher de s’endormir. On a pensé que l’écriture allait fondamentalement changer cela.  On s’est  trompé. Même le grand Socrate qui avait peur que ses classes soient désertées à cause de l’utilisation de l’écriture s’est trompé.  On a pensé que l’imprimerie allait changer cela et qu’avec les livres, les élèves n’auraient plus besoin de venir en classe. On s’est trompé. On pense que le numérique va finalement changer cela. On se trompe.  Tout comme les inventions de l’écriture et de l’imprimerie ont servi d’appoints (considérables) à l’enseignement, mais sans le changer radicalement, le numérique ne sera aussi qu’un appoint. Un appoint important, certes, mais seulement un appoint. Il faudrait idéalement parler d’appoint numérique de l’enseignement plutôt que d’enseignement numérique. Rien ne remplacera la présence physique du professeur si le but est de transmettre du savoir à de jeunes élèves.

    Le pouvoir du numérique

    Le numérique permet de réaliser des choses étonnantes et la progression des possibilités de l’informatique graphique semble exponentielle. Pourquoi devrions-on nous nous en priver dans l’enseignement pour produire du contenu éducatif ? Pourquoi ne pas profiter de ces progrès technologiques pour enseigner le théorème de Thalès avec une animation de Spider Man et le théorème de Pythagore à travers une course de Robben ?

    Cela coûte néanmoins cher : à produire et à visualiser. Quand bien même les moyens d’acheter le matériel et le logiciel adéquats sont disponibles à un instant donné pour une production graphique sophistiquée, le passage à l’échelle peut s’avérer impossible. Les temps de montage sont énormes et les enseignants se retrouvent à perdre du temps sur autre chose que ce qu’ils savent faire : bien expliquer des concepts. Cela peut s’avérer d’autant plus inutile que l’élève du fin fond de l’Afrique ne dispose ni de la bande passante ni de la qualité graphique pour profiter de ces prouesses graphiques. On a vu plusieurs projets  d’enseignement numérique démarrer en force avec des moyens technologiques faramineux pour s’essouffler quelques mois plus tard.

    En fait, en investissant dans des moyens technologiques, on oublie souvent que le plus important est ailleurs : c’est le contenu.  Pour promouvoir un contenu de qualité, pouvoir le changer facilement et l’adapter à différentes situations, le logiciel et le matériel doivent être minimalistes. Rien par ailleurs n’a été inventé de mieux pour l’enseignement que le tableau noir et la craie. Ne pas être capable d’enseigner quelque chose de manière simple signifie souvent que nous ne l’avons pas bien compris, disait Einstein.

    L’élitisme a priori

    On part ici du constat que le contenu est crucial, pour en déduire qu’il faut passer par une étape de concertation, voire de certification a priori. Après tout, on ne peut pas mettre n’importe quoi à la disposition de millions d’élèves. Dans la pratique, un tel souci d’élitisme s’est traduit par la composition d’un comité d’experts censé évaluer le projet de création d’un contenu. Si le contenu est jugé inadapté, ou redondant avec un contenu existant, le comité d’experts le rejette ou suggère des modifications.  Or, on le ne dit  jamais assez,  la meilleure manière de faire capoter un projet est de le confier à un comité d’experts.

    Comme rappelé ci-dessus, il est évident que le contenu est la ressource la plus importante dans un enseignement numérique. Mais il faut avant tout qu’il y en ait. Or la difficulté est de motiver les enseignants. Au delà des stars d’un domaine, comme celles citées ci-dessus et qui désirent souvent atteindre un grand nombre d’élèves pour prêcher leur bonne parole, un professeur anonyme ne trouve pas toujours la motivation nécessaire à un travail de numérisation de son enseignement. Rajouter un obstacle de certification a priori s’avère souvent rédhibitoire.

    Il est important d’encourager les bons enseignants à numériser leur savoir. Mais une fois qu’un enseignant est convaincu de la pertinence d’un tel projet, il est tout aussi important de le laisser tranquille sur le choix de son contenu. Au bout du compte, le meilleur filtre est l’élève à l’autre bout d’Internet. Le numérique permet de comparer les taux d’accès et de rétention du contenu numérique. Si une vidéo expliquant le théorème Bolzano Weierstrass par le principe du « soleil levant »  à la craie et au tableau noir est suivie par des milliers de personnes, alors on peut juger qu’elle atteint son objectif. Autrement dit, l’élitisme est inévitable, mais il se fait naturellement a posteriori.

    L’exhaustivité

    Il existe aujourd’hui des cours classiques complets dans quasiment tous les domaines. Certains cours ont fait leur preuve depuis de nombreuses années. Ils suivent des séquences très spécifiques qui permettent à l’élève de comprendre de manière progressive sans sauter d’étape importante. Partant de cela, on se dit qu’il faut donc suivre la même voie pour le numérique : préparer et numériser des cours entiers, couvrant tous les aspects importants d’un domaine, avant de les mettre en ligne. Pour caricaturer, cela signifie qu’avant de concevoir un contenu numérique sur la résolution des équations du troisième degré, il faut l’avoir fait pour des équations du second degré.

    L’expérience a montré qu’à part pour des profils très spécifiques de personnes, des cours numériques complets sont jugés trop lourds par de jeunes élèves. Même quand ils s’inscrivent et suivent les premières étapes, ils abandonnent dans la majorité des cas. Par ailleurs, s’imposer une forme d’exhaustivité dans la génération d’un contenu numérique tend à annihiler les possibilités de co-création (wiki) et s’avère dans la pratique tout aussi rédhibitoire qu’un comité d’experts complexés. L’erreur encore une fois ici est de penser l’enseignement numérique comme un substitut de l’enseignement classique, soumis aux mêmes contraintes.

    Souvent, ce que  les élèves cherchent sont des appoints concis leur rappelant tel ou tel concept la veille d’un examen, ou leur donnant une idée sur une matière avant qu’ils ne puissent faire un choix d’orientation. Il est non seulement important que ces appoints soient brefs, mais qu’ils renvoient le moins possible vers d’autres contenus. Rien n’empêche d’avoir un contenu numérique spécifique pour ceux qui désirent une explication concernant la résolution d’équations du troisième degré : si aucun contenu n’est (encore) disponible pour expliquer la résolution  pour le second degré, tant pis. Le mieux est souvent l’ennemi du bien.

    La personnalisation

    Le désir de personnalisation part du constat que les élèves n’avancent pas tous au même rythme. Il serait souhaitable d’adapter l’offre numérique à chaque cas particulier. Idéalement, l’enseignement numérique permettrait de jouer le rôle du professeur privé au service de l’élève.

    Plus concrètement, une série de tests permettrait d’avoir une idée sur le niveau de l’élève et de lui proposer un contenu qui a été jugé adapté par des élèves du même niveau. L’élève pourrait lui aussi poser des questions et avoir un soutien personnalisé qui adapterait le contenu à la progression de l’élève. Techniquement, cela n’est pas impossible. Dans la pratique, cela ne fonctionne que rarement, pour les raisons indiquées ci-dessus : impatience des élèves, bande passante inadaptée, mauvais matériel de réception, difficulté de mobiliser les enseignants pendant de longues périodes d’enregistrement, etc.

    Encore une fois, la personnalisation est certes un objectif louable, mais essayer de le mettre en œuvre par la technologie peut devenir un frein à la diffusion du savoir. La personnalisation se fait naturellement par les élèves eux-mêmes : ils décident par exemple de quand ils vont voir des vidéos, combien de fois et dans quel ordre.

    watermark-youtubeL’expérience Wandida (*) @Wandida

    Nous nous sommes lancés à l’EPFL dans une expérience pragmatique  d’appoint à l’enseignement numérique en essayant d’éviter les pièges ci-dessus. Le schéma est celui de wikipédia : des vidéos atomiques expliquant des concepts de manière concise sont mises en accès libre sur Internet. Une simple recherche par mot-clé permet d’y accéder directement et gratuitement. Aucun test ou mot de passe n’est requis. Le modèle utilisé pour la conception des vidéos est celui de la craie et du tableau noir. L’enseignant n’est impliqué que dans la phase d’enregistrement du contenu : jamais dans le montage. Il est accompagné d’un ingénieur qui permet de souligner les incohérences lors de l’enregistrement et de minimiser les modifications a posteriori. La durée moyenne d’une vidéo est de 6mn : le temps maximal de concentration d’un jeune élève. L’ambition n’est pas de remplacer l’enseignement, mais de se concentrer sur les concepts difficiles d’une matière. La bibliothèque Wandida comporte déjà aujourd’hui près de 200 vidéos d’informatique, de mathématiques et de physique.

    Rachid Guerraoui, Professeur à l’Ecole Polytechnique Fédérale de Lausanne

    (*) Le terme wandida désigne dans l’Atlas marocain le papier glacé, utilisé par les bouchers pour envelopper leur viande et par les épiciers pour envelopper leur beurre: pour les élèves de classe modeste, c’était le seul papier brouillon disponible. Le projet wandida, initié à l’EPFL, est ouvert à d’autres partenaires.

     

  • La science ne peut s’accommoder de certaines idées

    Dans Grand-peur et misère du IIIe Reich, Brecht nous indiquait comment la science ne pouvait s’accommoder de certaines idées. Il montrait également comment ces idées pénètrent une société, même quand elles y sont arrivées de façon tout à fait démocratique.
    Binaire est un Blog Scientifique. Il pourrait donc se contenter de regarder dans une autre direction, décider que les résultats électoraux en France n’ont aucun rapport avec Science et Technologie.

    Questionnements sur la montée du totalitarisme, mis en scène par Estelle Bordaçarre et joué par la jeune Compagnie Emoi ©Jolimome  

    Ou bien, il peut penser que si, justement, il y a un rapport.

    Si le lecteur de Binaire pense autrement, qu’il reste sur le site et nous continuerons à parler science et technologie. S’il accepte de voir un rapport, nous l’invitons à nous suivre sur ce lien externe.

    Colin, Eric, Marie-Agnès, Pierre, Serge, Sylvie et Thierry.

  • Le samouraï de Villeneuve la Garenne

    Quand j’ai visité Simplon, je suis resté sur ma faim. Je n’avais pas assez causé avec les élèves. Alors j’ai contacté Rodolphe (Rodolphe Duterval) et lui ai proposé de le retrouver pour un verre. C’est un élève de la première promo de Simplon.co à Montreuil… Un élève un peu particulier : je vais plus parler de lui comme enseignant que comme élève. Mais après tout, le brouillage du fossé entre élèves et enseignants, n’est-ce pas aussi un aspect de Simplon ?

    rodolpheRodolphe © Nicolas Friess

    Rodolphe est particulier parce qu’il a déjà suivi 4 ans d’une école d’ingénieur avant de laisser tomber pour atterrir à Simplon, confronté à la difficulté de trouver un stage, attiré par l’esprit entrepreneurial. Donc, contrairement à la plupart des autres, il ne part pas de zéro en informatique. Comme il s’accaparait Ruby on Rail plus vite que ses potes, les profs de Simplon lui ont proposé comme stage de partir évangéliser Villeneuve la Garenne.

    Rodolphe s’est dit : j’aime enseigner ; je vais peut-être me découvrir une vocation. Pourquoi pas ?

    vlgla cité de La Noue à Villeneuve la Garenne  © Nicolas Friess

    La destinée: la cité de La Noue a été originellement conçue par son architecte sur le modèle… d’un micro-processeur !

    Le cadre de l’insertion à VlG
    Les élèves sont une quinzaine pour suivre une formation rémunérée de six mois de développeur informatique. Ils ont entre 19 et 25 ans, « plus ou moins » le niveau bac, et niveau 0 en informatique. (Merci l’éducation nationale ; il est commun en France en 2014 de quitter l’éducation gratuite, laïque et obligatoire sans rien savoir en informatique.). Ses élèves sont pour certains décrocheurs ; ils cherchent tous vaguement leur voie – traduire, ils galèrent. Une association spécialisée dans l’économie sociale et solidaire, Pôle Solidaire, les a pris en contrat d’avenir, et fournit la salle. Les machines viennent de Simplon – c’est de la récup d’un labo pharmaceutique. Elles tournent Linux et rien d’autre : Rodolphe n’est-il pas ici pour évangéliser ?

    1404_simplon__NFR0387Photo d’élèves peut-être en cours © Nicolas Friess

    La pédagogie
    On se débarrasse vite fait des concepts et « vas-y ! ». Le plus difficile est de les garder concentrés. Et pour ça, il faut qu’ils fassent. Ils aiment aussi les belles histoires et Rodolphe est le king du story telling : « Si tu as une bonne idée, et si tu as la technique, tu peux devenir le roi du couscous ; C’est l’histoire d’un jeune Bill Gates qui passait tout son temps sur les ordinateurs, séchait les cours, avait des tas de problèmes à l’école…».  Les problèmes à l’école, ils connaissent. Avec Rodolphe, ils découvrent l’ordinateur. Et il ne leur vent pas du rêve. Lui ne peut que leur amener la technique ; il faut qu’ils bossent dur s’ils veulent réussir. Alors ils bossent.
    C’est plus la motivation que les neurones qui risque de manquer. Mais, alors que les 6 mois touchent à leur fin, tout va bien. Ils ont bien eu un peu de problème avec l’anglais, mais l’ambiance est au beau fixe, l’absentéisme anormalement faible (ce que l’on remarque souvent dans ce genre de formations). Pire, le soir, ils n’arrivent pas à se décoller du clavier. La programmation, c’est addictif ? Très probablement.
    En tous cas, ils ont progressé plus vite que prévu. Ils bossent sur de vrais projets de sites Web, pour des associations locales. Oui ! Ils y arrivent !

    Les débouchés visés
    Il faut qu’à la fin des six mois, ils soient « employables » comme « opérateur système ». Rodolphe reconnaît que ça ne veut pas dire grand-chose. Ils sauront faire un site Web et filer un coup de main aux handicapés de l’ordinateur et d’Internet (ça, ça ne manque pas). Ils seront à l’aise avec un clavier et un programme ; ils pourront tenir des jobs de médiateur numérique, de référant digital. Ils pourront être utiles dans des petites entreprises ou des associations. Et parmi eux, certains, les plus tenaces, les plus brillants deviendront de vrais développeurs. Tous auront changé.


    Nous sommes une communauté de lutteurs, samouraïs, Maitres de l’air, et les codeurs de sumo.
    Nous devenons meilleurs en programmation information en résolvant des problèmes @codersumo

    Et Rodolphe ?
    Il aime partager ce qu’il a appris, donc le job d’enseignant lui plait bien. Mais il aimerait aussi être plus créatif. Il a l’ambition de devenir un de ces supers développeurs, un vrai, de cette aristocratie qui savent faire naitre des programmes, complexes, beaux, novateurs. Alors, en attendant, il lit, il apprend, et il fait des katas sur codersumo.com. Et si vous avez un truc sympa à lui proposer, envoyez le à binaire qui fera suivre.

    Serge Abiteboul

  • Des casques bleus pour le Net ?

    On parle souvent de « neutralité du réseau », dont le but est de participer à la liberté de communication et la liberté d’entreprendre. C’est d’abord un principe qui garantit l’égalité de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. Il est régulièrement répété et disputé.

    Un avis du Conseil national du numérique l’a défendu en 2013. Cet avis introduisait aussi la notion de « neutralité des plateformes ».  En étant un peu simpliste : à quoi servirait que le tuyau soit neutre (le réseau) si le robinet (la plateforme) décide pour vous ce que vous avez le droit de recevoir.

    axelleLa secrétaire d’état au numérique, Axelle Lemaire, à la remise du rapport: « Le Cnnum dans sa diversité est un modèle de la république numérique », © Léa Douhard

    Avant, les gens se connectaient directement au Web par un navigateur. Maintenant ils sont sur un téléphone en utilisant des applications. Et si le store ne veut pas de l’application que vous avez écrite parce qu’il lui préfère sa propre application qui a une fonction équivalente ? La plupart des gens passent systématiquement par un moteur de recherche. Et si le moteur de recherche ne vous référence que sur la deuxième page de résultats que quasi personne ne lit ? Parce que vous concurrencez un ses clients, ou même parce que vous concurrencez un des services de l’entreprise qui propose ce moteur ? Vos droits d’expression, d’exister, ont rétréci. Le droit des internautes d’accéder à votre contenu s’est rétréci. Ces grandes plateformes servent d’inter-médiation avec les utilisateurs. Elles peuvent, quand elles dominent trop, tuer la compétition, interdire l’innovation, réduire la liberté d’expression.

    Le CNNum a rendu aujourd’hui un avis sur la neutralité des plateformes. Plutôt que d’essayer un résumé d’un texte complexe, j’ai fait un choix (qui s’assume biaisé) de points soulevés dans les quatre volets de ce rapport.

    Volet I – Renforcer l’effectivité des droits sur les plateformes numériques
    •    Les plateformes numériques ne sont pas des espaces de non-droit.
    •    Adapter les rythmes d’intervention et les niveaux de sanction des autorités à la vitesse du marché et à la hauteur des dommages.

    Volet II – Garantir la loyauté du système des données
    •    Favoriser la fluidité des données : portabilité et l’interopérabilité des données.
    •    Mieux appréhender les comportements des plates-formes dominantes et les rapports de force avec leurs usagers et leurs partenaires.

    Volet III – Pas de compétitivité sans un investissement massif dans les compétences et les connaissances
    •    Informer les citoyens sur le fonctionnement des plates-formes …  littératie numérique.

    Volet IV – Créer les conditions pour l’émergence d’alternatives
    •    Soutenir activement les initiatives de constitution de modèles d’affaires alternatifs.
    •    Porter au niveau international les valeurs européennes pour la construction d’une société numérique soutenable.

    Je ne vais pas vous commenter tout cela, mais je vais juste illustrer un point des recommandations : la fluidité des données.

    Aujourd’hui vous utilisez un service, vous avez plein de données sur ce service. Deux limitations sérieuses :

    • Vous aimeriez bien utiliser les données de ce service dans un autre service (proposé par une autre entreprise). Cela n’est pas possible par manque d’interopérabilité entre ces services.
    • Vous souhaitez changer de service pour une raison ou une autre, c’est quasi impossible car vous ne voulez pas perdre les données qui sont sur le service. Problème de portabilité.

    Les entreprises veulent vous garder ; elles cherchent à vous convaincre de prendre plus de services chez elles. Donc elles ne sont à priori pas très motivées pour intégrer le principe de portabilité et d’interopérabilité (avec les services des autres). Il faut donc les y « encourager »… par la loi, par la pression des associations d’utilisateurs, etc.

    Serge Abiteboul

  • Real Humans ?

    Dans un article du journal du CNRS, Raja Chatila, un chercheur en robotique, replace dans son vrai contexte la très attrayante série real humans que propose Arte. C’est une série qui « ne parle pas de robotique » mais utilise la robotique comme une fable pour nous aider à regarder notre humanité en miroir de ces êtres imaginaires.

    Raja nous explique que « ces machines sont extrêmement loin de la réalité ou même d’un futur éventuel » :

    • La notion de droit pour les robots est une absurdité, car ce sont bien des humains qui les ont conçus, développés et utilisés, donc qui sont juridiquement responsables de leurs agissements ;
    • La notion de conscience pour une machine est un oxymore, alors qu’on « ne sait même pas [complètement] définir la conscience chez les êtres humains» ;
    • Choisir de laisser un robot décider seul est un non-sens, car il y a bien une décision humaine : celle d’utiliser le résultat de l’algorithme de calcul sans chercher à l’analyser.

    Raja rappelle que les «risques de confusion entre le vivant et le non-vivant » est un sujet d’étude en soi. La vraie question est posée.

    Pinocchio de bois, Florence (dès que la fée passera ces patins seront humains ) ©Vladimir Menkov

    Nous sommes bien loin de ceux qui, personnifiant les objets numériques (machines, algorithmes, …), se perdent dans des débats illusoires ou confondent un résultat scientifique avec un coup de bluff médiatique.  Le dernier, « On a réussi le test de Turing », est démystifié par Jean-Paul Delahaye dans un joli billet.

    Raja est bien un chercheur à la pointe de la robotique et de l’intelligence mécaniste (dite souvent intelligence artificielle). Ce sont des scientifiques comme lui dont les travaux extrêmement sophistiqués permettent aux industriels de faire les robots qui changent notre vie, ceux qui la changeront encore plus demain. Ces objets numériques et mécaniques seront probablement plus des objets connectés intégrés à notre environnement quotidien que des marionnettes animées.

    Thierry Viéville.

  • Mon pote le robot

    Parlons de la découverte de la robotique à l’école primaire, quand la recherche se met au service de l’éducation. Didier Roy est un professeur de mathématiques du XXIe siècle. Il enseigne les sciences du numérique. Accueilli comme chercheur en optimisation et personnalisation des apprentissages au sein d’une équipe de recherche en robotique d’Inria Bordeaux Sud-Ouest, Flowers, son travail* fait de la robotique un outil d’éveil scientifique.

    Entrez avec nous dans la salle de classe.

    Nous sommes un mardi. Il est 15h45. Cet après-midi de printemps est radieux. Il doit être génial de jouer dehors. Pourtant, Lola, Safina et Oscar n’ont pas l’intention de sortir tout de suite de la salle de classe.

    Posé sur la table devant eux, un étrange objet** fait d’étranges choses. Il avance, tourne à gauche, à droite, recule, jette des éclairs de lumière verte, bleue ou rouge, émet des petits sons graves ou aigus, court ou longs.

    robot-thymio-2« C’est n’importe quoi », pense Oscar. Quarante secondes plus tard, il se demande s’il n’y a pas quelque chose à comprendre là-dedans. D’accord, mais quoi ? Au bout de 10 minutes, la petite équipe perce une première épaisseur de mystère : en appuyant sur les boutons on peut changer ce que fait le machin sur la table, on peut choisir son comportement.
    Quand il émet une couleur verte, il a aussi tendance à suivre un objet qui est devant lui, à être « amical ». « D’accord pour amical. On pourrait même dire collant ! » remarque Safina.

    Quand la couleur est rouge, impossible de l’approcher, il fuit sans arrêt. Ça doit être le mode « trouillard » dit Lola en rigolant.

    Pour le comportement bleu, c’est plus compliqué. On a beau avoir 8 ans, on ne sait pas tout.

    — Peut-être qu’il faut lui chanter quelque chose ? avance Safina.
    — Ou lui dire un mot spécial, ou lui tirer la langue ! répond Oscar en faisant des gestes. Comment on peut savoir ?
    — Ben, en réfléchissant et en essayant, à mon avis. Faisons une liste de ce qu’on pense, dit Lola.

    Les voilà d’accord. Une liste des catégories de choses à tester est commencée. La méthode prend forme, ils commencent à tester des mots, puis des gestes, mais le champ des possibilités est tellement vaste… Ils cherchent d’autres pistes, si possible offrant moins d’aléatoire. Il leur semble avoir (presque) tout essayé quand Safina se rappelle qu’on leur a aussi donné des trucs en même temps que le machin. Des cubes, des petites quilles et une feuille avec une espèce de circuit tracé en noir. Elle pose le robot sur le circuit. Et là, devant leurs yeux écarquillés, le machin se met à suivre la ligne noire en se balançant tout au long, comme un chien qui suit une piste le museau collé au sol. « Trop fort, le machin ! »

    Il faut maintenant franchir le deuxième cercle de mystère. Comment fonctionnent les comportements ? Par exemple, l’« amical ». Les enfants tombent d’accord en moins de deux minutes. Sur le devant du machin se trouvent comme de toutes petites fenêtres, qui détectent s’il y a un objet. S’il y en a un, il avance, s’il n’y a en a pas, il ne fait rien.

    Ça marche avec toutes les fenêtres ou pas ? Avec des objets différents ? Afin d’en savoir plus, on discute et s’accorde sur une série de tests à faire, un seul doigt devant une seule fenêtre, deux doigts devant deux fenêtres… À l’issue de l’expérience, c’est clair : n’importe quel nombre de n’importe quels objets devant n’importe quel nombre de n’importe quelles fenêtres fait avancer le robot !

    — Je le savais depuis le début, fanfaronne Oscar.
    — Peut-être bien que t’es trop fort mais là au moins on en est sûr que ça marche comme ça, lui rétorque Safina, légèrement agacée.

    Trois quarts d’heure plus tard, après avoir réalisé les autres activités données par l’animateur, Lola, Safina et Oscar rentrent chez eux avec des choses nouvelles à raconter à la maison. On leur a donné un machin dont ils ont essayé de comprendre le fonctionnement. Pour eux, c’est maintenant clair : dans le machin, il y a des capteurs qui permettent de détecter des choses, un petit ordinateur pour décider quoi en faire et des actionneurs pour faire ce qui a été décidé : rouler, tourner, faire de la lumière, faire du bruit.

    Ah ! Le machin ? il s’appelle un « robot ». Et son petit nom est Thymio 2.

    — Moi, quand je serai grande, je veux être roboticienne, c’est sûr ! lance Lola à ses parents, surpris de cet intérêt soudain pour les sciences.

    Vivement mardi prochain : on va apprendre à faire des programmes pour le robot !

    Quels sont les objectifs d’un tel enseignement de la robotique ?

    La robotique propose un micro-monde d’apprentissage, intégré, coopératif, motivant, ludique et riche. On y aborde naturellement une démarche scientifique en identifiant et définissant des problèmes, en formulant des hypothèses, en expérimentant, en analysant, en argumentant.

    La robotique s’inscrit dans le champ des sciences du numérique et de l’informatique, domaine essentiel pour des jeunes habiles avec les objets numériques qui leur sont familiers mais ayant également besoin de s’approprier des concepts qu’ils ne connaissent pas encore, afin de les dominer pour en tirer le meilleur.

    Contribuer à la promotion et à la démocratisation de ces sciences est par ailleurs fondamental, pour plus tard, quand ils devront vivre dans un monde où l’innovation prend une importance croissante dans l’activité économique, et dans le développement humain.

    On peut résumer ces objectifs dans cette table :

    Objectifs éducatifs
    Objectifs institutionnels
    • Développer des compétences en informatique et en robotique.
    • Amplifier le plaisir d’apprendre.
    • Apprendre à travailler en équipe autour de projets.
    • Apprendre une démarche scientifique.
    • Développer la créativité.
    • Promouvoir les filières de formation scientifique et technologique.
    • Enseigner les sciences du XXIe siècle liées au numérique.
    • Promouvoir l’égalité des chances notament en luttant contre le décrochage scolaire.

    L’évaluation de ces objectifs est un enjeu crucial, que nous ne développerons pas ici. Décrivons simplement les outils que nous utilisons, pour donner un aperçu de ce volet du travail qui prend aussi la forme d’un travail de recherche en didactique de l’informatique :

    Une évaluation des compétences des élèves
    • Un portfolio numérique par équipe avec compte-rendu de missions, petits reportages, textes, photos, vidéos, … Carnet de voyage.
    • Une présentation du portfolio devant les autres équipes.
    • Une observation par l’adulte accompagnateur.
    • Des QCM de connaissances.
    Une évaluation de l’enseignement
    • Des indicateurs :
      • Connaissances en informatique et en robotique.
      • Plaisir d’apprendre.
      • Qualité du travail en équipe.
      • Rigueur, méthode.
    • Des outils d’évaluation :
      • Questionnaire élèves en fin d’année.
      • Analyse des résultats aux tests de connaissance.
      • Analyse des observations durant les séances.
      • Analyse des portfolios et des présentations orales.

    Conclusion : un levier pour l’égalité des chances.

    L’initiation à la robotique contribue à la lutte contre l’échec scolaire. Elle suscite une pédagogie de projet, change le cadre d’enseignement en le rendant plus souple, moins stigmatisant, particulièrement pour les élèves en difficulté. Sa démarche de recherche active, son ouverture au débat, sont autant d’atouts pour faciliter l’expression d’élèves en rupture d’un cadre scolaire traditionnel et qui leur est mal adapté.

    La robotique n’est pas la seule à proposer un cadre facilitateur de progrès mais celui-ci y trouve là facilement sa place, par la nature même des activités proposées.

    Nous observons une appétence de la part des jeunes filles pour la robotique. Une porte d’entrée supplémentaire vers les sciences, particulièrement du numérique, domaine où on les voit peu à peu prendre leur place (46 % des participants au concours Castor Informatique et plus de la moitié des lycéen-ne-s inscrit-e-s en spécialité Informatique et Sciences du Numérique (ISN) de Terminale S sont des filles). Une tendance à conforter.

    À travers la robotique, il est légitime de travailler différentes disciplines, notamment le français et les maths, disciplines qui prennent tout leur sens pour exprimer ou comprendre. L’aspect tangible est également un atout pour amplifier ce sens. Et la composante ludique, facteur de plaisir d’apprendre, ne fait que renforcer une autre vision de l’apprentissage, moins rigide et davantage portée vers la valorisation des individus en situation de recherche.

    Cet enseignement de la robotique, et plus largement de l’informatique, est devenu indispensable dans une société où le numérique est à la fois si présent et si peu compris, où la technologie sépare les humains en deux catégories ; celles et ceux qui l’utilisent en en connaissant les bénéfices mais également les pièges, qui saisissent les fondements essentiels de la pensée informatique. Et les autres. La première catégorie doit croître aussi rapidement qu’il est possible, pour assurer un usage maîtrisé et sécurisé des technologies du numérique, si l’on veut veiller à ce que personne ne soit mis de côté et encore moins esclave d’un monde qu’il ne comprendrait plus.

    Didier Roy.

    (*) Le module est en cours de finalisation (disponible sous forme open source à la mi-juin). Rendez-vous sur le site dédié à la médiation de la robotique, « Dessine-moi un robot ».

    (**) Le thymio-2, créé par l’EPFL, est un formidable robot pour l’éducation (en savoir plus).

  • Tim Berners-Lee @ Futur en Seine

    Tim Berners-Lee, l’inventeur du web, interviendra à Futur en Seine le 13 juin à 16h pour partager les défis du Web pour les 25 prochaines années.

    Tim Berners-LeeTim Berners-Lee @Wikipedia

    Plus d’info

    La conférence sera suivie d’une table ronde animée par Jean-François Abramatic (Inria), avec la participation de Valérie Peugeot, (Orange Labs, Conseil National du Numérique, Vecam), Henri Verdier (Etalab) et Fabien Gandon (Inria, W3C).

    Binaire reviendra bientôt plus en détail sur cette personnalité essentielle pour l’informatique.

  • L’ordinateur en série

    hacf-header-KeyArt-980Une série télé qui parle d’ordinateur ! Il n’en fallait pas plus pour titiller notre curiosité. Le 1er juin dernier, la chaîne câblée américaine AMC, connue pour avoir diffusé des séries cultes comme Mad Men et Breaking Bad, a diffusé le premier épisode de Halt and Catch Fire intitulé I/O (Input/output). Cette série, diffusée en France sur Canal+ à partir du 3 juin, raconte l’aventure de trois personnages engagés dans les débuts de la micro-informatique. L’occasion de partager nos impressions sur cette série et d’en profiter pour évoquer ces fameuses années 80 où l’informatique personnelle s’est répandue.

    Une série d’informaticiens ?

    Halt and Catch Fire se déroule dans les années 80 à Dallas (Texas) et débute juste après la sortie des premiers ordinateurs personnels d’IBM (le fameux Personal Computer, c’est-à-dire le PC). Très rapidement l’histoire s’installe autour de trois personnages : l’ex-cadre d’IBM, ambitieux et brillant commercial qui fait frémir ses responsables par son audace, l’ingénieur en informatique, talentueux mais effacé suite à la frustration de n’avoir pas réussi à percer avec la machine qu’il avait créée et, pour finir, l’étudiante prodige en informatique, belle et émancipée, un brin rebelle avec les conventions. Dans une période où des pionniers de la micro-informatique s’appellent Apple, Commodore ou Sinclair, le premier épisode se déroule au moment de l’arrivée sur le marché du PC d’IBM dont nous connaissons tous aujourd’hui le succès. Le PC est devenu, tout comme le téléphone, l’objet banalisé dont nous sommes pour la plupart équipés.

    Les informaticiens qui ont connu cette période replongeront non sans une certaine nostalgie dans leurs propres souvenirs et reconnaîtront peut-être certains personnages. Pour les autres, ils découvriront comment l’informatique personnelle s’est imposée, quels enjeux stratégiques et financiers se posaient à l’époque pour les acteurs du marché face au géant IBM.

    La série reste avant tout une fiction même si elle s’inscrit dans une réalité historique. Les amateurs de série retrouveront avec plaisir quelques bribes esthétiques de la série Breaking Bad : jeux de lumière et personnalités atypiques. Sans présager du succès de cette série, on apprécie le potentiel narratif des personnages qui prime sur la toile de fond relative à l’histoire de l’informatique.

    Mythes…

    Pour les informaticien(ne)s le nom de la série « Halt and Catch Fire » résonne comme un clin d’œil. Cette instruction du microprocesseur est censée stopper le fonctionnement de la machine et la faire chauffer jusqu’à ce qu’elle prenne feu. Cette commande n’a eu qu’une existence fictive sur certains processeurs ou dans l’imagination de certains informaticiens.

    3597093080001-120x90Dans le premier épisode, les deux héros masculins s’enferment tout un week-end dans un garage. Nuit et jour, ils s’acharnent à accéder par rétro-ingénierie au code BIOS (Basic Input/Output System) des machines d’IBM. Pour simplifier, il s’agit de copier le code de base qui gère le démarrage du PC. L’allusion au garage de Steve Jobs et Steve Wozniak fait sourire mais elle fonctionne bien tant le garage est devenu un cliché.

    Au-delà de ces références à l’univers informatique, on s’attache aux personnages, à leur psychologie et à leurs motivations. Le ressort dramatique est porté par leur envie de combattre l’hégémonie et la puissance d’IBM grâce à leur ingéniosité et à leur culot.

    … et réalités

    À la fin des années 70 et au début des années 80, la micro-informatique existe mais elle n’est pas encore devenue familiale. Son balbutiement est néanmoins foisonnant, de nombreux acteurs cherchent à concevoir la machine qui va toucher le public le plus large : Xerox, IBM, Commodore, Sinclair, Apple, Amstrad, Atari, Thomson et d’autres vont tous un moment ou un autre participer à cette aventure. Au final, ce sera le PC d’IBM et surtout les machines bâties sur ce modèle de base (les fameux compatibles PC construits par de nombreux industriels) qui envahiront le marché de l’informatique personnelle devenue aujourd’hui familiale.

    Témoignage

    Du côté de la recherche, il y a aussi profusion de projets pour mettre au point des machines dédiées à un usage personnel. Le récit de Naja Naffah dans Code Source (publication parue à l’occasion des 40 ans d’Inria) décrit une machine créée en 1980 et appelée « buroviseur ». Son témoignage illustre comment la recherche de l’époque participait elle aussi à l’émergence de la micro-informatique et à quel point la bataille était rude et incertaine.

    « Tout le monde défilait à Rocquencourt pour voir le buroviseur »
    Najah Naffah ancien responsable du projet Kayak

    BuroviseurLe bureauviseur – copyright Inria

    « Aujourd’hui, quoi de plus commun qu’un PC multimédia ? C’est en quelque sorte ce que nous avons inventé au début des années 1980 avec notre « buroviseur», dans le cadre du projet pilote Kayak. L’histoire remonte à 1978, quand nous avons réfléchi avec Louis Pouzin – l’homme du réseau Cyclades – à ce que serait un terminal de bureautique moderne adapté aux besoins d’une secrétaire ou d’un cadre. Rien de ce genre n’existait en France mais nous sommes allés voir les développements en cours aux États-Unis et puiser des idées au MIT, au Stanford research institute et au laboratoire de Xerox. Nous avons d’emblée été inspirés par l’ordinateur personnel interactif Alto, développé par Xerox sous la direction d’Alan Kay et dédié à la programmation. En rentrant, j’ai lancé Kayak qui a rapidement mobilisé une quarantaine de chercheurs (dont une dizaine sur postes IRIA (maintenant Inria NDLR). Nous avons conçu le buroviseur en six mois, avec un processeur Intel de 8 bits et des mémoires et cartes banalisées. Nous y avons ajouté le traitement de la voix et des applications bureautiques interactives. (…) Le buroviseur disposait d’un écran à plusieurs fenêtres, d’une souris à trois touches fonctions, d’une interface homme-machine très évoluée, de la reconnaissance et synthèse vocale, d’une connexion en réseau local, d’un traitement de texte, d’un écran graphique et d’un éditeur comparable à l’actuel Powerpoint (mais avec 15 ans d’avance). Universitaires, étudiants et délégations étrangères défilaient à Rocquencourt pour le voir et le tester. Malheureusement les tentatives d’industrialisation n’ont pas abouti : le marché n’était pas prêt à adopter une solution aussi évoluée ! (…) Seuls quelques buroviseurs ont été distribués aux universités, et des grands comptes comme le ministère des finances s’en sont inspirés pour bâtir leurs modèles de bureautique. Dommage tout de même que l’on n’ait pas plus breveté ! » ■ I.B. Code Source Inria

    Une époque passionnante

    Comme en témoigne ces propos, nombreux sont ceux qui ont voulu créer la machine qui démocratiserait l’informatique mais c’est finalement le modèle du PC qui l’a emporté (modèle aujourd’hui bousculé par les tablettes et smartphones).

    De nos jours, certains diront qu’ils ont créé un PC avant l’heure mais que leur projet n’est jamais sorti du « garage ». Ils avoueront ou non avoir une pointe de regret ou d’amertume par rapport à leurs ambitions avortées. D’autres, plus nombreux peut-être, préféreront se souvenir de la dynamique créative de l’époque avec fierté quand ils ont le sentiment d’avoir contribué d’une manière ou d’une autre à cette révolution.
    Une chose est sûre, ceux qui ont connu l’informatique à cette époque ne pourront pas être indifférents à cette série. Ceux qui ne l’ont pas connue ou qui ne s’intéressent pas à l’informatique devraient aussi y trouver leur compte.

  • Beau comme un algorithme

    Pour célébrer la publication des ebooks « The Art of Computer Programming (TAOCP) » (L’Art de la programmation informatique), informit a demandé à plusieurs personnes de poser chacune une question à l’auteur Donald E. Knuth. Don est une légende vivante de l’informatique. Binaire publie la traduction d’une question, et de sa réponse. Nous vous encourageons à aller lire les autres.

    Dennis Shasha : Comment se compare un bel algorithme à un beau théorème ? En d’autres termes, quels seraient vos critères de beauté pour chacun des cas ?

    Don Knuth : La beauté a de nombreuses facettes, bien sûr, et reste dans l’œil du croyant. Je trouve certains théorèmes et algorithmes beaux parce qu’ils ont de nombreuses applications différentes ; d’autres me plaisent parce qu’ils réussissent des trucs si puissants avec des ressources extrêmement limitées ; d’autres parce qu’ils impliquent des motifs esthétiques ; d’autres enfin parce qu’ils ont une pureté de concept véritablement poétique.

    Par exemple, je peux parler de l’algorithme de Tarjan  pour les composantes fortement connexes. Les structures de données que Tarjan a conçues pour résoudre ce problème se combinent d’une manière étonnamment belle, de sorte que les quantités que vous avez besoin de considérer dans l’exploration d’un graphe orienté sont comme par magie à votre portée. Et, en passant, son algorithme réalise aussi le tri topologique.

    On arrive aussi parfois à prouver un beau théorème en présentant un bel algorithme. Regardez, par exemple, le Théorème 5.1.4D ou le Corollaire 7H dans mon livre, TAOCP.

    Et, pour conclure, une citation de Don :

    « Science is what we understand well enough to explain to a computer.
    Art is everything else we do. »

    La science est ce que nous comprenons assez bien pour l’expliquer à un ordinateur.
    L’art, c’est tout ce que nous faisons d’autre.

  • Le goût de l’archive … du Web

    Les pages et les sites du Web vont et viennent donnant à l’éphémérité des dimensions encore récemment inconnues. Mais comment les chercheurs dans cinquante ans, dans cent ans, pourront-ils comprendre notre monde où le Web tient une place aussi centrale ? Pour les aider dans leur futur travail, on s’efforce d’archiver le Web. C’était au cœur des discussions de l’AG de l’IIPC à la BnF. Heureusement pour vous, Binaire avait deux reportrices sur place. Elles nous font partager la passion des professionnels des archives du Web, des chercheurs qui en ont fait leurs objets d’étude, de Julien Masanes, le directeur de l’Internet Memory Foundation, et de ses amis.  Serge Abiteboul

     

    memoire-web-binaire-rayclid@Ray Clid
    [Un éléphant qui se balançait
    Sur une toile toile toile d’araignée.
    C’était un jeu tellement tellement amusant que,
    Tout à coup : Badaboum!]

    Lundi 19 mai 2014 s’est ouverte à la Bibliothèque Nationale de France l’assemblée générale annuelle de l’International Internet Preservation Consortium, créé en 2003, qui réunit aujourd’hui 49 institutions travaillant ensemble à la préservation du Web mondial. La BnF, l’INA et l’Internet Memory Foundation ont uni leurs efforts pour faire de la première journée, ouverte au public, un moment d’échange entre les acteurs de la conservation du Web et les chercheurs qui utilisent ses archives.

    Dessine-moi une archive du Web !

    Archives_nationalesArchives nationales (Paris).
    Grands dépôts, l’Armoire de fer ouverte
    @Archives Nationales

    Le Web est archivé depuis 1996, grâce à l’initiative de Brewster Kahle de créer Internet Archive et la Wayback Machine. Une entreprise titanesque comme l’expliquait son fondateur à Xavier Delaporte (Place de la Toile) en juin 2011:

    L’Internet Archive est une bibliothèque numérique à but non lucratif. Elle est située aux États-Unis et sa visée, à la fois sociale et technologique, est de permettre un accès universel à l’ensemble de la connaissance : tous les livres, toute la musique, toutes les vidéos, accessibles partout, par tous. Notre but est de collecter le travail de l’humanité et de le rendre accessible à ceux qui voudraient l’utiliser pour s’instruire. Notre base, c’est ce qui a été publié, c’est-à-dire les choses qui ont été pensées pour être publiques : un livre, une page web ou un billet de blog ; même les tweets… Brewster Kahle, Internet Archive : “Le meilleur du web est déjà perdu”, internet Actu

    wayback

    L’archivage du Web a pris place au rang des initiatives institutionnelles nationales, à l’instar de celui opéré en France par la Bibliothèque nationale de France et l’Institut national de l’audiovisuel. Depuis le 1er août 2006, la BnF a pour mission de collecter, conserver et communiquer les sites Internet du « domaine français » au titre du dépôt légal. Quant à l’INA, il collecte les sites de médias audiovisuels, des sites qui enrichissent ou documentent les contenus de ces médias, comme les sites officiels de programmes mais aussi les blogs ou sites de fans essentiellement consacrés aux programmes de la radio ou de la télévision, et des sites des services de médias audiovisuels à la demande.
    Si les archives conservées par la BnF et l’INA sont consultables en salle, celles d’Internet Archive, en ligne, donnent un aperçu de leur étendue. En entrant l’URL d’un site dans la Wayback Machine, vous pouvez remonter dans le temps… Ces archives ont une valeur inestimable pour les chercheurs : elles ouvrent la possibilité de retrouver un événement et son traitement sur la Toile, que ce soit le 11 septembre ou les élections présidentielles, de recomposer l’histoire du Web et de l’Internet, de retrouver des archives presse en ligne, etc., mais aussi des traces d’expressions individuelles et collectives de multiple nature et sur une diversité de sujets. Reste pour les chercheurs à s’emparer de ces sources aux possibilités infinies, mais qui soulèvent aussi des questions méthodologiques inédites : ces archives abondantes posent la question de la constitution de corpus, des outils de fouille, des métadonnées ou encore de la gestion d’un véritable déluge informationnel, alors que le nombre de pages archivées se compte en milliards. Elles comportent aussi des lacunes (collecte et préservation plus ou moins profonde et/ou ponctuelle des sites, droit de reproduction et accessibilité, etc.)

    « Partager des besoins, des rêves, des visions, des expériences, des données, des outils »

    Telles étaient les ambitions annoncées à l’ouverture de l’Assemblée Générale de l’IIPC. Et le pari était réussi au terme d’une journée où s’est succédée une vingtaine d’intervenants.
    L’initiative de l’IIPC d’associer les chercheurs à cette rencontre entre professionnels de l’archivage est assez remarquable pour être soulignée. Ceux qui se sont unis pour préserver la mémoire du Web travaillent depuis plusieurs années en interaction avec le monde de la recherche, comme en témoignent par exemple l’existence depuis 5 ans des Ateliers du DL Web organisés à l’INA par Claude Mussou (INA) et Louise Merzeau (Université Paris Ouest Nanterre La Défense) qui mêlent professionnels des archives et chercheurs.

    Le second point notable est l’extraordinaire diversité des disciplines concernées et des voies de recherche : mémoires de la Grande Guerre analysées par Valérie Beaudoin (Télécom ParisTech) et Philippe Chevalier (BnF) en lien avec la BDIC, chansons francophones étudiées par Dominic Forest (Université de Montréal), élections présidentielles françaises décryptées sur la Toile par Jean-Marc Francony et une équipe de l’université de Grenoble, histoire du Web danois par Niels Brügger de l’université d’Aarhus, etc.

    Le troisième constat est celui de l’extrême richesse des enjeux méthodologiques et de recherche que posent les archives du Web : des keynotes de Dame Wendy Hall (University of Southampton) et Wolfgang Nejdl (Université d’Hanovre) mettant en avant les enjeux d’ouverture, d’interopérabilité, d’accessibilité, de droit à la mémoire comme à l’oubli, à la conclusion de Niels Brügger, instigateur du projet RESAW (a Research Infrastructure for the Study of Archived Web Materials), qui vise à développer un réseau de la recherche et une infrastructure européenne pour l’étude du Web archivé, tous les intervenants de cette première journée ont contribué à souligner le potentiel mais aussi les défis que posent ces Big Data du passé en termes :

    • de politiques de conservation,
    • d’ouverture (voir l’initative Common Crawl et son usage par des chercheurs sur Webdatacommons.org),
    • d’outils (ceux créés par l’Internet Memory Research comme mignify ou Proprioception développé à l’INA, programme WebArt à l’université d’Amsterdam),
    • de corpus et d’indexation à grande échelle (corpus de 10 milliards de mots étudiés au National Institute for Japanese Language and Linguistics),
    • de stabilité et pérennité (le projet Hiberlink du Los Alamos National Laboratory, en lutte contre la dérive des liens et leur abandon),
    • de cartographie du Web (à la British Library derrière Helen Hockx-Hu),
    • de conservation institutionnelle, etc.

    La table ronde animée par Clément Oury (BnF) a montré que les enjeux sont variés et loin d’être stabilisés, alors que l’archivage du Web lui-même n’a cessé de connaître des mutations depuis son origine. Louise Merzeau a ainsi distingué trois temps de cet archivage : celui du modèle documentaire et des pratiques amateurs et pionnières, qui vise l’universalité de l’archivage tout en reposant sur des formes anciennes, à commencer par celle de la bibliothèque (les années 1990, avec le grand projet fondateur Internet Archive), le temps de l’archive comme mémoire, qui retrouve le modèle de la copie savante ou de l’exemplar tout en procédant par bricolage, faute de mieux (le début des années 2000, où l’on cherche à conserver, voire à figer la navigation en sauvegardant page par page les éléments de son corpus), et enfin le temps de l’archive temporelle qui intègre pleinement l’instabilité du Web (de la fin des années 2000 à aujourd’hui, où se développe un archivage dynamique à l’image du Web lui-même).

    Comprendre ce qui se passe au niveau des machines et des institutions d’archivage est un enjeu important pour les chercheurs : c’est comprendre les conditions de l’expérience scientifique, en refusant la logique de boîte noire. Ainsi, les accès à des données peu visibles, comme les logs informatiques pendant une récolte, peuvent être cruciaux, comme l’avancent Jean-Marc Francony et Anat Ben-David.

    Si la somme de pages et de données est telle que la mission d’un archivage universel est d’emblée vouée à l’échec, des initiatives comme celle présentée par Anthony Cocciolo de la « Archive Team » rappellent aussi que des groupes de passionnés, nourris de culture hacker sauvent en les sauvegardant les sites en danger, en particulier les grands réseaux sociaux désaffectés à la suite d’un changement de mode dans les usages du Web : Geocities, MobileMe, sont des exemples d’environnement populaires et peuplés du Web qui ont du jour au lendemain disparu ou vu leur accès verrouillé, privant leurs utilisateurs des données qu’ils avaient produites en leur sein. L’expérience de frustration du chercheur face à l’absence ou la perte des données est ainsi proche de celle des utilisateurs investis affectivement dans l’usage de leurs applications en ligne préférées. No-more-404 ?  Certainement pas, mais les archives du Web soulèvent des enjeux de mémoire et de recherche passionnants, autant pour ce qu’elles conservent que pour leurs lacunes, de nature à stimuler l’imagination et l’ingéniosité des ingénieurs, des professionnels de l’archivage comme des chercheurs.

    Valérie Schafer (ISCC, CNRS) & Camille Paloque-Bergès (HT2S, CNAM)

    PS: Un coup d’œil au passé avec le site Web de lemonde.fr, 19 octobre 1996 sur la Wayback machine (web.archive.org)

    LeMonde0ct96

     

  • Journées pédagogiques : Informatique et MOOC

    https://www.flickr.com/photos/92641139@N03/
    https://www.flickr.com/photos/92641139@N03/

    Les 23 et 24 juin prochain, la SIF (Société informatique de France), le CNAM, le CNRS, Inria, l’Institut Mines-Télécom, et le Groupe thématique Logiciel Libre de Systematic Paris-Region organisent les journées pédagogiques sur l’Informatique et les MOOC. 

    Ces journées permettront dans un premier temps de découvrir les MOOC, Massive Open Online Courses, ces cours en ligne interactifs, gratuits, et ouverts à tous. Au delà de cet état de l’art, ces journées proposeront de réfléchir aux relations particulières entre l’informatique en tant que discipline et les MOOC.

    Des intervenants de différents horizons (académiques, associatifs, enseignants) aborderont des sujets liés au métier d’enseignant et/ou chercheur :

    • les MOOC qui enseignent l’informatique,
    • les MOOC dans/pour la formation des enseignants de l’informatique,
    • le renouveau de l’enseignement (de l’informatique) avec les MOOC,
    • ressources libres et ouvertes pour les MOOC
    • technologies et recherche en informatique autour des MOOC.

    En avril dernier, Jean-Marie Gilliot publiait sur binaire un article intitulé « Moi je mooc, et vous ? » qui nous permettait de faire un tour d’horizon de ces fameux Cours en Ligne Ouverts et Massifs (CLOM étant la traduction française de Massive Open Online Course). Jean-Marie Gilliot concluait son article par ces mots :

    « L’homme est un animal social. L’appétence pour les échanges entre pairs montrent bien que l’on apprend en enseignant. Et pour rester pertinent en tant qu’enseignant, on n’arrête jamais d’apprendre, donc de contribuer. »

    Nous vous invitons donc à relire l’intégralité de son article et à vous inscrire rapidement à ces journées pédagogiques afin de partager avec lui et d’autres sur les enjeux liés à l’informatique et au MOOC.

    Site des journées pédagogiques : Informatique et MOOC
    Inscription obligatoire avant le 14 juin : formulaire en ligne
    Et n’hésitez pas à soutenir la SIF en y adhérant

    Marie-Agnès Enard

     

  • À chacun sa logique !

    LogiqueEtInformatiqueLa logique tient une place importante en informatique. Est-ce la même logique que celle dont parlent les mathématiciens ? À quoi la logique sert-elle en informatique ? Guillaume Cano, un jeune docteur en informatique, nous parle de ces sujets. Je vous encourage à lire son texte passionnant « Une petite histoire pas très sérieuse de deux très sérieuses logiques« , paru dans Images des Maths du CNRS.  Un jeune philosophe, Baptiste Mélès, reviendra bientôt dans nos colonnes sur ces liens étroits entre logique et informatique.

    Thierry Viéville

  • Analepse et prolepse pour une science du numérique à l’École

    L’informatique doit-elle rester un simple outil à l’École? Faut-il ou pas apprendre à « coder » et « programmer » à l’École ?  Ces questions qui divisent, Binaire les a posées à Michèle Drechsler. Nous imaginons avec elle ce que l’informatique et la programmation pourraient apporter à l’École. Un exemple : l’expérience de la programmation permet de montrer aux élèves que les erreurs peuvent être riches d’enseignement.

    Étant donné la densité des programmes en vigueur, l’intégration de l’enseignement de l’informatique à l’École pourrait-elle se faire au détriment de priorités actuelles ? Quel serait son impact sur l’égalité des chances et la réussite de tous élèves ? A ce propos, il est intéressant de procéder à une analepse pour poser le focus sur cet enseignement à l’école, il y a presque 20 ans, et d’imaginer une prolepse pour réfléchir à l’intégration d’un tel enseignement à l’école maintenant.

    Analepse pour l’informatique

    Si la question se pose actuellement et déclenche de nombreux débats à l’ère du B2I (brevet Internet et informatique), il faut se rappeler que l’informatique était  introduit dans les programmes scolaires  comme nous le montre ce tableau récapitulatif des programmes avant 2008.

    MicheleDreshlerProgramme
    Synthèse proposée au colloque Eprep 2008.

    Actuellement, les élèves du primaire et du collège doivent acquérir des compétences et des connaissances dans de nombreux domaines avec l’arrivée du socle commun de connaissances, de compétences et de culture. Depuis 1996, nous pouvons noter qu’aucune réforme des programmes n’a modifié en profondeur cette répartition des responsabilités entre « objet d’enseignement » et « outil » d’enseignement dans le domaine de l’informatique.

    Un curriculum pour développer  une culture numérique  ?

    Apprendre à l’heure du numérique, c’est acquérir à la fois la culture numérique et la maîtrise  des outils numériques. «Ce sont les deux facettes indissociables d’une évolution qui affecte l’ensemble de la société, mais semble peiner paradoxalement à toucher l’école», comme le précise le rapport Fourgous de 2012. La question fondamentale que nous devons nous poser est de savoir si, de nos jours,  les élèves ont besoin de développer des compétences dans le domaine des sciences du numérique. Le programme de physique-chimie des collégiens actuel ne fait pas référence à une science du numérique en tant que telle même s’il s’appuie sur des sciences dites «  d’observation, d’expérimentation et technologies ». Au cycle central, dans le programme de technologie,  les activités proposées doivent faciliter notamment l’appropriation du troisième domaine du B2i : « créer, produire, traiter, exploiter des données » à travers la programmation et la modélisation,  mais les notions  relatives aux sciences du numérique ne sont pas approchées d’une façon  spécifique  et progressive tout au long de la scolarité du collège et de l’école primaire (voir par exemple le programme du collège). Les programmes du collège prévoient des notions à construire autour de l’électricité, l’astronomie, avec « les mouvements de la Terre, de la Lune, des planètes qui donnent une première structuration de l’espace et du temps, introduisent l’idée qu’un modèle peut fournir une certaine représentation de la réalité ». Pourquoi ne pourrait-on pas prévoir aussi des modèles équivalents, une construction progressive des connaissances relatives au monde du numérique qui, de nos jours est omniprésent dans notre vie quotidienne, chez soi ou dans le monde du travail ?  Il est important de pouvoir donner des « clés » pour mieux appréhender le monde du numérique et  comme je le précisais déjà dans un article du Monde de l’éducation de mars 2008 et en attendant la mise en place des « nouveaux programmes » 2008 de l’époque :  « Il est nécessaire d’avoir un lieu de réflexion, d’abstraction, par rapport à une pratique quotidienne. Il ne doit pas se réduire à un cours dénué de sens. Il doit y avoir un va-et-vient entre les usages dans chaque discipline et cet enseignement plus général car usages et études de l’objet sont indissociables si on veut agir et comprendre les phénomènes, ou les fonctionnements comme pour la maîtrise de la langue.»

    Tout l’art de la pédagogie est de construire des notions et des concepts avec progression «en perçant les boîtes noires» à bon escient et en proposant des situations appropriées.  Il nous faudrait définir une «grammaire» de l’informatique permettant la construction progressive des concepts qui sont associés comme nous le faisons bien pour la grammaire, les notions de respiration, d’énergie … .  Un  curriculum  pourrait prévoir des situations, des  projets numériques permettant aux élèves de développer des formes d’activité dans le domaine des sciences du numérique et de construire progressivement les notions et compétences à maîtriser. À ce propos, beaucoup de pays s’y intéressent en Europe. Un groupe de travail Informatics-Europe et ACM-Europe a rédigé un rapport commun sur l’enseignement de l’informatique dans le primaire et le secondaire : « Informatics education: Europe cannot afford to miss the boat, avril 2013. » (Parmi les membres du groupe de travail : Gérard Berry du Collège de France,  Antoine Petit d’Inria et Michèle Drechsler). Ce rapport, basé sur une analyse de la situation actuelle et des expériences dans de nombreux pays, identifie les problèmes et propose des recommandations opérationnelles (schéma directeur) pour les décideurs politiques. Il établit une distinction entre la «culture numérique» (digital literacy) et la science informatique (computer science). Tous les citoyens devant être formés aux deux. Ce rapport nous donne des  recommandations et nous rappelle que «littératie numérique» et science informatique sont indispensables comme composantes d’une éducation du 21ème siècle, avec le développement d’une culture du numérique dès l’école primaire. L’incapacité à le reconnaître peut nuire gravement à l’avenir de l’Europe qui doit former non pas que de simples « consommateurs » de technologie.

    Programmation à l’école

    La programmation a des effets bénéfiques sur les  apprentissages comme nous le montrent les travaux menés en robotique dans une classe de CE2-CM1-CM2 en 1989. De ce fait, elle a toute sa place à l’école. À travers ce projet, nous approchons le concept d’information et de fonction à partir de situations de «robotique». Les élèves découvrent que l’ordinateur ne peut rien faire si on ne lui donne pas tous les «ordres» à partir d’un langage. À travers ces projets de robotique, nous arrivons à un premier niveau de formulation du concept d’information qui, exprimé par les élèves, est assez proche de la définition simple qu’en donne J. De Rosnay :  «l’information est le contenu d’un message qui déclenche une action». Dans le cadre de projets de robotique avec une interface Légo au CE2-CM1-CM2 (voir «Analepse et prolepse pour une informatique retrouvée ?» pour les détails), nous avons des outils pédagogiques motivants entre les mains des élèves.

    MicheleDreshlerRobotique
    Activités de programmation pour commander des feux. (Projet C.A.F.I.P.E.M.F. Drechsler), 1989
    MicheleDreshlerFeux
    Activités de programmation pour commander des feux. (Projet C.A.F.I.P.E.M.F. Drechsler), 1989

    Les élèves de CE2-CM1-CM2 ont pu également visiter une ferme robotisée près de l’école et comprendre le dispositif «des vaches branchées» à un ordinateur. Ils ont réalisé un reportage (voir la vidéo : « vaches branchées à un ordinateur ») en situation. Quelques représentations des élèves sont disponibles en ligne.

    Une réhabilitation de l’erreur au centre du processus d’apprentissage

    Les activités de programmation invitent les élèves à réfléchir sur leurs erreurs, face à une situation donnée en fonction du problème posé. C’est la machine qui donne un retour à  l’élève lui permettant d’analyser les traces de ses erreurs et comme nous le montre le constructivisme, l’erreur n’est plus considérée comme une simple déficience de l’élève comme dans le modèle transmissif. Elle est placée au cœur du processus d’apprentissage. Giordan nous rappelle que l’enseignant doit d’abord faire émerger les conceptions des élèves pour ensuite, lorsque certaines de celles-ci s’avèrent inexactes, convaincre les élèves qu’ils se trompent ou que leurs conceptions sont limitées. Apprendre consiste donc d’abord à «s’apercevoir que ses savoirs sont peu ou pas adéquats pour traiter une situation et ensuite à dépasser ses conceptions initiales pour progresser vers des connaissances plus pertinentes». Les activités de programmation rentrent bien dans cette définition qui situe clairement l’apprentissage dans une perspective cognitiviste en soulignant le rôle des conceptions antérieures et plus particulièrement des conceptions erronées. La prise en compte des erreurs en  est une des clés.

    L’ordinateur : des objets pour penser avec, des instruments pour réfléchir

    Margarida Romeo dans son article « métacognition et environnement informatique d’apprentissage humain » nous montre que dans un environnement où l’apprenant se retrouve seul face à la machine, par exemple à l’ordinateur, le besoin «métacognitif» devient d’une grande importance. En fait, les élèves peuvent réfléchir sur leurs procédures de pensée, revenir sur les traces de leurs programmes et comprendre leurs erreurs. Papert impressionné par la façon de Piaget de «considérer les enfants comme des constructeurs actifs de leurs propres structures intellectuelles» avait déjà développé cette  vision dans son livre, «Le jaillissement de l’esprit» :

    «Ma vision est celle d’une culture informatique particulière, une culture mathématique , autrement dit, une culture qui n’aide pas seulement à apprendre, mais à apprendre pour l’apprentissage. Il  nous a montré que le travail sur l’ordinateur peut faciliter l’accès à la notion de « mode de pensées », ce qu’il appelle le « style of thinking ». L’informatique permet donc de construire des univers dans lesquels un enfant peut par un comportement actif et constructif acquérir des méthodes d’analyse et de résolution de problèmes» et comme il nous le précise : «Penser sur sa pensée c’est devenir épistémologue, c’est entrer dans une étude critique de sa propre réflexion. Une expérience que bien des adultes ne vivent jamais !»

    Pour  Loarer, «Il est important que l’école développe une éducation cognitive qui peut être définie comme la recherche explicite, dans la mise en œuvre d’une démarche de formation, de l’amélioration du fonctionnement intellectuel des personnes».  Les outils cognitifs via l’ordinateur et les activités de programmation sont des instruments qui peuvent médiatiser des apprentissages métacognitifs pour lesquelles les erreurs sont au centre.  Proposer des activités de programmation aux élèves,  c’est aussi leur donner la  liberté d’explorer les coulisses derrière l’interface des systèmes de jeu.  C’est l’occasion de découvrir et comprendre la source du jeu, de montrer que l’on peut créer ce que l’on veut au-delà de l’interface, en programmant. Les ordinateurs peuvent être considérés comme de véritables machines à apprendre, de «véritables machines à représenter, à nous représenter nous-mêmes». Ils deviennent l’outil cognitif par excellence. Ils  agissent comme un amplificateur pour l’exploration de l’esprit humain dans tous les dédales de ses erreurs. Ils sont une des clés pour mettre en une véritable éducation cognitive à l’école.

    Des langages ou des logiciels dès l’École primaire.

    Si Logo a été très utilisé depuis les années 80, le logiciel Scratch est un  environnement de programmation visuel et multimédia  destiné à la réalisation et à la diffusion de séquences animées sonorisées ou non. Il s’agit d’un logiciel de programmation grâce auquel les élèves peuvent animer des objets qu’ils auront préalablement choisis, ou eux-mêmes dessinés. L’intégration de Scratch peut se faire rapidement au premier cycle du primaire permettant ainsi aux élèves de développer rapidement l’apprentissage de la programmation. L’élève peut ainsi suivre des procédures simples comme mettre en place un décor, prévoir des personnages, concevoir des «sprites » (lutins animés), utiliser les briques ou « kits »  de commandes toutes prêtes pour programmer. Le principe est donc comme un légo, de briques que l’on monte et que l’on  démonte, selon son projet à réaliser.

    L’élève peut trouver la  liberté de faire des erreurs autant qu’il veut pour mener son projet à bien. Comme le précise une enseignante québecoise, Martine Trudel : «Terrain de jeu illimité afin d’amener nos élèves à problématiser, à raisonner à l’aide du langage mathématique et à mettre en œuvre leur pensée créatrice, Scratch captive les élèves… Plus ils progressent, plus ils sont motivés à relever des défis plus élevés. C’est merveilleux de voir tous les élèves persévérer malgré les difficultés rencontrées…»

    Conclusion

    À l’heure de la société de la connaissances où il est important que chaque citoyen ne soit pas un simple consommateur de technologie, nous avons des défis à relever autour des sciences du numérique et de l’informatique qui devraient avoir la même place que les sciences de la vie et de la Terre dans la formation d’un individu. Qu’en sera-t-il des nouveaux programmes pour la construction des notions pour une culture du numérique autour d’une sciences du numérique  ? Dépasseront-ils les simples compétences du B2I d’utilisation de l’informatique ? Sauront-ils intégrer des notions ou des connaissances à construire progressivement, en s’appuyant sur une « grammaire informatique » en interaction avec l’environnement, pour développer chez les élèves, des aptitudes à décrypter les enjeux des applications informatiques dans la société et utiliser le numérique d’une façon raisonnée ?  L’école saura-t-elle intégrer des logiciels comme Scratch, des logiciels pour apprendre à programmer, créer des objets numériques et qui facilitent le développement d’objectifs métacognitifs, un tiercé gagnant pour «apprendre à apprendre», une clé pour la réussite scolaire ?

    Michèle Drechsler

    Pour en savoir plus

    sur l’auteure

    Dessus, P, Erreur et apprentissage, 2006

    Papert, S. Jaillissement de l’esprit, (Ordinateurs et apprentissage), Flammarion 1981

    Giordan, A. Apprendre ! Paris: Belin (1998)

    Linard, M. — Des machines et des hommes : apprendre avec les nouvelles technologies, Jacquinot Geneviève   Revue française de pédagogie     Année   1992   Volume   99   Numéro   99   pp. 131-133

    Loarer, E. (1998). L’éducation cognitive : modèle et méthodes pour apprendre à penser. Revue Française de Pédagogie, 122, 121-161.

    Dreschler, M. 2008 : Analepse et prolepse pour une informatique retrouvée ? Intervention au colloque ePrep

     

  • Les mots pour le dire : D comme décoder.

    A ? comme Algorithme !

    B ? comme … ah ben comme Binaire, pardi.

    C ? comme … Codage

    et D ?

    D ? … comme Décoder le Codage.

     «Décoder le Codage ?» Cela veut dire très simplement comprendre comment marchent ces machines (ces robots/ordinateurs/tablettes/…) que l’on dit programmables.

    Gérard Berry nous l’explique brièvement de manière lumineuse en reprenant la belle métaphore de Maurice Nivat sur Outils, machines et informatique. Et si nous prenions un peu plus de temps pour comprendre et …

    … allons dans une cuisine. Faire un quatre-quart à l’orange. Oui c’est facile : on prend de la farine, des œufs, du beurre et du sucre, à parts égales, on ajoute le parfum d’orange et on met au four une demi-heure. Bien. Même un informaticien saura faire ça.

    Mais que se passe-t-il si nous introduisons cette recette dans un ordinateur ou un robot… enfin une machine quoi ?1395178658_cake_7 Et bien il ferait exactement ce que nous lui avons commandé. Il mélangerait la farine, les œufs, le beu… Ah ! Les œufs : avec les coquilles, personne ne lui a dit de les retirer. Les humain-e-s savent ce qu’est un œuf, ce mot a du sens pour eux, elles ou ils comprennent le contexte dans lequel on parle. Mais une machine, voyons ? Quelle chance aurait-elle de savoir que (contrairement aux batailles d’œufs dans les cantines de potaches) on doit d’abord se débarrasser de la coquille ? De plus, bien plus précisément qu’un humain, le gâteau sera mis au four 30 minutes, 0 seconde, 0 dixième, … sans allumer le four. Puisque cela n’a pas été dit explicitement.

    En bref : un ordinateur ou un robot, … c’est « très con ». 1395178709_kcronCe mot d’argot de la langue française ne dit pas que le sujet est « sans intelligence » mais qu’il agit sans discernement, sans comprendre le contexte, sans dévier ce qui reste implicite. De l’intelligence mécanique quoi ! Et non pas je ne sais quelle « intelligence artificielle » (qui dans l’imaginaire collectif renvoie à la science-fiction).

    Alors à quoi bon détailler tout cela ? Cela aide à comprendre quelle est la différence entre mon intelligence et celle d’une machine. La machine « calcule de manière fabuleusement rapide et efficace mais reste totalement dénuée de pensée ». Qui ne comprend pas la différence entre l’intelligence mécanique et l’intelligence humaine, ne sait pas se positionner correctement par rapport à ces systèmes numériques. Et alors, très naturellement, ces objets virtuels sont personnifiés, vus comme magiques, donc nous dominent.

    Bien, voilà un point d’acquis. Et pour comprendre le codage alors ?

    Retournons dans notre cuisine, et pour apprendre à programmer, mettons-nous à deux.

    Gnirut, un monstre codeur - © S. Auvin
    Gnirut, un monstre codeur – © S. Auvin

    L’un va faire le robot (donc exécuter ce qu’on lui demande de la manière la plus mécanique possible), et l’autre va lui faire faire correctement la recette. Si vous faites cela il va se passer quatre choses amusantes.

     1/ Vous allez lui donner la recette à exécuter dans ses moindres détails, pas à pas, sous forme d’une séquence d’instructions élémentaires que la mécanique du robot peut exécuter au niveau de ses mécanismes physiques (ce sera « avancer de trois pas dans la cuisine », « tendre le bras », « prendre le paquet de farine blanc dans le placard » … (qui sait ce qu’est un « paquet de farine » sans en avoir jamais vu ?).

    2/ Et… que faire si il n’y a pas de beurre ? Disons : prendre de la margarine, pardi, sinon arrêter avant que ce soit un massacre. Tiens… ce n’est plus tout à fait une simple séquence, il y a aussi des tests (« si pas de beurre alors margarine… »)

    Et voilà que notre « intelligence mécanique » qui se réduit à faire tester une condition binaire, puis, selon qu’elle est vraie ou fausse, exécuter une séquence d’instructions ou une autre.

    3/ Bien. Voilà le robot en train de faire un quatre-quart à l’orange. Et pour le quatre-quart au citron ? Dois-je lui répéter toute la recette ou simplement lui dire… à la place de l’orange tu mets du citron ? Ou du chocolat ! Bref, voilà l’automate capable de faire tous les quatre-quarts du monde. Il sait faire un quatre-quart à « X ». Où X est une variable dont le nom est « parfum du gâteau » et dont la valeur est « orange » ou « citron »…

    Une variable c’est donc une boîte avec une étiquette (son nom) et dans laquelle on met une valeur. Grâce aux variables on peut programmer « tous les quatre-quarts du monde », de même que sur notre machine à laver, la température de l’eau correspond à la variable qui permet de laver tout le linge de la maison.

    4/ Nous y sommes presque. Pour faire 50 quatre-quarts pour la fête des voisins, je peux recopier la recette 50 fois pour mon robot. Ou mieux, faire une « boucle » : de 1 à 50 fait un quatre-quart, fait un quatre-quart…

    D’ailleurs nous avons un peu menti : on ne met pas vraiment le gâteau au four une demi-heure, mais dix minutes, on plante un couteau dedans et si le couteau ressort mouillé, on refait cuire dix minutes. C’est donc une boucle (« tant que le couteau ressort mouillé fait cuire dix minutes ») qui gère la cuisson du gâteau. Et si le four n’a pas été allumé, la semaine suivante le robot est toujours là à planter un couteau dans un gâteau pas cuit et surtout immangeable.

    Eh bien, à ce stade il y a un résultat énorme à partager.

    © Dessin : Paul Gendrot
    © Dessin : Paul Gendrot

    Si un ordinateur, un robot… enfin quoi, une machine, peut exécuter ces ingrédients des algorithmes alors elle peut faire TOUS les programmes d’informatique du monde !! Il n’y a pas un seul logiciel, algorithme du Web, programme de robot… qui ne se décompose pas en ces ingrédients. C’est ça l’intelligence mécanique. C’est une machine qui va pouvoir exécuter un algorithme qui a été exprimé dans un langage qui permet de traiter de l’information.

    Cela veut dire que mon smartphone, le processeur de ma machine à laver, le plus grand ordinateur au monde ou ma calculatrice programmable ont la même intelligence mécanique (donc sont tout aussi « con »). Bien entendu il y en a des plus ou moins rapides, efficaces, agréables à utiliser… Mais qualitativement, leurs capacités calculatoires (on va dire « computationnelles » en franglais) sont équivalentes : on peut coder des algorithmes dessus.

    C’est ce résultat monumental (on parle de la Thèse de Church-Turing) qui a fondé les sciences informatiques et permis au monde de passer de l’ère industrielle à l’âge numérique. Ne pas savoir, ne pas comprendre ça, c’est se priver du levier primal pour maîtriser cet univers qui est le nôtre aujourd’hui.

    Oui mais concrètement… Comment apprendre cette notion de codage à nos enfants ? Voici ici des éléments pour répondre à leur question « Dis maman (ou papa), c’est quoi un algorithme dans ce monde numérique ?
 »

    Et au-delà ? Comment avec tout ça peut-on coder et traiter de l’information par exemple ?

    … c’est une autre histoire de notre A.B.C. : À bientôt sur Binaire pour en Causer.

    Thierry Viéville.