Catégorie : Informatique

  • Le pacs des humanités et du numérique

    On parle d’humanités numériques  autour de la proposition du Conseil National du Numérique d’un « bac HN ». Un chercheur en humanités aujourd’hui consulte des documents sur Internet, produit des sources numériques, les indexe, classe ses informations dans des bases de données, invente de nouveaux corpus de sources, tweete, blog, prépare des Mooc, discute à distance avec ses collègues, ses étudiants, etc. Les humanités sont devenues numériques. Une historienne et un informaticien nous parlent du sujet. L’article complet peut être trouvé sur HAL.

    histoire-numeriqueLes humanités numériques se définissent au départ par des outils numériques au service de la recherche en sciences humaines et sociales, des outils pédagogiques pour enseigner dans ces domaines. Mais, le sujet dépasse largement le cadre de ces seuls outils. Tous les savoirs se transforment au contact de la pensée informatique, les disciplines évoluent, les frontières bougent. C’est toute la complexité des humanités numériques.

    Les humanités. Le terme est imprécis. Prenons-le dans un sens très général, en y incluant l’histoire, la linguistique, la littérature, les arts et le design, mais aussi la géographie, l’économie, la sociologie, la philosophie, le droit, la théologie et les sciences des religions.

    Le numérique et l’informatique. Il nous faut ici considérer l’articulation entre le monde numérique et la science qui en est au cœur, l’informatique. Par exemple, le Web, si essentiel dans les humanités numériques, est une des plus belles réalisations de l’informatique. Mais il tient aussi d’une philosophie humaniste : la mise à disposition pour tous, le partage. L’informatique est à la fois une science et une technique, qui propose des outils et développe de nouvelles formes de pensée ; elle a donné naissance au monde numérique, avec ses usages et ses cultures propres.

    Des outils et une pensée

    Le point de départ des humanités numériques est la représentation de l’information et des connaissances sous forme numérique. Les premières applications furent la numérisation de textes (notamment à partir d’OCR, « optical character recognition »), mais aussi de photos, de films, de la musique, de cartes géographiques, de plans d’architecture, etc. Les scientifiques (en SHS ou pas) ont vite compris l’intérêt de réunir des données de natures différentes, de les organiser dans des bases de données. Les bases de données ont été combinées à deux grandes inventions de l’informatique, l’hypertexte et le réseau Internet, pour conduire aux « bibliothèques numériques ». Par exemple, le Projet Perseus  de l’université Tufts s’est attaqué à la construction d’une bibliothèque numérique qui rassemble des textes du monde méditerranéen en grec, latin et arabe. Les textes numérisés, indexés, disponibles sur la Toile, sont facilement accessibles à tous. A l’heure du Web, les étudiants, mais aussi les amateurs, les journalistes, tout le monde a accès à des sources d’informations considérables.histoire-numerique-clio

    Si la bibliothèque numérique peut être vue comme un des piliers des humanités numériques, le « réseau numérique » en est certainement un autre. Le travail des chercheurs repose depuis toujours sur l’existence de réseaux. On échangeait des lettres. On voyageait pour consulter une bibliothèque ; on en profitait pour rencontrer ses homologues locaux. Ces échanges, ces rencontres physiques participaient à produire et enrichir les connaissances. Pour les scientifiques (en sciences humaines ou pas), le réseau numérique transforme le travailler ensemble. On peut partager des textes, les annoter ensemble, les commenter, voire corédiger des contenus très riches en s’éloignant du texte linéaire bien défini aux auteurs bien précisés. Pour citer un exemple riche en symbole, le projet  « Mapping the republic of letters », lancé par Stanford, a permis de mettre en commun des recherches pour étudier comment, depuis la Renaissance, les lettrés européens partageaient leurs connaissances à travers des textes et des rencontres. Un réseau social numérique pour expliquer un réseau social « classique » ! Ce passage au travail en réseau s’accompagne de changements fondamentaux dans nos rapports aux connaissances. Un univers des fragments se substitue aux contributions monolithes. Les outils de recherche, les sites de corédaction encouragent cet effet, qui s’accompagne aussi de l’affaiblissement de la contribution de l’auteur individuel devant les contributions du groupe.

    Jusque-là nous avons surtout parlé d’information, évoquons maintenant les connaissances. À une petite échelle, on introduit des connaissances pour expliquer un document, des éléments qui le composent, des services Web. C’est la base du Web sémantique. Des balisages permettent par exemple de préciser le sens des mots d’un texte, de faire des ponts entre des ressources distinctes avec le linked data. Un des premiers exemples très populaire de balisage de texte est le « Text encoding initiative », initié en 1987. Le but du balisage était de permettre de trouver plus facilement de l’information dans de larges collections de textes de bibliothèques. Avec les ontologies, un pas supplémentaire est franchi pour atteindre le monde des connaissances structurées, classifiées, organisées. Par exemple, l’ontologie Yago a été construite à partir de la version anglaise de l’encyclopédie textuelle Wikipédia, en utilisant un logiciel développé à l’Institut Max Planck. En 2011, Yago avait déjà 2 millions d’entités et plus de 20 millions de relations entre ces entités.

    La machine peut aider à obtenir toujours plus de connaissances. Il est intéressant de remarquer que le calcul de connaissances « quantitatives » est à l’origine de ce qui est souvent cité comme le premier travail en humanité numérique : Roberto Busa, un jésuite italien, a imaginé dans les années quarante et réalisé ensuite, l’analyse linguistique basée sur l’informatique des œuvres complètes de Thomas d’Aquin. Les techniques d’analyse de texte qu’il a utilisées (indexation, contexte, concordance, co-occurrence, etc.) sont utilisées aujourd’hui dans de nombreuses disciplines notamment en histoire ou en littérature. Peut-être les plus paradigmatiques exemples de cette analyse de données (notamment de par leurs masses) viennent de Google trends. Google trends permet d’avoir accès à la fréquence d’un mot dans les requêtes au moteur de recherche Google (près de 10 milliards de requêtes par jour en 2014). Il a donné lieu à de nombreuses études comme la détection d’épidémie.

    Dans les sciences physiques et les sciences de la vie, la modélisation numérique tient une place considérable. En simplifiant, le chercheur propose un modèle du phénomène complexe étudié, et le simule ensuite numériquement pour voir si les comportements résultants correspondent à ceux observés dans la réalité. Parmi les plus grands challenges actuels, on notera par exemple Le « Blue brain project » lancé à l’Ecole Polytechnique Fédérale de Lausanne qui vise ni plus ni moins que de simuler numériquement le cerveau humain. La modélisation et la simulation tiennent une place grandissante en SHS. La sociologie est en particulier un candidat évident. Il est possible de s’appuyer sur la modélisation (extrêmement simplifiée) des comportements d’un très grand nombre d’acteurs (agent dans une terminologie informatique populaire) et de leurs interactions avec leur environnement.6340497bb01b04f0d7b4e00ca32ff638 La puissance de calcul de clusters d’ordinateurs permet ensuite de réaliser des simulations. La comparaison des résultats avec la réalité permet de « paramétrer » le modèle, voire de le modifier, pour mieux coller à la réalité observée. Nous retrouvons par exemple l’étude  de Paola Tubaro et Antonio Casilli sur les émeutes de Londres. Ils ont cherché à savoir si la censure des médias sociaux proposée par David Cameron avait un effet sur le développement d’émeutes. A l’aide d’une simulation numérique, ils ont montré que la censure participait à augmenter le niveau général de violence.

    Et nous conclurons ce tour d’horizon rapide des humanités numériques par l’archivage, un domaine véritablement bouleversé par le numérique. On peut mentionner par exemple Europeana , une bibliothèque numérique européenne lancée en novembre 2008 par la Commission européenne qui compte déjà plus de 26 millions d’objets numériques, textes, images, vidéos, fin 2013. Les États européens (à travers leurs bibliothèques nationales, leurs services d’archivages, leurs musées, etc.) numérisent leurs contenus pour assurer leur conservation, et les mettent en commun. De telles initiatives permettent d’imaginer par exemple que dans moins de 50 ans des historiens trouveront numériquement toutes les informations dont ils ont besoin, passant d’une archive à une autre simplement en changeant de fenêtre sur leur écran.

    Avec le numérique, nous sommes passés pour l’information disponible d’une culture de rareté, à une culture d’abondance. Devant le déluge informationnel, il n’est pas simple de choisir ce qu’il faut conserver, un vrai challenge pour les archivistes. Les institutions comme les Archives Nationales, la BNF (Bibliothèque Nationale de France) et l’INA (Institut National de l’Audiovisuel), et des outils anciens comme le dépôt légal se sont transformés. Que seront devenues les pages du Web d’aujourd’hui dans 50 ans quand des chercheurs voudront les consulter ? Des fondations comme Internet Archive  aux Etats-Unis ou Internet Memory  plus près de nous, s’attaquent au problème avec les grandes institutions d’archivage.

    Limites de la technique. Les humanités numériques ont modifié les modes de travail et de pensée dans les sciences humaines et sociales. Il faut pourtant être conscient de leurs limites. Si les opportunités sont nombreuses, tout n’est pas possible. Certains problèmes demandent des puissances de calcul dont nous ne disposons pas ou que nous n’avons pas les moyens de mobiliser pour un problème particulier. Surtout les plus grandes avancées en humanités reposent sur l’intelligence d’humains qui découvrent la bonne question, énoncent la bonne hypothèse, proposent l’approche révolutionnaire. Si les machines peuvent aider, elles ne sont pas prêtes de fournir cela. Et puis, dans le cadre des SHS, il faut aussi savoir accepter les limites de l’objectivité. Le problème de l’analyse qualitative des données reste entier. Bruno Latour écrivait en 2010 : « Numbers, numbers, numbers. Sociology has been obsessed by the goal of becoming a quantitative science. » Les humanités numériques ne peuvent se réduire à des équations ou des algorithmes (les plus beaux soient-ils) et des nombres. Le sujet principal est l’être humain bien trop complexe pour être mis dans sa globalité en équation ou même en algorithme.

    robot-poppy
    Poppy, un robot pour populariser et démystifier les sciences du numérique.

    La convergence entre sciences et humanités. Un ordinateur est une machine à tout faire (« general purpose ») ; le même système peut être utilisé que la science soit « humaine » ou « dure », et le même algorithme peut être utilisé dans les deux cas. Les méthodes, les concepts, les techniques, les outils de l’informatique rapprochent les chercheurs de toutes ces disciplines, réduisant en particulier le gouffre qui s’est créé entre les SHS et les sciences « dures ». Les principes même de la « pensée informatique » (computational thinking) sont généraux. Les convergences sont si fortes que plutôt que de parler d’humanités numériques, peut-être aurions-nous dû discourir de « sciences numériques » en général. Evidemment une telle convergence n’implique pas la confusion. Un modèle formel des sentiments dans la poésie romantique n’a rien à voir avec un modèle numérique de l’anatomie du cœur humain. Si l’informatique se met au service des sciences humaines et sociales, ce ne doit pas être pour les appauvrir mais au contraire, avec de nouveaux outils, une nouvelle pensée, pour leurs permettre de découvrir de nouveaux territoires.

    Inventer un nouvel humanisme. Avec notamment Internet et le Web, le numérique a encouragé la naissance d’une nouvelle culture basée sur le partage et l’échange. Dans des développements comme les logiciels libres ou Wikipédia, les ambitions de cette culture sont claires, l’invention d’un nouvel humanisme. Il nous semble que les humanités numériques doivent participer à ce mouvement car quelle plus grande ambition humaniste que la diffusion des connaissances et de la culture à toutes et tous ?

    Serge Abiteboul (INRIA & ENS Cachan), Florence Hachez-Leroy  (Université d’Artois & CRH-EHESS/CNRS)

  • Françoise en Israël

    Le sujet de la formation à l’informatique a été beaucoup débattu en France récemment. Mais en dehors de l’hexagone ? On se pose les mêmes questions ? D’autres pays auraient-ils eut l’audace de prendre de l’avance sur nous ? Binaire a proposé à Françoise Tort, chercheuse à l’ENS Cachan et co-responsable en France du concours CASTOR informatique, d’interroger des collègues à l’étranger. Leurs réponses apportent beaucoup à nos débats parfois trop franchouillards.

    FT_Israel

    Tour d’horizon de l’enseignement de l’informatique… Après la Bavière, Françoise nous emmène en Israël.

    photo 2

    Note sur le système scolaire Israélien : Le système scolaire Israélien est centralisé. Le ministère de l’Éducation détermine la politique de l’éducation à tous les niveaux, de la maternelle à l’enseignement supérieur, et met en œuvre cette politique, avec l’aide de comités professionnels. La scolarité est divisée en trois périodes : six années d’école élémentaire, trois années de collège et trois années de lycée. Les dix premières années d’enseignement sont obligatoires. Chaque matière est divisée en modules d’environ 90 heures ; certaines matières offrent différents niveaux de spécialisation, les plus courants sont un  programme en trois modules pour un enseignement général et en cinq modules pour un enseignement approfondi.

    judith-gal-ezer-1Entretien avec Judith Gal-Ezer, professeure au département de mathématique et d’informatique de l’Open Université d’Israël (OUI), chercheuse en didactique de l’informatique, présidente du comité des programmes pour l’informatique du ministère de l’éducation Israélien, membre du CSTA (Association internationale des enseignants d’informatique, fondée par l’ACM).

    Environ 300 heures centrées sur la résolution de problèmes algorithmiques

    Depuis 1995, l’informatique est enseignée dans les lycées israéliens, au même titre que les autres disciplines scientifiques (physique, biologie, chimie). Ce sont des enseignements optionnels, comme pour les autres disciplines.  Il existe deux programmes d’enseignement : l’un comporte 3 modules et est adapté aux élèves qui ont un intérêt général pour la matière. L’autre comporte 5 modules et est destiné aux élèves qui souhaitent avoir une connaissance plus approfondie de la matière. Un module correspond à 90 heures de cours étalé sur un semestre, soit 3 heures par semaine. Dans la mesure où la plupart des élèves suivent le programme le plus court, un effort est fait pour que ce programme couvre le plus possible toute la discipline.

    Le programme est centré sur les concepts clés et les fondements de la science informatique, il met l’accent  sur la notion de problèmes algorithmiques et leurs solutions et leur implémentation dans un langage de programmation. Un second paradigme de programmation, les structures de données et la calculabilité sont également abordés.  Ce programme a fait l’objet de mises à jour régulières depuis sa création, la plus importante ayant été l’introduction de la pensée orientée objet.

    « Semer les graines » qui aideront les jeunes dans tous les domaines.

    Je pense que l’objectif de l’enseignement de l’informatique à l’école n’est pas de « produire » de futurs professionnels qui trouveront des emplois dans l’industrie. Il s’agit plutôt de « semer des graines » en initiant les élèves aux fondements de la discipline. Une exposition dès l’école à ce domaine aide les jeunes à choisir plus tard des carrières dans l’industrie ou dans la recherche.

    La résolution de problèmes est au cœur de l’informatique. Son apprentissage et sa pratique demandent aux élèves de savoir spécifier les problèmes clairement et sans ambiguïté, de décrire une solution algorithmique qui soit « robuste » (convenant même dans des situations limites), « correcte » (qui donne le bonne solution) et efficace (dont la complexité est connue). A chaque étape de ce processus, les élèves acquièrent des compétences de base qui leur seront utiles dans tous les domaines qu’ils choisiront d’étudier.

    L’informatique a également des liens avec l’ensemble des autres domaines scientifiques et aussi humanistes.  La quasi-totalité des percées scientifiques d’aujourd’hui sont rendues possibles grâce à la puissance de l’informatique et au travail des informaticiens. Enfin, l’invention des ordinateurs au 20ème siècle a radicalement changé la façon dont nous vivons et travaillons. Il est difficile de prédire l’avenir, mais on peut dire sans se tromper que les personnes qui ne comprennent pas l’informatique seront exclues de ses avantages potentiels.

    Un centre national de formation des enseignants

    Quand le programme a été conçu, il y a maintenant 20 ans, la commission responsable de sa conception avait été très claire sur le fait que les enseignants certifiés pour enseigner l’informatique devraient être diplômés d’un premier cycle universitaire (bachelor’s degree) dans cette discipline en plus du diplôme de formation à l’enseignement. Cette exigence fut officiellement adoptée dès le début.

    De plus, un centre national de formation pour les enseignants d’informatique a été créé. Il assure la formation continue des enseignants en poste et les aide à entretenir une communauté professionnelle dynamique. Il propose une conférence annuelle, des cours et ateliers sur des questions propres au programme du lycée, des documents et du matériel pédagogiques, et une revue pour les enseignants.

    Un effort nécessaire pour encourager les jeunes

    Le nombre des élèves choisissant l’informatique a augmenté régulièrement jusqu’en 2004, il a ensuite diminué. Depuis lors, la part des élèves diplômés ayant choisi cette option se stabilise à  environ 15%.

    Dans une recherche récente, nous avons montré que les élèves qui ont été initiés à l’informatique au lycée, et en particulier ceux qui suivaient le programme long de 5 modules,  étaient plus susceptibles de poursuivre des études dans l’un des domaines de l’informatique dans l’enseignement supérieur. Ceci est d’autant plus vrai pour les jeunes filles.

    Concernant les filles justement, environ 40% des étudiants qui choisissent l’informatique au lycée sont des filles, mais elles ne représentent que 30% des étudiants ayant choisi le programme long de 5 modules. Il y a encore du travail à réaliser pour encourager les jeunes filles à se former à l’informatique.

    Un programme pour le collège en préparation

    Il y a 20 ans, alors que nous développions un programme pour le lycée, il nous apparaissait évident qu’un programme pour le collège était nécessaire. Or, depuis 2 ans, un programme pour les collèges est en cours de développement et déjà en œuvre dans plusieurs établissements. Les principales difficultés rencontrées sont liées à l’affectation et la formation des enseignants.

    4 facteurs de succès essentiels

    Je pense que la réussite de l’enseignement d’informatique en Israël repose essentiellement sur :

    • le programme bien établi et régulièrement mis à jour ;
    • l’obligation officielle d’un diplôme en informatique pour la certification des enseignants ;
    • une offre, par les universités, de programmes préparatoires pour les futurs enseignants et de formation continue pour les enseignants titulaires ;
    • une communauté de chercheurs très dynamiques ;

    Et j’ajouterai : un corps d’enseignants bien établi et motivé.

     


    Pour en savoir plus 

    – Une description du  programme de l’enseignement de l’informatique au secondaire en Israël publiée en 1995.

    – Une proposition de programme pour le collège en Israël publié en 2012, à accès restreint

     

     

  • Jules Ferry 3.0

    Le 3 octobre 2014, le Conseil national du numérique (CNNum) a publié ses recommandations pour bâtir une école créative et juste dans un monde numérique. Le titre du rapport est Jules Ferry 3.0 – rencontre improbable entre l’un des pères fondateurs de l’identité républicaine et le Web 3.0, le Web des connaissances. Serge Abiteboul, qui est membre du CNNum et a participé à l’écriture du rapport, et Gilles Dowek, qui a été auditionné dans le cadre de sa préparation, considèrent pour Binaire un des aspects abordés par ce rapport : l’enseignement de l’informatique.

    Jules_Ferry_Nadar

    Jules Ferry, Wikipédia

    Notre idéal éducatif est tout tracé. L’éducation du peuple aujourd’hui a une dimension personnelle. Son objectif est de donner à chacun sa chance non pas en servant à chacun la même soupe amère au nom d’une égalité mal comprise mais en permettant à chacun d’accéder à l’éducation adaptée à sa demande, Jules Ferry, 1870

    Programme ou tu seras programmé ! Douglas Rushkoff, 2012

    L’École traverse une crise existentielle : elle paraît bien désarmée face à la révolution numérique et peine, par exemple, à intégrer un enseignement de l’informatique dans ses programmes. Pour essayer de contribuer à cette nécessaire transformation de l’École, le Conseil National  du Numérique évoque, dans un rapport publié ce 3 octobre, les mânes de  l’idéal républicain et  réaffirme la nécessité de l’École gratuite et obligatoire pour tous : « L’enseignement de l’informatique de l’école primaire au lycée. C’est une réponse à l’attente sociale d’une politique de l’égalité : permettre à tous les élèves d’avoir une « clé » pour comprendre le monde numérique, participer à la vie sociale et se préparer à de nouveaux mondes professionnels. »

    Le défi est immense : il faut « Construire l’école solidaire et créative d’un monde numérique » et il faut agir rapidement, comme le soulignait déjà le rapport publié l’année dernière par l’Académie des Science, « Il est urgent de ne plus attendre ».
    Le rapport du CNNUM est organisé en 7 chapitres qui structurent ses recommandations :
    1.    Enseigner l’informatique : une exigence
    2.    Installer la littératie de l’âge numérique
    3.    Oser le bac Humanités Numériques
    4.    Vivre l’école en réseau
    5.    Relier la recherche et l’éducation
    6.    Accompagner l’explosion des usages éditoriaux
    7.    Accepter les nouvelles industries de la formation

    Ce rapport est riche et touffu et nous en conseillons la lecture à tous ceux qui s’intéressent aux questions d’éducation. Nous nous limitons dans ce post au premier chapitre, consacré à l’enseignement de l’informatique, parce qu’il nous semble particulièrement important pour le futur de notre pays et parce qu’il rejoint un combat que nous menons depuis plusieurs années.

    Cette exigence d’enseigner l’informatique, qui revient dans de nombreux rapports, en France comme à l’étranger, est en train de s’imposer. Le rapport va plus loin en proposant trois mesures simples et concrètes pour lancer son installation :

    • A l’école primaire : offrir aux professeurs la formation en informatique qui les aidera à répondre aux attentes de leurs élèves.
    • Au collège : démarrer un enseignement d’informatique d’un an, en classe troisième,  sur le temps de la technologie, centré sur la programmation et de l’algorithmique.
    • Au lycée : offrir à tous les élèves la possibilité de choisir l’option Informatique et Science du Numérique en terminale.

    Le rapport insiste sur un indispensable renouvellement des méthodes pédagogiques qui doit accompagner un enseignement de l’informatique. Ce nouvel enseignement doit, par exemple, être l’occasion de développer un enseignement par projet, aujourd’hui encore trop limité dans nos Écoles. En plaidant pour que ces projets soient le plus souvent possible proposés en collaboration avec d’autres disciplines, le rapport suggère aussi d’estomper les murs qui séparent trop souvent les disciplines.

    Le rapport insiste également sur l’aspect qui nous semble le plus important pour faire de cette métamorphose de l’École une réussite : la formation des professeurs. Pour le collège et le lycée, il rappelle la nécessité de développer un corps de professeurs d’informatique ayant reçu une formation solide dans la discipline, de niveau bac+5, car c’est le niveau requis en mathématiques, en physique, en anglais ou en latin. Le rapport propose des chiffres précis. Par exemple, enseigner l’informatique au collège demande 3500 postes. Et l’expérience a montré que l’on était bien loin de fournir un tel nombre d’enseignants en «  transformant » simplement des enseignants d’autres disciplines en informaticiens. Il est donc urgent  pour l’Éducation nationale de recruter des informaticiens.  Des pistes sont suggérées dans le rapport pour trouver les candidats dont notre système éducatif a besoin.

    Si l’enseignement de l’informatique est l’objet du premier chapitre, il est présent à plusieurs autres endroits du rapport. Il permet par exemple d’établir une littératie numérique sur des bases solides. Il se marie à l’enseignement des  humanités, pour construire le Bac Humanités numériques, etc. La proposition de ce Bac Humanités numériques va à l’encontre de l’idée reçue que l’informatique est une affaire qui   concerne uniquement les scientifiques, voire les ingénieurs. L’enseignement de l’informatique doit au contraire s’adresser à toutes et  tous, et peut-être au lycée, en priorité aux littéraires qui, plus que les autres élèves, risquent de rater leur dernière chance d’apprendre un peu d’informatique.

    Le CNNum s’est autosaisi de ce sujet de l’éducation au numérique. Il a longuement écouté des spécialistes de la question, beaucoup de professeurs et d’intervenants de l’éducation populaire. C’est ce long travail coopératif qui a abouti à ces propositions. Ces propositions ne constituent qu’un début, et gageons qu’on reprochera au CNNum de ne pas être allé assez loin. Mais ces propositions ont le mérite d’être réalisables à la rentrée prochaine.

    Ces propositions demanderont certes de l’énergie et on peut parier que la tâche paraîtra certainement insurmontable au Ministère de l’Éducation nationale. Elle le serait sans doute si ce ministère agissait seul, mais c’est un effort collectif qu’il s’agit d’organiser, avec les élèves qui jouent là leur avenir, les familles qui sont en demande,  les professeurs, sur les épaules desquels repose la responsabilité de la réussite de ce projet, les entreprises qui ont besoin d’employés compétents, et la société dans son ensemble, qui vivra plus harmonieusement avec des citoyens à même de comprendre le monde numérique dans lequel ils évoluent.

    Nous sommes tous concernés et c’est collectivement que le pays doit saisir cette occasion.

    Serge Abiteboul et Gilles Dowek

  • Antoine Petit, Président Directeur Général d’Inria

    Antoine Petit vient d’être nommé Président Directeur Général d’Inria, établissement public de recherche dédié aux sciences du numérique (le 28/9/2014). Comme il était au bon vieux temps professeur à l’Ecole Normale Supérieure de Cachan, Binaire a demandé à Alain Finkel, professeur à l’ENS Cachan, qui l’a côtoyé quand il était encore professeur, de nous parler de cette personnalité du monde de la recherche en informatique. Il nous raconte un chercheur, un enseignant, la genèse d’un dirigeant.

    antoineAntoine Petit

    Je connais Antoine Petit depuis 30 ans. Je l’ai rencontré au début des années 1980 dans un groupe de recherche qui utilisait la théorie des langages pour étudier le calcul parallèle et la vérification de programme. Les séminaires avaient lieu dans le sous-marin au LITP*. Antoine faisait sa thèse avec Luc Boasson. Je me souviens de discussions passionnées : Luc soutenait que la recherche devait être motivée par le plaisir quand Antoine défendait qu’il fallait aussi s’intéresser aux applications. Antoine aura par la suite à cœur de faire, personnellement, de la recherche fondamentale en prise avec les applications et, comme responsable, d’éviter qu’un laboratoire ne s’enferme dans une recherche uniquement  fondamentale.

    J’ai retrouvé Antoine à l’Université Paris Orsay où nous étions tous les deux maitres de conférences. J’ai été impressionné par sa grande liberté de penser, son absence d’à priori et de préjugés, qui lui permettent de trouver des solutions originales pour atteindre ses objectifs. J’ai découvert ses capacités exceptionnelles : il est à la fois un chercheur brillant (beaux résultats, très belles présentations pédagogiques, papiers dans les très bonnes conférences) et un stratège hors-norme. S’il y avait dans notre domaine d’autres chercheurs brillants, je n’en connaissais pas avec ses talents de stratège.

    picture-015Antoine Petit, à la Conférence annuelle sur « Computer Science Logic », 2001, @ LSV

    En 1995, il est devenu professeur à l’ENS Cachan. C’est aussi un enseignant brillant. C’est un spécialiste de ces méthodes formelles qui permettent de vérifier des systèmes informatiques calculant en le temps réel, et avec plusieurs processus en parallèle». Il a notamment dirigé la thèse d’une de nos stars, Patricia Bouyer, sur les automates temporisés (des automates finis auxquels on adjoint des horloges ce qui permet d’exprimer et vérifier des propriétés temporelles). Patricia est aujourd’hui DR CNRS, médaille de bronze et prix EATCS Presburger. Malgré ses responsabilités, Antoine a tenu à continuer à faire de la recherche jusqu’assez récemment .

    Les débuts de l’informatique à l’ENS Cachan ne furent pas toujours faciles. Certains  collègues d’autres disciplines souhaitaient une informatique à leur service. Comme Directeur du département Informatique (1995 a 2001), Antoine a eu à négocier pied à pied. Il ne quittait pas ses objectifs de vue et savait déployer une grande créativité pour les atteindre ou résister aux contraintes. Les arguments d’autorité n’avaient aucune prise sur lui. Ni la colère ou les menaces de son interlocuteur. Antoine n’est pourtant pas infaillible. Il a échoué à faire évoluer la cantine de l’ENS Cachan sur un point important. En 1995, il était possible de prendre deux plats définis à l’avance, écrits sur un tableau, par exemple un « steak haricot verts » ou un « poulet frites » mais pas une combinaison comme un « steak frites », et cela bien que les différents composants soient dans des bacs séparés. Antoine s’est battu mais il a perdu.  L’ensemble {steak, poulet, haricots verts, frites¬¬} muni de la combinaison cantinière officielle n’était pas un monoïde (**) et n’était certainement pas libre.

    Son goût de la compétition et de la performance ne s’exprime pas seulement dans le domaine scientifique. Il est passionné par le sport, surtout le rugby. (A son époque cachanaise, il lisait L’équipe tous les jours.) Il adore utiliser des métaphores sportives. S’il veut convaincre de viser l’excellence, il parle de : « jouer en première division ». Dans ces métaphores, on retrouve tout le plaisir qu’Antoine trouve dans la recherche, tout ce plaisir qu’il aimerait que les chercheurs des structures qu’il dirige partagent. Oui. Antoine sait se placer où il faut quand il faut ; il est là où arrive le ballon. Et, je ne parle pas d’opportunisme mais d’intuition, d’analyse, de raisonnement.

    Je me souviens encore de l’entretien que j’ai eu en 1995 avec Antoine pour sa candidature à l’ENS Cachan. Je lui ai prédit une carrière de ministre mais pour l’instant, il n’a été que :
    •    Directeur scientifique du département STIC du CNRS (2001-2003)
    •    Directeur interrégional Sud-Ouest au CNRS (2004-2006)
    •    Directeur d’INRIA Paris-Rocquencourt (2006-2010)
    •    Directeur général-adjoint d’INRIA (2010-2014) et enfin
    •    Président Directeur Général d’INRIA aujourd’hui.

    Antoine n’est pas encore ministre, mais sa carrière n’est pas terminée loin s’en faut. 🙂

    Alain Finkel, Professeur ENS Cachan

    (*) Laboratoire d’informatique théorique et programmation de Paris 7, maintenant LIAFA  de Université Paris Diderot
    (**) Blague de geek. Un monoïde est une structure algébrique. L’ensemble des mots d’un alphabet muni de l’opération de concaténation forme un monoïde libre.

  • Les tablettes de la pédagogie ?

    Binaire reprend un article signé Colin de la Higuerra, paru aujourd’hui dans Slate: Les élèves français n’ont pas besoin d’une tablette à l’école, mais de véritables cours d’informatique.

    Il y a de meilleurs moyens de dépenser les fonds alloués au «grand plan numérique» promis par François Hollande.

    Le 2 septembre dernier, le président de la République lançait un «grand plan numérique» pour l’Éducation nationale. On peut imaginer qu’un «grand plan», sur un enjeu aussi crucial que celui de préparer l’entrée de la jeunesse dans le monde de demain, sera accompagné d’un budget conséquent, sans doute plusieurs milliards d’euros.

    Se pose alors la question de la meilleure manière d’employer cet argent pour préparer les élèves à devenir demain des citoyens éclairés et à trouver un travail. Or, lors du Petit Journal du 25 septembre, la ministre de l’Éducation nationale, Najat Vallaud-Belkacem, a notamment promis que les collégiens bénéficieraient d’une tablette afin d’alléger un cartable trop lourd:

    «À partir de la rentrée 2016, tous les collégiens [3,2 millions d’élèves environ, ndlr] –en l’occurrence, on commencera par les classes de 5e– auront et travailleront sur des tablettes numériques.»

    Pourtant, les élèves n’ont pas besoin d’une tablette supplémentaire mais d’un véritable enseignement de l’informatique, qui leur donne les clés pour comprendre le monde dans lequel ils vivent et vivront, comme celui que suivent, depuis plusieurs années déjà, leurs camarades bavarois, estoniens, israéliens, suisses, lituaniens, néerlandais, etc. C’est également ce que vont suivre leurs camarades anglais, finlandais ou coréens. C’est ce que recommande l’Académie des sciences, c’est ce que recommande la Société informatique de France, c’est ce que recommande le Conseil supérieur des programmes, c’est ce que recommande le Conseil national du numérique.

    S’il faut choisir entre dépenser l’argent pour l’équipement de tablettes ludiques ou pour former les enseignants et développer les outils logiciels nécessaires, une comparaison s’impose. La première proposition n’a été proposée par aucun analyste sérieux: dans les différents endroits où pareille mesure a été expérimentée, aucune évaluation documentée n’a jamais montré que son impact était positif autrement que pour l’économie des pays producteurs de ces équipements (groupe dans lequel il est difficile d’inclure la France, même si la ministre a affirmé sur Canal+ que le gouvernement aimerait «faire travailler des Français»).

    Pour offrir aux élèves un enseignement de qualité, la décision-clé est bien plutôt celle de former les enseignants dans le primaire et de recruter des enseignants dans le secondaire. 1 milliard d’euros par an, par exemple, c’est 25.000 professeurs d’informatique. C’est aussi dix millions d’heures de cours de formation continue et donc la possibilité de former à la fois les professeurs de primaire, ceux de collège, de lycée et même des classes préparatoires! C’est beaucoup plus qu’il n’en faut pour offrir un enseignement de qualité dans toutes les écoles, tous les collèges et tous les lycées français.

    Colin de la Higuera, Président de la Société Informatique de France

     

  • Gérard Berry, traqueur de bugs

    Un informaticien médaille d’or du CNRS 2014 (communiqué du 24 septembre)

    college2Gérard Berry en cours au Collège de France

    C’est un chercheur en informatique qui vient de recevoir la médaille d’or du CNRS, la plus haute distinction scientifique française toutes disciplines confondues. Les informaticiens sont rares à avoir été ainsi honorés : ce n’est que la seconde fois, après Jacques Stern en 2006.

    Gérard Berry est un pionnier dans un nombre considérable de domaines informatiques : le lambda-calcul, la programmation temps réel, la conception de circuits intégrés synchrones, la vérification de programmes et circuits, l’orchestration de services Web. Il a été l’un des premiers informaticiens académiciens des sciences, le premier professeur d’informatique au Collège de France.

    Parmi ses grandes inventions, essayons d’en expliquer une, le langage Esterel.

    Sad_macEcran indiquant un code erreur sur
    les premières versions de Macintosh. @Wikipédia

    Nous sommes entourés de systèmes d’une incroyable complexité : téléphones, moteurs de recherche, avions, centrales nucléaires. Ils fonctionnent tous avec du matériel informatique (des circuits) et du logiciel informatique (des programmes). Mais alors que le plantage d’un téléphone ou même d’un moteur de recherche est anodin, il en est tout différemment des avions, des centrales nucléaires ou encore des pacemakers. Pour ces derniers, le bug peut provoquer un désastre. Pour ne donner qu’un exemple, c’est un bug qui est à l’origine de la destruction d’Ariane 5, de l’Agence spatiale européenne, quarante secondes seulement après son décollage, le 4 juin 1996. Or un bug, c’est souvent une seule ligne de code erronée sur des millions qui composent un programme. Ça vient vite ! Et ça peut faire mal.

    Comment éviter les bugs ? On peut bien sûr tester davantage les programmes. Cela permet de trouver beaucoup d’erreurs, mais combien d’autres passeront à travers les mailles du filet ? Une autre solution, c’est d’intervenir en amont dans le processus de création de programme, par exemple en fournissant aux informaticiens de meilleurs outils de conception, de meilleurs langages de programmation. C’est l’approche que prône Gérard Berry.

    Les langages de programmation standards sont mal adaptés aux situations rencontrées dans des systèmes aussi complexes que des avions. Il faut tenir compte à la fois du matériel et du logiciel, du fait que nombreuses tâches s’exécutent en parallèle, que parfois la même tâche est exécutée plusieurs fois pour se protéger d’une panne d’un composant. Surtout, il faut utiliser des modèles qui tiennent compte du temps, des délais de réponse, des mécanismes de synchronisation. Le nouveau concept de langage synchrone a permis de répondre à cette situation. Ce concept a été découvert et promu par Gérard Berry et ses collègues au travers notamment du langage Esterel. Ce langage ainsi que d’autres langages synchrones développés en France, comme Lustre et Signal, ont eu un impact majeur dans le monde entier.

    Mais comment un langage peut-il aider à résoudre des problèmes aussi complexes ? D’abord, parce qu’il permet de décrire les algorithmes que l’on veut implémenter sous une forme compacte et proche de l’intention du programmeur. Ensuite, parce que ce langage est accompagné de toute une chaîne d’outils de compilation et de vérification automatique, qui garantit que le produit final est correct.

    Les langages synchrones ont constitué une avancée scientifique majeure. Gérard Berry est allé plus loin encore, et les a emmenés dans l’aventure industrielle en cofondant la société Esterel Technologies. Ces langages sont aujourd’hui incontournables dans des domaines comme l’aérospatial ou l’énergie.

     

    Sa notoriété, Gérard l’a aussi mise au service du partage de la culture scientifique pour permettre à chacune et chacun de comprendre « pourquoi et comment le monde devient numérique ». Il passe un temps considérable, souvent avec des jeunes, à expliquer les fondements et les principes de la science informatique. Un défi !

    L’enseignement de l’informatique est l’un de ses grands combats. Il a dirigé avec Gilles Dowek l’écriture d’un rapport important sur la question. Un autre défi ! Alors qu’il  s’agit d’éducation, de science et de technique, l’Etat se focalise souvent sur le haut débit et l’achat de matériel. Un pas en avant et au moins un en arrière. Mais il en faut bien plus pour entamer l’enthousiasme de Gérard Berry.

    Gérard Berry est un inventeur. Au-delà d’Esterel, c’est un découvreur des modèles stables du lambda-calcul, un inventeur de machine abstraite chimique, un concepteur de langages d’orchestration d’objets communicants, comme HipHop. Gérard Berry s’investit avec enthousiasme dans ses nombreuses fonctions des plus académiques, comme professeur au Collège de France, aux plus mystérieuses, comme régent de déformatique du Collège de Pataphysique.

     

    Les Mardis de la science

    Et quand vous passerez devant une centrale nucléaire, admirez le fait que même s’il utilise des logiciels et matériels bien plus compliqués que votre téléphone, son système informatique ne « plante » pas, contrairement à celui de votre téléphone. Quand vous volerez, peut-être au-dessus de l’Atlantique, réjouissez-vous que le fonctionnement de votre avion soit plus fiable que celui de votre tablette. Et puis, de loin en loin, pensez que tout cela est possible parce que des chercheurs en informatique comme Gérard Berry ont mis toute leur créativité, toute leur intelligence pour développer cette science et cette technique qui garantissent la fiabilité des systèmes informatiques.

    Serge Abiteboul (Inria), Laurent Fribourg (CNRS) et Jean Goubault-Larrecq (École normale supérieure de Cachan)

    Pour aller plus loin

    1. « Science et conscience chez les Shadoks ! », vidéo
    2. « L’enseignement de l’informatique en France. Il est urgent de ne plus attendre », rapport de l’Académie des sciences, 2013
    3. « L’informatique du temps et des événements », cours au Collège de France 2012-2013)
    4. « Penser, modéliser et maîtriser le calcul », cours au Collège de France 2009-2010)
    5. « Pourquoi et comment le monde devient numérique », cours au Collège de France 2007-2008)
    6. Entretien avec Gérard Berry, Valérie Schafer, technique et science de l’informatique

    PS. : une citation de Gérard Berry, pataphysicien, « L’informatique, c’est la science de l’information, la déformatique, c’est le contraire. »

    PPS de Binaire : Une amie non informaticienne nous a écrit pour nous dire que le sujet était passionnant mais qu’elle n’avait pas tout compris, en particulier comment un langage comme Esterel pouvait aider. Binaire reviendra sur ce sujet avec Gérard Berry. Mais en attendant, nous conseillons une lecture qui tente d’aller plus loin dans les explications.

     

  • Un informaticien Médaille d’or du CNRS 2014 : Gérard Berry

    college2

    Annonce par Alain Fuchs, président du CNRS.

    Voir un article récent dans Binaire : l’informatique s’installe au college de france

    Et sa page dans Wikipédia.

    La médaille d’or du CNRS est la plus haute distinction scientifique française. Elle est décernée par le Centre national de la recherche scientifique (CNRS) tous les ans depuis sa création en 1954. Elle récompense « une personnalité scientifique qui a contribué de manière exceptionnelle au dynamisme et au rayonnement de la recherche ».

    Gérard a apporté des contributions majeures en sciences informatiques. Grâce à ses collègues et lui, nous comprenons mieux, par exemple, comment fonctionne un système numérique (logiciel et/ou matériel) qui interagit en temps-réel avec son environnement et comment on peut garantir la logique de son fonctionnement.
    Et depuis que Gérard est devenu un scientifique académicien célèbre, il fait cette chose exemplaire de mettre sa notoriété au service du partage de la culture scientifique pour permettre à chacune et chacun de comprendre « pourquoi et comment le monde devient numérique ».

  • Françoise en Bavière

    Le sujet de la formation à l’informatique a été beaucoup débattu en France récemment. Mais en dehors de l’hexagone ? Se pose-t-on les mêmes questions ? D’autres pays auraient-ils eut l’audace de prendre de l’avance sur nous ? Binaire a proposé à Françoise Tort, chercheuse à l’ENS Cachan et co-responsable en France du concours CASTOR informatique, d’interroger des collègues à l’étranger. Leurs réponses apportent beaucoup à nos débats parfois trop franchouillards. 

     

    Tour d’horizon de l’enseignement de l’informatique… Aujourd’hui Françoise nous emmène en Bavière.

    photo 1Note sur le système scolaire bavarois : à la fin du primaire, à l’âge de 10-11 ans, les élèves bavarois s’orientent entre trois voies différentes : la Mittelschule ou la Hauptschule (école de formation professionnelle, surtout artisanale), la Realschule (équivalent du collège qui propose un diplôme de fin d’étude moyen) et le Gymnasium (équivalent du cursus collège + lycée général ou technologique en France). Environ un tiers des élèves d’une tranche d’âge vont au Gymnasium, sélectionnés sur leurs bons résultats à l’école primaire. Pour faciliter la lecture, nous utiliserons dans le texte les niveaux français.

     

    Peter HubwieserEntretien avec Peter Hubwieser professeur à la Technische Universität München (TUM), chercheur en didactique de l’Informatique, acteur majeur dans l’introduction de l’enseignement de l’informatique en Bavière.

     

    Plus de 1/3 des jeunes bavarois apprennent l’informatique dès l’âge de 11 ans.

    Depuis 2004, l’informatique est enseignée dans tous les collèges-lycées bavarois (que nous appelons Gymnasium). Tous les élèves de 6ème, 5ème ont des cours d’informatique obligatoires deux fois par semaine. Ensuite, les élèves qui poursuivent dans la filière « science et technologique », ont aussi un cours obligatoire, 2 fois par semaine, en  3ème et en 2nde. Enfin, un cours optionnel (3 séances par semaine) est proposé en 1ère puis en terminale, et ce dans toutes les filières. Depuis 2008, des cours d’informatique sont également proposés dans les écoles professionnelles. On peut donc dire que plus d’un tiers des élèves bavarois scolarisés dans le secondaire apprennent l’informatique dès l’âge de 11 ans.

    L’objectif général de cet enseignement n’est pas de former de futurs spécialistes de l’informatique ou de convaincre les jeunes de poursuivre des études supérieures dans ce domaine. Il s’agit d’aider les élèves à devenir des citoyens responsables et autonomes dans une société dominée par les nouvelles technologies de l’information et de la communication.

    Le programme combine des méthodes pour penser et des outils pour appliquer

    J’ai contribué à l’écriture du programme d’enseignement. Ce programme vise à développer les compétences de traitement de l’information des élèves et à les aider à comprendre les structures de bases des systèmes informatiques qu’ils utilisent. L’originalité de notre approche est la place donnée à la modélisation : les élèves apprennent des technique de modélisation des objets et systèmes qu’ils utilisent, tout en mettant en œuvre leurs modèles à l’aide de logiciels et d’environnements de programmation. Par exemple, les premières années, les élèves apprennent à représenter les documents (textes, images, hypertextes, etc) qu’ils produisent avec des logiciels à l’aide des notions abstraites d’objets, attributs, méthodes et classes empruntées à la modélisation orientée objet développée dans les années 80-90 en génie logiciel. A la fin de la classe de 5ème, ils travaillent sur leurs premiers programmes, en utilisant un robot virtuel (le Robot Karel). En classe de 3ème, ils modélisent des problèmes réels, et implémentent leurs solutions avec des logiciels tableurs et des systèmes de gestion de bases de données. A partir de la 2nde, ils programment avec des langages objets (le plus souvent avec le langage Java). Enfin, en 1ère et terminale, ils abordent des concepts de domaines plus spécifiques comme le développement logiciel ou l’informatique théorique.

    Le projet, conçu dès 1994, a profité d’une importante réforme scolaire en 2004

    J’ai commencé à travailler à ce projet d’enseignement en 1994 à la faculté d’informatique de la TUM. Nous avons publié un premier projet de programme en 1997. A cette époque, le gouvernement fédéral lançait un programme expérimental de 3 ans visant à tester un projet de réforme des collèges-lycées bavarois. Un enseignement d’informatique mettant en œuvre notre proposition a été introduit dans cette expérimentation, dans une quarantaine d’établissements. Devant le succès rencontré auprès des élèves, des parents et des enseignants, le gouvernement a décidé, dès 2000, d’introduire cet enseignement dans la réforme. Ce fut effectif à la rentrée 2004 pour la classe de 6ème, puis chaque année suivante pour les autres niveaux.

    La formation a été anticipée pour avoir des enseignants diplômés dès le début

    Les enseignants bavarois ont tous deux disciplines (mathématique et physique par exemple). Ils ont une formation et un diplôme universitaire dans ces disciplines. Pour enseigner, ils passent deux certificats, l’un  disciplinaire, l’autre en pédagogie et psychologie.

    Ce qui a été exceptionnel, c’est que la formation des enseignants a été initiée bien avant que la création de l’enseignement ne soit décidée. Deux universités ont ouvert un programme de formation continue en deux ans, en 1995, suivi avec succès par une petite centaine d’étudiants. En 1997, l’enseignement universitaire a été officialisé, et a été suivi, de 2001 à 2006, d’un programme de formation, que j’ai initié et coordonné. Nous avons formé environ 300 enseignants dans 5 universités bavaroises. Depuis, un programme d’auto-formation est proposé, suivi par 80 enseignants. En parallèle, l’administration bavaroise a mis en place des actions de promotion pour inciter les détenteurs d’un Master en informatique à embrasser la profession d’enseignant. On peut estimer qu’il y a aujourd’hui, près de 1 300 enseignants d’informatique dans les collèges-lycées, et que parmi eux 800 sont diplômés en informatique.

    Les enseignant et les élèves sont plutôt satisfaits

    Nous avons réalisé une enquête auprès des enseignants en 2009. Ils se disaient plutôt motivés et satisfaits des cours et du programme. Nous leur avons demandé s’il y avait des écarts de réussite entre garçons et filles. Globalement, ils n’ont pas relevé de différence, sauf une baisse de performance des filles au niveau de la classe de 2nde. Toutefois, d’autres indicateurs sont plus faibles pour ce niveau, qui est l’année de l’introduction de la programmation objet. Il nous semble intéressant d’étudier cela d’un peu plus près.

    Une nouvelle réforme du système scolaire en perspective

    Le programme est en cours de révision.  Pour autant que je sache, il y aura des éléments supplémentaires sur la protection des données et la sécurité des données. Mais le plus important est qu’il y a, à l’heure actuelle, un débat sur le retour aux collèges-lycées en 9 ans (la réforme de 2003 avait réduit ce cursus à 8 années). Personne ne sait ce qu’il en résultera.


    Pour en savoir plus …

    1- Peter Hubwieser. 2012. Computer Science Education in Secondary Schools – The Introduction of a New Compulsory Subject. Trans. Comput. Educ. 12, 4, Article 16 (November 2012), 41 pages.

    2 – Peter Hubwieser. 2001. Didaktik der Informatik (en Allemand, Didactique de l’Informatique). Springer-Verlag, Berlin.

  • Cod cod coding à Nancy

    codcodcoding-logoCod Cod Coding ? C’est le nom de la toute nouvelle activité de programmation créative récemment qui vient d’éclore au sein de la MJC centre social Nomade à Vandoeuvre-lès-Nancy.

    Avec Cod cod coding, les poussins à partir de 8 ans peuvent inventer des jeux, des histoires animées, ou simuler des robots avec l’ordinateur.  Le partage d’une culture scientifique en informatique est-il un problème de poule et d’œuf ?  Comment ceux qui ne sont pas du tout initiés aux sciences du numérique peuvent-ils comprendre la pertinence et la nécessité de partager des sciences du numérique ? Voire même une source de querelles de poulaillers ? Est-ce que nos mômes seront initiés à ces sciences du XXième siècle quand les poules auront des dents ? Plus maintenant !

    codcodcoding-vueatelierBien loin de ces prises de bec et sans jamais casser d’œufs, un jeune chercheur en sciences informatiques consacre une partie de son activité à permettre aux enfants de découvrir, en jouant, comment faire éclore des bout de logiciels pour co-créer le monde numérique de demain.  Avec le logiciel Scratch, ils apprennent : la logique, l’algorithmique, le codage numérique de l’information. Ils auront même le droit de se tromper pour trouver des solutions (seul ou avec ses voisin(e)s), personne n’est là pour leur voler dans les plumes !! Oui, apprendre le code, c’est aussi une seconde chance de picorer quelques grains de science, y compris pour ceux qui sont plus ou moins à l’écart du nid scolaire.

    Et pour en savoir plus, rendez-vous sur le blog associé à cette activité,  une poule aux œufs d’or pour partager les réalisations des participants ! Voir aussi comment faire de l’informatique en primaire, comme nous l’explique Martin Quinson. Et si vous cherchez un lieu de ce type près de chez vous : rendez-vous sur jecode.org qui offre une carte de France de ces initiatives.

    Florent Masseglia et Véronique Poirel, propos recueillis par Thierry Viéville  et Marie-Agnès Enard.

    codcodcoding-tweets

  • Informatique en primaire, comment faire ?

    Les ministres de l’éducation nationale changent, mais l’idée de commencer à initier à la programmation informatique en primaire, fait son bonhomme de chemin comme les questionnements qu’elle soulève. Martin Quinson, enseignant-chercheur en informatique, a proposé une analyse sur son blog : «Informatique en primaire, comment faire ?». Avec d’autres, nous avons trouvé son texte passionnant. Nous avons demandé une fiche de lecture à une enseignante, amie de Binaire.

    On parle donc de mettre en place des activités, destinées à enseigner l’informatique au plus grand nombre et au plus vite. Comment alors apporter des éléments de réponses aux nombreuses questions pratiques qui se posent, notamment sur ce qu’il convient d’enseigner, et sur la démarche à adopter ?

    Les objectifs pédagogiques

    ©letourabois.free.fr

    Il y a un terme fédérateur : celui de littératie numérique des enfants. En adaptant la définition de littératie donnée par l’OCDE, on peut parler de « l’aptitude à comprendre et à utiliser les technologies de l’information et de la communication dans la vie courante, à la maison, au travail et dans la collectivité en vue d’atteindre des buts personnels et d’étendre ses connaissances et ses capacités ».

    Comment faire alors en sorte que les enfants soient capables de faire un usage raisonné de l’informatique et des ordinateurs ? Si quelques idées sont disponibles dans ces propositions d’orientations générales pour un programme d’informatique à l’école primaire, d’autres éléments de réponse complètent cette vision :

    ©scratch.mit.edu

    Que les enfants soient capables de créer des petites choses sur ordinateur, comme ils sont capables d’écrire de petits textes ou faire des dessins à l’heure actuelle. Mais aussi qu’ils puissent créer leur propre carte de vœux animée pour la fête des mères, sans avoir à choisir parmi des cartes toutes faites sur http://www.dromadaire.com ou ailleurs, ou encore qu’ils soient capables de faire de petits dessins animés pour raconter des petites histoires, de complexité comparable aux rédactions qu’ils font déjà. Enfin, qu’ils puissent réaliser leurs propres petits jeux informatiques, qui auront le mérite d’être leurs propres créations même s’il ne s’agit pas de futurs blockbusters.

    Voilà qui est clair et proche du quotidien.

    Faut-il faire des « Coding Goûters » ?

    ©jecode.org

    Un « Coding Goûter » est une animation qui se déroule une demi-journée, où les enfants et leurs parents apprennent ensemble la programmation créative, avec des accompagnateurs, mais sans professeur. Ce format est particulièrement bien trouvé et des micro-formations pour aider les collègues qui voudraient se lancer sont proposées côté Inria. Cependant, la réponse est à nuancer, car ce format n’est pas généralisable, en l’état actuel, pour des activités récurrentes en milieu scolaire sans formation des enseignants. Voyons donc les autres possibilités d’animation.

    . . ou de la programmation créative ?

    Comme dit Claude Terosier de chez Magic Makers, il s’agit d’apprendre à coder pour apprendre à créer . Dans la même lignée, s’organise une activité pilote à la rentrée à la MJC Nomade de Vandœuvre-les-Nancy sur ce modèle. Leur club s’appelle Cod Cod Coding .

    ©codcodcoding

    L’un des points forts de l’outil le plus répandu Scratch, c’est sa communauté d’utilisateurs. De très bons pédagogues diffusent beaucoup de bonnes ressources, ce qui est pratique quand on débute. Cette communauté se réuni tous les deux ans, lors d’événements très enrichissants. On peut s’appuyer sur ce guide présentant dix séances clé en main, ou sur celui-ci, également bien fait. Et on trouve de bonnes ressources sur le wiki de http://jecode.org.

     

    Oser l’informatique débranchée

    ©csunplugged.org

    Comprendre comment est représentée l’information une fois numérique ou découvrir un algorithme ou ce que sont les algorithmes, c’est possible sans machine, sous forme de jeux, de devinette ou d’activité avec un crayon et un papier. Et c’est précieux : cela montre que c’est une façon de penser, pas que d’utiliser les machines. Cela permet aussi à ce qui ne raffolent pas de technologie de comprendre aussi. Faire à chaque séance un peu de débranché au début, un temps d’activités sur machine, avant un petit retour tous ensemble à la fin semble une excellente idée.

    Sans aller jusqu’à introduire la notion d’algorithme avant le premier passage sur machine, il est possible d’utiliser des activités débranchées pour expliquer ce que programmer veut dire. Cette activité semble particulièrement pertinente pour cela. Ensuite, si les enfants ont encore un peu de patience, vous pouvez enchaîner avec les activités débranchées mises au point avec Jean-Christophe Bach, ou d’autres activités débranchées existantes.(…)

    Mise en œuvre pédagogique.

    ©images.math.cnrs.fr

    Prenons l’exemple de l’enseignement de Scratch. On peut opter pour une approche traditionnelle avec un chapitre sur les variables, un chapitre sur les boucles, un autre sur les conditionnelles. Mais on peut aussi retourner le modèle, et commencer par faire un petit Angry Birds (en utilisant des conditionnelles sans s’en rendre compte, du moins jusqu’à la fin du chapitre où l’on verbalise la notion après usage), continuer par un casse brique (et utiliser des variables sans apprendre explicitement ce que c’est), puis un Pong (mettant du parallélisme en œuvre sans réaliser avoir besoin de le dire), etc. Voilà ce qui marche pour de vrai, avec les enfants du primaire. Et ensuite de montrer ce qu’on a découvert : les ingrédients de tous les algorithmes du monde.

    Comme support, on recommande ce livre. Il s’agit d’une bande dessinée racontant les aventures d’un chat et d’un étudiant en informatique. Au fil des 10 chapitres, on est amené à programmer des petits jeux pour « débloquer » l’aventure jusqu’au chapitre suivant. On apprend les bases de la programmation créative.

    Sinon, l’un des dix principes de « La main à la pâte » est de faire tenir un cahier de laboratoire aux enfants, où ils consignent leurs expériences et conclusions avec leurs mots à eux.

    Utilisation du matériel.

    Un ordinateur pour deux enfants suffit. La programmation en binôme est très efficace. Le plus important est de s’assurer que les rôles s’inversent régulièrement, et qu’aucun enfant ne monopolise la souris. Être deux par machine force les enfants à planifier leurs activités au lieu de se laisser porter par la souris, sans but précis.

    Et après ?

    Voilà donc l’état des réflexions. Mais on est  pas seuls: l’équipe invite à discuter tous ensemble au fur et à mesure des avancées sur ce qui fonctionne et les problèmes rencontrés. C’est aussi pour cela qu’elle a fondé http://jecode.org  : faire se rencontrer les volontaires souhaitant enseigner, informer à propos des lieux qui veulent organiser des ateliers, mettre en lien les acteurs qui désirent apprendre l’informatique. Inscrivez-vous sur la liste de diffusion pour échanger sur ces sujets.

    Alice Viéville.

     

  • Permis de vivre la ville

    logoPetite balade dans le 14e arrondissement parisien pour prendre un bain d’éducation populaire ; nous rendons visite à « Permis de Vivre la Ville ». L’association a été créée en 1987 sous le patronage de l’Abbé Pierre. Elle travaille depuis au cœur des quartiers en difficulté. Pourquoi cette association nous intéresse-t-elle tout particulièrement ? Ses projets conjuguent culture et informatique.

    L’ambiance est à la fois studieuse et détendue. Des jeunes s’activent sur leurs projets informatiques. D’habitude, c’est plus calme nous explique-t-on : les jeunes de l’autre lieu installé à Montreuil sont aussi par hasard présents. Ici, on ne se contente pas de répéter qu’il est des quartiers en grande difficulté. On retrousse ses manches et on change les choses.

    marcela Anne
    Marcela Perez, Permis de Vivre la Ville Anne Dhoquois, Banlieues créatives

    Un malstrom d’information tout en sourires est déversé par Anne Dhoquois et Marcela Perez. Banlieues créatives, Tremplin numérique… nous sommes vite perdus dans des structures, des projets, des sites Web. Cette association de terrain a longtemps été présente à Evry (Bois Sauvage) et Paris 17ème (Porte Pouchet) ; elle l’est toujours à Clichy-sous-Bois (Chêne pointu) et Antony (Noyer Doré), et vient d’ouvrir un second local à Montreuil. Ça bouge !

    tremplinDes jeunes du 92 et 93 dans les locaux parisiens © Tremplin numérique

    Au delà de la grande gentillesse qui se dégage de nos deux hôtesses, une impression forte de compétences. Ici on ne bricole pas. L’expérience, la connaissance des dossiers, un mélange détonnant avec une passion évidente pour l’ambition de participer à construire une ville plus humaine.

    lexik© Lexik des cités / collectif Permis de Vivre la Ville

    Nous pourrions raconter le Lexik des cités et le langage des jeunes du quartier (comme exercice, traduire : « Ma came a un bail et ses darons le savent pas ») mais nous allons plutôt parler d’un projet plus récent « Banlieues créatives ». Ce média web est l’occasion pour les jeunes de faire l’apprentissage du reportage, de l’interview, de la publication, de la parole publique, aux côtés d’une journaliste professionnelle. Le résultat se traduit dans un site Web. Celui-ci, truffé d’informations, d’interviews, de témoignages, est passionnant. Il décrit des expériences concrètes qui amènent à changer de regard sur les quartiers, sur le sens de la société, sur la dimension sociétale que peuvent prendre des  actions de terrain.
    Petite balade dans le 14e arrondissement parisien pour rendre visite à Permis de vivre la ville. On en ressort avec l’envie de ne plus subir le numérique, mais de le mettre au service de la société. Merci Marcela et Anne de nous avoir fait oublier quelques instants la morosité ambiante.

    Serge Abiteboul et Valérie Peugeot

    La carte de vœux numérique 2014 du 1er Ministre Jean-Marc Ayrault réalisé par les encadrants des jeunes de l’association

  • Comment l’informatique a révolutionné l’astronomie

    Françoise Combes, astronome à l’Observatoire de Paris et membre de l’Académie des Sciences (lien Wikipédia), a un petit bureau avec un tout petit tableau blanc, des étagères pleines de livres, un sol en moquette, et deux grandes colonnes de tiroirs étiquetées de sigles mystérieux. Au mur, des photos de ciels étoilés. Elle parle avec passion de son domaine de recherche, et met en exergue le rôle fondamental qu’y joue l’informatique.
    Entretien réalisé par Serge Abiteboul et Claire Mathieu

    fc-aug02

    La naissance des galaxies…

    B : Peux-tu nous parler de tes sujets de recherche ? Vu de l’extérieur, c’est extrêmement poétique : « Naissance des galaxies », « Dynamique de la matière noire » …
    FC : La question de base, c’est la composition de l’univers. On sait maintenant que 95% est fait de matière noire, d’énergie noire, et très peu de matière ordinaire, qui ne forme que les 5% qui restent. Mais on ignore presque tout de cette matière et de cette énergie noire. Les grands accélérateurs, contrairement à ce qu’on espérait, n’ont pas encore trouvé les particules qui forment la matière noire. On a appris vers l’an 2000 grâce aux supernovae que l’expansion de l’univers était accélérée. Mais la composition de l’univers que l’on connaissait alors ne permettait pas cette accélération ! Il fallait un composant pouvant fournir une force répulsive, et c’est l’énergie noire qui n’a pas de masse, mais une pression négative qui explique l’accélération de l’expansion de l’univers. On cherche également maintenant de plus en plus en direction d’autres modèles cosmologiques qui n’auraient pas besoin de matière noire, des modèles de « gravité modifiée ».

    B : Cette partie de ton travail est surtout théorique ?
    FC : Non, pas seulement, il y a une grande part d’observation, indirecte évidemment, observation des traces des composants invisibles sur la matière ordinaire. On observe les trous noirs grâce à la matière qu’il y a autour. Les quasars, qui sont des trous noirs, sont les objets les plus brillants de l’univers. Ils sont au centre de chaque galaxie, mais la lumière piégée par le trou noir n’en sort pas ; c’est la matière dans le voisinage immédiat, qui tourne autour, et progressivement tombe vers le trou noir en spiralant, qui rayonne énormément. Ce qui est noir et invisible peut quand même être détecté et étudié par sa « signature » sur la matière ordinaire associée.
    Pour mieux étudier la matière noire et l’énergie noire, plusieurs télescopes en construction observeront pratiquement tout le ciel à partir des années 2018-2020, comme le satellite européen Euclid, ou le LSST (Large Synoptic Survey Telescope) et le SKA (Square Kilometer Array). Le LSST par exemple permettra d’observer l’univers sur un très grand champ (10 degrés carrés), avec des poses courtes de 15 secondes pendant 10 ans. Chaque portion du ciel sera vue environ 1000 fois. Même dans une nuit, les poses reviendront au même endroit toutes les 30 minutes, pour détecter les objets variables : c’est une révolution, car avec cet outil, on va avoir une vue non pas statique mais dynamique des astres. Cet instrument fantastique va détecter des milliers d’objets variables par jour, comme les supernovae, sursauts gamma, astéroides, etc. Il va regarder tout le ciel en 3 jours, puis recommencer, on pourra sommer tous les temps de pose pour avoir beaucoup plus de sensibilité.
    Chaque nuit il y aura 2 millions d’alertes d’objets variables, c’est énorme ! Ce n’est plus à taille humaine. Il faudra trier ces alertes, et le faire très rapidement, pour que d’autres télescopes dans le monde soient alertés dans la minute pour vérifier s’il s’agit d’une supernova ou d’autre chose. Il y aura environ 30 « téraoctets » de données par nuit !  Des supernovae, il y en aura environ 300 par nuit sur les 2 millions d’alertes. Pour traiter ces alertes, on utilisera des techniques d’apprentissage (« machine learning »).

    B : Qui subventionne ce matériel ?
    FC : Un consortium international dont la France fait partie et où les USA sont moteur, mais il y a aussi des sponsors privés. Le consortium est en train de construire des pipelines de traitement de données, toute une infrastructure matérielle et logicielle.

    A273

    La place de l’informatique

    B : La part du « matériel informatique » dans ce télescope est très importante ?
    FC : Le télescope lui-même, de 8m de diamètre, est assez ordinaire. L’innovation est dans l’optique et les instruments pour avoir un grand champ, qui sont une partie importante du coût ; les images seront prises simultanément avec six filtres de couleur. Le traitement des données nécessite des super ordinateurs qui forment une grande partie du coût.

    B : Alors, aujourd’hui, une équipe d’astronomes, c’est pluridisciplinaire ?
    FC : Oui, mais c’est aussi très mutualisé. Il y a des grands centres (Térapix à l’Institut d’Astrophysique de Paris par exemple) pour gérer les pipelines de données et les analyser avec des algorithmes. Ainsi, on se prépare actuellement à dépouiller les données d’Euclid, le satellite européen qui sera lancé en 2020, dont le but est de tracer la matière noire et l’énergie noire, notamment avec des lentilles gravitationnelles. Les images des millions de galaxies observées seront légèrement déformées, car leur lumière est déviée par les composants invisibles sur la ligne de visée; il faudra reconstituer la matière noire grâce cette déformation statistique.

    B : Quels sont les outils scientifiques de base ? Des mathématiques appliquées ?
    FC : Oui. La physique est simple. Les simulations numériques de formation des galaxies dans un contexte cosmologique sont gigantesques : il s’agit de problèmes à  N-corps avec 300 milliards de corps qui interagissent entre eux ! Le problème est résolu par des algorithmes basés soit sur les transformées de Fourier soit sur un code en arbre, et à chaque fois le CPU croît en N log N. On fait des approximations, des développements en multi-pôles. En physique classique, ou gravité de Newton, cela va vite. Mais pour des simulations en gravité modifiée, là, c’est plus compliqué, il y a des équations qui font plusieurs pages. Il y a aussi beaucoup de variantes de ces modèles, et il faut éviter de perdre son temps dans un modèle qui va se révéler irréaliste, ou qui va être éliminé par des observations nouvelles. Il y a donc des paris à faire.

    B : Tu avais dit que vous n’étiez pas uniquement utilisateurs d’informatique, qu’il y a des sujets de recherche, spécifiquement en informatique, qui découlent de vos besoins ?
    FC : Je pensais surtout à des algorithmes spécifiques pour résoudre nos problèmes particuliers. Par exemple, sur l’époque de ré-ionisation de l’univers. Au départ l’univers est homogène et très chaud, comme une soupe de particules chargées, qui se recombinent en atomes d’hydrogène neutre, dès que la température descend en dessous de 3000 degrés K par expansion, 400 000 ans après le Big Bang. Suit une période sombre et neutre, où le gaz s’effondre dans les galaxies de matière noire, puis les premières étoiles se forment et ré-ionisent l’univers. Ce qu’on va essayer de détecter, (mais ce n’est pas encore possible actuellement) c’est les signaux en émission et absorption de l’hydrogène neutre, pendant cette période où l’univers est constitué de poches neutres et ionisées, comme une vinaigrette avec des bulles de vinaigre entourées d’huile. C’est pour cela que les astronomes sont en train de construire le « square kilometer array » (SKA). Avec ce télescope en ondes radio, on va détecter l’hydrogène atomique qui vient du début de l’univers, tout près du Big bang ! Moins d’un milliard d’années après le Big bang, son rayonnement est tellement décalé vers le rouge (par l’expansion) qu’au lieu de 21cm, il a 2m de longueur d’onde ! Les signaux qui nous arrivent vont tous à la vitesse de la lumière, et cela met 14 milliards d’années à nous parvenir – c’est l’âge de l’univers.
    Le téléscope SKA est assez grand et sensible pour détecter ces signaux lointains en onde métrique, mais la grande difficulté vient de la confusion avec les multiples sources d’avant-plan : le signal qu’on veut détecter est environ 10000 fois inférieur aux rayonnements d’avant-plan. Il est facile d’éliminer les bruits des téléphones portables et de la ionosphère, mais il y a aussi tout le rayonnement de l’univers lui-même, celui de la Voie lactée, des galaxies et amas de galaxies. Comment pourra-t-on pêcher le signal dans tout ce bruit? Avec des algorithmes. On pense que le signal sera beaucoup plus structuré en fréquence que tous les avant-plans. On verra non pas une galaxie en formation mais un mélange qui, on l’espère, aura un comportement beaucoup plus chahuté que les avant-plans, qui eux sont relativement lisses en fréquence. Faire un filtre en fréquence pourrait a priori être une solution simple, sauf que l’observation elle-même avec l’interféromètre SKA produit des interférences qui font un mixage de mode spatial-fréquentiel qui crée de la structure sur les avant-plans. Du coup, même les avant-plans auront de la structure en fréquence. Alors, on doit concevoir des algorithmes qui n’ont jamais été développés, proches de la physique. C’est un peu comme détecter une aiguille dans une botte de foin. Il faut à la fois des informaticiens et des astronomes.

    Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.

    Arp87Le couple de galaxies en interaction Arp 87,
    image du Hubble Space Telescope (HST), Credit NASA-ESA

    B : Cela veut-il dire qu’il faut des astronomes qui connaissent l’informatique ?
    FC : Les astronomes, de toute façon, connaissent beaucoup d’informatique. C’est indispensable aujourd’hui. Rien que pour faire les observations par télescope, on a besoin d’informatique. Par exemple le télescope SKA (et  son précurseur LOFAR déjà opérationnel aujourd’hui à Nançay) est composé de « tuiles » qui ont un grand champ et les tuiles interfèrent entre elles. Le délai d’arrivée des signaux provenant de l’astre observé sur les différentes tuiles est proportionnel à l’angle que fait l’astre avec le zénith. Ce délai, on le gère de façon numérique. Ainsi, on peut regarder dans plusieurs directions à la fois, avec plusieurs détecteurs. Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.
    Un astronome va de moins en moins observer les étoiles et les galaxies directement sur place, là où sont les télescopes. Souvent les observations se font à distance, en temps réel. L’astronome contrôle la position du télescope à partir de son bureau, et envoie les ordres d’observation par internet. Les résultats, images ou spectres arrivent immédiatement, et permettent de modifier les ordres suivants d’observation. C’est avec les télescopes dans l’espace qu’on a démarré cette façon de fonctionner, et cela s’étend maintenant aux télescopes au sol.
    Ce mode d’observation à distance en temps réel nécessite de réserver le télescope pendant une journée ou plus pour un projet donné, ce qui n’optimise pas le temps de télescope. Il vaut mieux avoir quelqu’un sur place qui décide, en fonction de la météo et d’autres facteurs, de donner priorité à tel ou tel utilisateur. Du coup on fait plutôt l’observation en différé, avec des opérateurs sur place, par « queue scheduling ». Les utilisateurs prévoient toutes les lignes du programme (direction, spectre, etc.) qui sera envoyé au robot, comme pour le temps réel, mais ce sera en fait en différé. L’opérateur envoie le fichier au moment optimum et vérifie qu’il passe bien.
    Selon la complexité des données, la calibration des données brutes peut être faite dans des grands centres avec des super computers. Ensuite, l’astronome reçoit par internet les données déjà calibrées. Pour les réduire et en tirer des résultats scientifiques, il suffit alors de petits clusters d’ordinateurs locaux. Par contre, les super computers sont requis pour les simulations numériques de l’univers, qui peuvent prendre des mois de calcul.
    Que ce soit pour les observations ou les simulations, il faut énormément d’algorithmes. Leur conception se fait en parallèle de la construction des instruments. Les algorithmes sont censés être prêts lorsque les instruments voient le jour. Ainsi, lorsqu’un nouveau télescope arrive, il faut qu’il y ait déjà par exemple tous les pipelines de calibrations. Cette préparation est un projet de recherche à part entière. Tant qu’on n’a pas les algorithmes, l’instrument ne sert à rien: on ne peut pas dépouiller les données. Les progrès matériels doivent être synchronisés avec les progrès des algorithmes.

    B : Est-ce que ce sont les mêmes personnes qui font la simulation de l’univers et qui font l’analyse des images ?
    FC : Non, en général ce sont des personnes différentes. Pour la simulation de l’univers, on est encore très loin du but. Les simulations cosmologiques utilisent quelques points par galaxie, alors qu’il y a des centaines de milliards d’étoiles dans chaque galaxie. Des « recettes » avec des paramètres réalistes sont inventées pour suppléer ce manque de physique à petite-échelle, sous la grille de résolution. Si on change quelques paramètres libres, cela change toute la simulation. Pour aller plus loin, il nous faut aussi faire des progrès dans la physique des galaxies. Même dans 50 ans, nous n’aurons pas encore la résolution optimale.

    B : Comment évalue-t-on la qualité d’une simulation ?
    FC : Il y a plusieurs équipes qui ont des méthodes complètement différentes (Eulérienne ou « Adaptive Mesh Refinement » sur grille, ou Lagrangienne, code en arbre avec particules par exemple), et on compare leurs méthodes. On part des mêmes conditions initiales, on utilise à peu près les mêmes recettes de la physique, on utilise plusieurs méthodes. On les compare entre elles ainsi qu’avec les observations.

    Crab_xrayImage en rayons X du pulsar du Crabe, obtenue
    avec le satellite CHANDRA, credit NASA

    B : Y a-t-il autre chose que tu souhaiterais dire sur l’informatique en astronomie ?
    FC : J’aimerais illustrer l’utilisation du machine learning pour les pulsars. Un pulsar, c’est une étoile à neutron en rotation, la fin de vie d’une étoile massive. Par exemple, le pulsar du crabe est le résidu d’une supernova qui a explosé en l’an 1000. On a déjà détecté environ 2000 pulsars dans la Voie lactée, mais SKA pourra en détecter 20000 ! Il faut un ordinateur pour détecter un tel objet, car il émet des pulses, avec une période de 1 milliseconde à 1 seconde. Un seul pulse est trop faible pour être détecté, il faut sommer de nombreux pulses, en les synchronisant. Pour trouver sa période, il faut traiter le signal sur des millions de points, et analyser la transformée de Fourier temporelle. L’utilité de ces horloges très précises que sont les pulsars pour notre compréhension de l’univers est énorme. En effet, personne n’a encore détecté d’onde gravitationnelle, mais on sait qu’elles existent. L’espace va vibrer et on le verra dans le 15e chiffre significatif de la période des pulsars. Pour cela on a besoin de détecter un grand nombre de pulsars qui puissent échantillonner toutes les directions de l’univers. On a 2 millions de sources (des étoiles) qui sont candidates. C’est un autre exemple où il nous faut des algorithmes efficaces, des algorithmes de machine learning.

    sextet-seyfert-hstLe groupe compact de galaxies, appelé le Sextet
    de Seyfert, image du Hubble Space Telescope (HST), Credit NASA-ESA

    Hier et demain

    B : L’astronomie a-t-elle beaucoup changé pendant ta carrière ?
    FC : Énormément. Au début, nous utilisions déjà l’informatique mais c’était l’époque des cartes perforées.

    B : L’informatique tenait déjà une place ?
    FC : Ah oui. Quand j’ai commencé ma thèse en 1976 il y avait déjà des programmes pour réduire les données. Après les lectrices de cartes perforées, il y a eu les PC. Au début il n’y avait même pas de traitement de texte ! Dans les années qui suivirent, cela n’a plus trop changé du point de vue du contact avec les écrans, mais côté puissance de calcul, les progrès ont été énormes. L’astrophysique a énormément évolué en parallèle. Par exemple pour l’astrométrie et la précision des positions : il y a 20ans, le satellite Hipparcos donnait la position des étoiles à la milliseconde d’arc mais seulement dans la banlieue du soleil. Maintenant, avec le satellite GAIA lancé en 2013, on va avoir toute la Voie lactée. Qualitativement aussi, les progrès sont venus de la découverte des variations des astres dans le temps. Avant tout était fixé, statique, maintenant tout bouge. On remonte le temps aujourd’hui jusqu’à l’horizon de l’univers, lorsque celui-ci n’avait que 3% de son âge. Toutefois, près du Big bang on ne voit encore que les objets les plus brillants. Reste à voir tous les petits. Il y a énormément de progrès à faire.

    B : Peut-on attendre des avancées majeures dans un futur proche ?
    FC : C’est difficile à prévoir. Étant donné le peu que l’on sait sur la matière noire et l’énergie noire, est-ce que ces composants noirs ont la même origine ? On pourrait le savoir par l’observation ou par la simulation. La croissance des galaxies va être différente si la gravité est vraiment modifiée. C’est un grand défi. Un autre défi concerne les planètes extrasolaires. Actuellement il y en a environ 1000 détectées indirectement. On espère « imager » ces planètes. Beaucoup sont dans des zones théoriquement habitables – où l’eau est liquide, ni trop près ni trop loin de l’étoile. On peut concevoir des algorithmes d’optique (sur les longueurs d’onde) pour trouver une planète très près de l’étoile. Des instruments vont être construits, et les astronomes préparent les pipelines de traitement de données.

    Le public

    B : Il y a beaucoup de femmes en astrophysique?
    FC : 30% en France mais ce pourcentage décroît malheureusement. Après la thèse, il faut maintenant faire 3 à 6 années de post doctorat en divers instituts à l’étranger avant d’avoir un poste, et cette mobilité forcée freine encore plus les femmes.

    B : Tu as écrit récemment un livre sur la Voie lactée?
    FC : Oui, c’est pour les étudiants et astronomes amateurs. Il y a énormément d’astronomes amateurs – 60000 inscrits dans des clubs d’astronomie en France. Quand je fais des conférences grand public, je suis toujours très étonnée de voir combien les auditeurs connaissent l’astrophysique. C’est de la semi-vulgarisation. Ils ont déjà beaucoup lu par exemple sur Wikipédia.

    B : Peuvent-ils participer à la recherche, peut-être par des actions de type « crowd sourcing »?
    FC : Tout à fait. Il y a par exemple le « Galaxy zoo ». Les astronomes ont mis à disposition du public des images de galaxies. La personne qui se connecte doit, avec l’aide d’un système expert, observer une image, reconnaître si c’est une galaxie, et définir sa forme. Quand quelqu’un trouve quelque chose d’intéressant, un chercheur se penche dessus. Cela peut même conduire à un article dans une revue scientifique. L’interaction avec le public m’intéresse beaucoup. C’est le public qui finance notre travail ; le public est cultivé, et le public doit être tenu au courant de toutes les merveilles que nous découvrons.

     stephanLe groupe compact de galaxies, appelé le Quintet
    de Stepĥan, image du Hubble Space Telescope (HST), Credit NASA-ESA

  • Votre vie numérique dans un Pims

    Une personne « normale » aujourd’hui a généralement des données sur plusieurs machines et dans un grand nombre de systèmes qui fonctionnent comme des pièges à données où il est facile de rentrer de l’information et difficile de la retirer ou souvent même simplement d’y accéder. Il est également difficile, voire impossible, de faire respecter la confidentialité des données. La plupart des pays ont des règlementations pour les données personnelles, mais celles-ci ne sont pas faciles à appliquer, en particulier parce que les serveurs de données sont souvent situés dans des pays avec des lois différentes ou sans véritable réglementation.

    Nous pourrions considérer qu’il s’agit du prix inévitable à payer pour tirer pleinement avantage de la quantité toujours croissante d’information disponible. Cependant, nous n’arrivons même pas à tirer parti de toutes les informations existantes car elles résident dans des silos isolés. La situation ne fait que s’aggraver du fait de l’accroissement  du nombre de services qui contiennent nos données. Nous sommes arrivés à un stade où la plupart d’entre nous avons perdu le contrôle de nos données personnelles.

    Pouvons-nous continuer à vivre dans un monde où les données sont de plus en plus importantes, vitales, mais aussi de plus en plus difficiles à comprendre, de plus en plus complexes à gérer ? De toute évidence, non ! Alors, quelles sont les solutions pour parvenir à un monde de l’information qui puisse durablement satisfaire ses utilisateurs ?

    Une première solution serait que les utilisateurs choisissent de déléguer toutes leurs informations à une entreprise unique. (Certaines entreprises rêvent clairement d’offrir tout le spectre des services de gestion d’information.) Cela faciliterait la vie des utilisateurs, mais les rendrait aussi totalement dépendants de cette société et donc limiterait considérablement leur liberté. Nous supposerons (même si c’est discutable) que la plupart des utilisateurs préfèrerait éviter une telle solution.

    Une autre possibilité serait de demander aux utilisateurs de passer quelques années de leur vie à étudier pour devenir des génies de l’informatique. Certains d’entre eux ont peut-être le talent pour cela ; certains seraient peut-être même disposés à le faire ; mais nous allons supposer que la plus grande partie des personnes préfèreraient éviter ce genre de solution si c’est possible.

    Y a-t-il une autre option ? Nous croyons qu’il en existe une, le système de gestion des informations personnelles, que nous appellerons ici pour faire court Pims pour « Personal information management system ».

    Pour aller plus loin : Article complet

    Serge Abiteboul Benjamin André Daniel Kaplan
    INRIA & ENS Cachan Cozy Cloud Fing & MesInfos

     

  • L’informatique à l’école : un pas bien timide, mais un pas quand même

    Depuis quelques mois les appels à un enseignement de l’informatique dans les écoles et lycées se multipliaient, traduisant l’impatience tant de parents que de personnalités politiques, de scientifiques et de représentants du monde numérique. En annonçant dans le Journal du dimanche du 13 juillet 2014 qu’il favoriserait « en primaire une initiation au code informatique, de manière facultative et sur le temps périscolaire », Benoît Hamon a fait un pas – certes timide mais difficile car le sujet n’est toujours pas consensuel.

    A défaut d’être la réponse attendue, c’est un signal d’encouragement aux très nombreux enseignants qui innovent jour après jour, luttent contre le décrochage scolaire, en s’appuyant sur les pratiques numériques de leurs élèves pour motiver et former aux approches critiques, mais butent vite sur le manque de compétences informatiques, le leur et celui de leurs élèves. C’est aussi un signal d’encouragement aux très nombreuses associations et aux rares collectivités territoriales qui ont pris à leur charge la formation à l’informatique que l’école différait. Les uns et les autres ont compris que la culture numérique implique une initiation précoce à l’informatique et ne saurait se suffire des « usages ». Les uns et les autres savent que la transition numérique de notre société appelle ces savoirs et savoir-faire, pour de futurs citoyens créatifs, solidaires et lucides.

    La programmation encourage naturellement l’apprentissage par l’essai-erreur, le travail collaboratif. Elle place les élèves dans des attitudes actives, créatives, de partage et de contribution. Un projet mené à bien est un plaisir, une fierté. Cela explique ses succès auprès d’élèves décrocheurs. L’entrée du « code » à l’école doit être l’occasion de participer à la transformation de l’enseignement.
    Si la volonté d’opérer en douceur semble être de mise avec une amorce par le périscolaire, le choix du primaire comme point de départ peut aussi s’envisager comme l’opportunité d’un changement de fond, une occasion de convergence entre les professeurs des écoles et les acteurs de l’éducation populaire, de la médiation scientifique et numérique, de l’entrepreneuriat social, pour une école ouverte, reliée aux territoires. Reste à savoir l’exploiter. Cet appel au riche tissu de ressources territoriales implique une gestion de projet, qui va mobiliser les directeurs d’école. Il faudra travailler en réseau entre écoles et associations, proposer aux animateurs et éducateurs qui le souhaitent une certification ou une validation d’acquis, l’enjeu pour les élèves étant la base d’une véritable littératie numérique qui aidera les autres savoirs fondamentaux à se révéler.

    Le recours au périscolaire ne pourrait évidemment seul suffire. Un enseignement périscolaire se doit d’être créatif, expérimental, ludique, émancipateur, non-institutionnel. Il peut enrichir l’enseignement scolaire, participer à faire évoluer contenus et méthodes, à cultiver des compétences transversales. Il ne peut se substituer à l’école. Une approche basée purement sur le périscolaire ne touchera pas tous les enfants, engendrera des inégalités entre territoires ruraux et agglomérations, entre écoles « branchées » et les autres (même si de telles inégalités pourraient être atténuées par des politiques volontaristes couteuses). Enfin et surtout sans une l’implication active des professeurs des écoles eux-mêmes, l’apprentissage de l’informatique par les enfants restera isolé des autres enseignements et ne pourra pleinement réussir.

    C’est là qu’une autre mesure annoncée par Benoît Hamon prend toute son importance, et traduit une vision qui dépasse heureusement la délégation aux associations : l’entrée de son enseignement dans les ESPE (les Ecoles Supérieures du Professorat et de l’Education), dont la loi de refondation de l’école a fait le cœur de la transformation numérique de l’enseignement. Il faut avancer rapidement et résolument dans ce sens et accompagner cette mesure par un développement de la formation continue dans ce domaine pour toucher la plus grande partie des professeurs des écoles. La formation de l’ordre de 350 000 professeurs des écoles est un défi considérable, que la profession va devoir organiser. On voit bien qu’il ne s’agit pas seulement de former tous les professeurs « au code », mais de les engager dans la transformation de leurs disciplines et de leur pédagogie, reconfigurées par la « société numérique » et désormais imprégnées par les sciences et techniques informatiques.

    Il faut aussi répondre aux inquiétudes légitimes : il ne s’agit pas de former de la main-d’œuvre pour l’industrie du logiciel ; il ne s’agit pas d’appendre à coder pour coder ; il ne s’agit pas d’apprendre une nouvelle discipline abstraite ; il ne s’agit pas non plus d’une démission de l’école, d’une brèche dans laquelle s’engouffreraient les nouveaux acteurs industriels de l’éducation numérique pour se substituer à l’école.

    Il reste que la tâche est complexe. Il faudra les efforts de tous et une mobilisation très large pour que ce projet réussisse.

    Au-delà de l’école primaire, la déclaration de Benoît Hamon touche le collège et le lycée. Il choisit de s’appuyer d’abord sur les professeurs de mathématiques et de technologie. C’est à court terme une solution. Le vivier de tels professeurs volontaires pour enseigner l’informatique existe mais on atteint vite ses limites, quand cela ne participe pas à accentuer comme en mathématiques une pénurie endémique de tels enseignants. Il est urgent d’ouvrir les portes de l’éducation nationale à des enseignants dont l’informatique est la compétence principale. Le vivier naturel se trouve dans les licences et master d’informatique, et aussi dans les entreprises pour des ingénieurs qui souhaiteraient une reconversion. Sur ce sujet, nous attendons une véritable vision qui fasse bouger les lignes.

    Benoît Hamon présente un projet qu’il faut concrétiser et enrichir. Tout ne peut se résumer à une brève initiation au « code informatique ». Il ne suffit pas de savoir écrire des programmes dans un langage informatique quelconque pour, par exemple, comprendre comment fonctionne le moteur de recherche de Google, l’encryption dans un système de vote électronique, ou une base de données « dans les nuages ». Au-delà des seuls aspects scientifiques et techniques, l’enseignement de l’informatique représente le chemin de l’acquisition d’une véritable culture numérique par tous. La formation de ses enseignants en informatique et en culture numérique est la clé de la réussite.  C’est bien là une des ambitions que l’éducation nationale doit porter dans les années à venir.

    Serge Abiteboul et Sophie Pène, membres du Conseil national du numérique

    Sur le site du CNNum

  • L’être humain au coeur de la recherche en IHM

    Wendy Mackay est Directrice de Recherche à Inria Saclay, responsable de l’équipe InSitu. Elle est en sabbatique à l’Université de Stanford. Pionnière de l’IHM, elle est une des spécialistes les plus connues dans le domaine de l’interface humain machine. Elle nous fait partager sa passion pour ces aspects si essentiels de l’informatique, qui sont souvent au cœur des réussites comme des échecs des nouveaux logiciels et des nouveaux objets numériques.

    Entretien réalisé par Claire Mathieu et Serge Abiteboul.

    CHI 2013© Inria / Photo G. Maisonneuve

    B : Bonjour Wendy. Pour commencer, une de tes grandes caractéristiques, c’est quand même d’être Américaine… Une Américaine qui fait de la recherche en France, c’est…
    WM : C’est assez rare.

    B : En effet. Est-ce que tu pourrais nous dire rapidement pourquoi tu as choisi la France pour faire ta recherche ?
    WM : La réponse courte, c’est que je suis mariée avec un Français et il fallait choisir entre la France et les États-Unis. Si on veut fonder une famille avec deux chercheurs qui travaillent tout le temps, c’est beaucoup mieux en France qu’aux États-Unis. Nous avions des offres à Xerox PARC, à San Diego, à Toronto, mais finalement les raisons personnelles l’ont emportées. La réponse qui serait plus longue à détailler, c’est que j’avais envie de voyager. Je suis née au Canada, j’ai grandi aux États-Unis, j’ai fait mes études et j’ai travaillé sur la côte Est et sur la côte Ouest… Ce qui est intéressant c’est que l’IHM était déjà un domaine de recherche bien connu aux États-Unis mais pas en France pourtant c’est un domaine important, qui est derrière les succès d’Apple, de Google, et de beaucoup d’autres choses. Quand je suis arrivée en France, ce qui m’a frappée c’est qu’il n’y avait que les mathématiques qui étaient importantes en informatique et les aspects utilisation par les humains étaient délaissés. J’ai eu la chance de pouvoir créer quelque chose de nouveau ici et saisi l’opportunité de créer mon équipe de recherche au sein d’Inria Futurs (structure de recherche qui incubait les futurs centres de Bordeaux, Lille et Saclay).

    B : Ainsi est née InSitu, première équipe de recherche d’Inria à Saclay ?
    WM : À l’époque on pouvait embaucher des gens, avoir de l’espace. On a commencé avec quatre permanents et un thésard. Maintenant on a huit permanents et trois membres de l’équipe ont créé leur propre équipe. L’interaction est devenue l’un des thèmes stratégiques d’Inria. Même si c’est plus large que notre définition de l’IHM, cela inclut tout ce qui concerne l’être humain, comme par exemple l’interaction avec les robots.

    B : Qu’est ce que l’interaction homme-machine?
    WM : L’interaction homme-machine, c’est un domaine vraiment pluridisciplinaire, avec trois grands axes. Il y a la partie informatique : comment concevoir le système. Un système interactif, ça ne marche pas tout seul, il faut un va-et-vient avec l’être humain, cela pose des problèmes informatiques. Le deuxième axe, c’est la psychologie, la sociologie et tous les aspects humains. L’attention, la perception, la mémoire, la motricité, tout cela : quelles sont les capacités et les limites de l’être humain. Et le troisième axe, c’est le design : comment concevoir le système interactif. Ce n’est pas seulement l’aspect esthétique, mais la conception de…

    B : L’ergonomie ?
    WM : Pour moi l’ergonomie cela concerne plutôt l’évaluation du système que la conception. C’est l’un des outils que l’on utilise lorsque l’on crée un système interactif, mais ce n’est pas vraiment le design. Par exemple, une idée répandue est qu’il faut faire des choses simples à utiliser. Mais pour nous ce n’est pas simple de faire des choses simples, et il y a toujours un compromis, un trade-off, entre la simplicité et la puissance. L’une des règles est qu’il faut pouvoir faire les choses simples simplement, mais il faut aussi avoir la possibilité de faire des choses complexes. Alors on ne veut pas compliquer ce qui est simple mais on veut aussi donner la possibilité de faire des choses plus avancées.

    B : D’apprendre aussi ?
    WM : Oui. L’apprentissage c’est l’adaptation du côté de l’être humain et c’est très intéressant. En fait c’est une grande partie de ma recherche actuelle. Je travaille sur un concept qu’on appelle co-adaptive instruments. Je veux réinventer les interfaces actuelles, les GUI ou graphical user interfaces. Ce sont tous les dossiers, les fichiers, les fenêtres que l’on trouve sur tous les ordinateurs. Ces interfaces graphiques ont été conçues à Xerox PARC il y a 35 ans. C’était destiné aux secrétaires de direction et c’est la raison pour laquelle on parle de couper / coller, de fichiers et de dossiers, etc. : parce que c’est leur univers. Ça a été une grande réussite, mais c’était conçu à l’époque où les machines étaient très chères et le coût du travail d’un salarié beaucoup moins élevé qu’actuellement. La plupart des ordinateurs étaient faits pour des experts. L’interface créée par Xerox était la première destinée à des non-experts, mais il s’agissait quand même d’utilisateurs dont le but était de travailler sur ordinateur. Depuis cette époque, on utilise cette métaphore du bureau pour tout, mais on se rend compte qu’elle ne marche plus vraiment car cela crée plein de limites pour de nouvelles fonctions. Sur le web aussi : on a gagné la possibilité de distribuer les documents très largement mais on a perdu beaucoup du côté de l’interaction. Finalement,  ce que l’on peut faire sur un site web est assez limité : cliquer des liens et remplir des formulaires, la plupart du temps. Et puis maintenant il y a les applications sur smartphones et tablettes. C’est encore une autre façon de concevoir l’interaction. Ces appareils sont incroyables, mais ils poussent à une interaction simple, et parfois simpliste. Il y a des barrières entre les applications et on ne peut pas partager des choses si facilement que ça. On voit qu’il y a eu une évolution dans trois directions pour des raisons historiques et techniques sur les interfaces graphiques, le web et les applications,  mais on n’a pas vraiment pensé à la perspective de l’utilisateur. Si on change de perspective et qu’on pense aux capacités de l’être humain plutôt qu’à celles de la technologie, on doit se demander : qu’est-ce que l’utilisateur veut faire et peut-on lui offrir ce dont il a besoin ?

    workspacePaper Tonnetz; © Inria / Photo H. Raguet

    B : On touche là les questions qui touchent ton sujet de recherche en particulier ?
    WM : En effet. Je vais prendre l’exemple du clavier. En France vous avez des claviers AZERTY. Moi j’utilise un clavier QWERTY, et mes doigts savent taper vite sur ce clavier. Aux États-Unis, on apprend à taper au clavier dès le lycée, et c’est très utile ! Mais quand je suis sur un clavier AZERTY, je suis plus lente que quelqu’un qui tape avec deux doigts parce que j’ai appris sur un clavier un différent. C’est un peu la même chose quand on demande aux gens, à chaque fois qu’ils changent d’application ou de machine, de réapprendre comment effectuer les mêmes fonctions. On est toujours en train d’imposer aux utilisateurs de changer entre QWERTY et AZERTY. Ça bouscule les habitudes et on y perd en efficacité. La vision que je défends dans ma recherche, c’est que les méthodes d’interaction doivent accompagner l’utilisateur et ne pas lui être imposées par le système.

    B : Pour faire une analogie, en gestion de connaissances, on retrouve un peu la même problématique. Pour utiliser un système d’information, il vous faut apprendre la terminologie de ce système, son ontologie, alors que vous devriez pouvoir l’interroger ou interagir avec en utilisant votre propre langage, votre propre ontologie. Ça correspond à ce que tu expliques ?
    WM : Oui, c’est la même chose. Comme êtres humains, nous sommes très forts pour apprendre des choses, mais pas très forts pour ré-apprendre des choses un peu différentes. C’est un peu comme si pour un pianiste, on changeait l’ordre des touches ou l’ordre des lignes sur la portée de temps en temps, aléatoirement. « Allez, jouez ! » Au comprend bien qu’au niveau moteur, de ce qu’on appelle la « mémoire des muscles », c’est un problème. Mais l’exemple que tu as donné était sur la terminologie, et c’est le même problème. Par exemple on a travaillé récemment sur la sélection de couleurs. Pourquoi est-ce différent dans Word, Excel, InDesign, PowerPoint ? Même dans Word, c’est différent si je change la couleur de texte ou la couleur de fond ! Ce que je veux, c’est choisir la façon dont je veux choisir une couleur et l’utiliser dans n’importe quelle application. En plus de faciliter l’apprentissage, ce qui est intéressant c’est que ça permet à différents utilisateurs d’utiliser différents sélecteurs. Et ça permet aussi à un même utilisateur de choisir un sélecteur différent selon la situation.

    B : C’est-à-dire que tout le monde n’a pas forcément envie d’utiliser le même crayon.
    WM : Exactement. Si je prends une artiste graphique, on imagine qu’elle a vraiment besoin de pouvoir choisir ses couleurs de manière précise et de créer des palettes de couleurs. Elle a pris le temps d’apprendre à utiliser des outils complexes et puissants. Mais un fois rentrée chez elle, cette même artiste a envie de dessiner avec sa fille de 4 ans, et là elle a juste besoin de choisir entre 4 couleurs. C’est la même personne, mais dans des contextes différents, avec des buts différents et des personnes différentes. Il faut donc bien comprendre comment les gens utilisent l’ordinateur, quels sont leurs besoins dans ces différentes situations. Il faut aussi que quand on passe d’un ordinateur à un autre, d’un laptop à un smartphone, il y ait une continuité. Bien sûr, il y a des différences : un clavier physique est différent d’un clavier tactile. Mais c’est l’utilisateur qui doit pouvoir décider comment interagir selon son contexte d’usage.
    Alors nous avons créé le concept d’instrument d’interaction et de substrate, de support d’information. Nous voulons que les instruments d’interaction soient des objets de première classe, qui appartiennent aux utilisateurs et qu’ils puissent les conserver et les utiliser dans n’importe quelle application. Les substrates permettent de filtrer l’information, de créer un contexte pour présenter les données, et que les mêmes données puissent être présentées dans différents substrates, par exemple du texte, un tableau ou un graphe. Le résultat est que cela change le business model pour le logiciel. Si on est Microsoft, on ne vend plus des grosses applications monolithiques avec des barrières étanches, mais une collection d’instruments et de substrates que les gens peuvent choisir et assembler à leur façon.

    B : Est-ce que ça ne demande pas de définir quelque chose qui serait des API  d’interaction, qu’on pourrait ensuite intégrer dans différents outils ?
    WM : Oui, en effet, on travaille sur ces API d’interaction. Mais c’est encore assez récent et cela soulève plein de questions intéressantes : comment le système peut-il aider à apprendre à utiliser un nouvel instrument ? Comment adapter un instrument à ses besoins ? En fait on imagine quelque chose qu’on pourrait appeler une physique de l’information. Par exemple, si j’ai le concept de couleur, je peux avoir des outils pour tester les couleurs, les changer, les archiver – c’est assez universel. Je peux les utiliser même si l’application ne l’a pas prévu. Et puis les gens vont s’en servir aussi de manière non prévue. Si je prends l’exemple d’un outil physique, par exemple un tournevis, c’est fait pour enfoncer des vis, mais je peux aussi m’en servir pour ouvrir une boite de conserve, pour attacher mes cheveux, pour caler la porte, pour…

    B : Assassiner quelqu’un avec un tournevis ?
    WM : Je n’espère pas ! Mais l’idée c’est que les gens adaptent les objets physiques tout le temps. Tout le temps. C’est ce qu’on fait en tant qu’êtres humains. Et bizarrement on a créé des systèmes informatiques qu’on ne peut pas facilement adapter à nos usages. Et c’est pour cela que je m’intéresse aux usages de l’ordinateur pour la créativité. Car les créatifs n’ont pas peur de tester les limites des outils pour voir ce que ça donne, de faire des combinaisons qui n’étaient pas prévues par les concepteurs, etc.

    B : Est-il possible de faire cela sans écrire de code ? Est-ce que spécifier comment on va utiliser une séquence d’outils l’un après l’autre et dire que si tel outil ne marche pas, allez alors utiliser tel autre, etc. C’est déjà un peu écrire du code ?
    WM : Oui. Et on peut le faire de manière assez visuelle, ou en disant : « Regarde-moi : j’ai fait ça et ça. ». Mais on retombe sur cette question de puissance et de simplicité. Comment faire un système où ce que je fais en temps normal reste simple, mais où j’ai aussi la possibilité de faire des choses plus complexes, ou de travailler avec quelqu’un de plus expert qui ne fait pas les choses pour moi mais me permet d’acquérir de l’expertise ? C’est un peu la vision de mon projet. C’est ambitieux et si j’étais immodeste je dirais que ça peut changer le monde… Le point important, c’est qu’on veut montrer comment repenser l’interaction. Par exemple, pour gérer les grandes quantités de données, il y a les langages de requête, les ontologies, etc. Mais c’est plutôt destiné aux experts. On peut aussi utiliser une approche visuelle, comme mon collègue Jean-Daniel Fekete qui travaille sur la visualisation interactive d’information. En fait on peut imaginer plein de façons d’interagir avec une base de données, mais on n’a pas de bonne conception des outils nécessaires pour interagir de façon cohérente pour un utilisateur qui n’est pas expert. Et je pense que si l’on considère l’interaction comme un objet de première classe, on peut répondre à ces questions et faire en sorte que des êtres humains normaux – pas des informaticiens ! – peuvent gérer des informations complexes.

    wendymackay-binaire-rayclid

    B : Peux-tu nous dire quelles ont été les grandes transformations ou les grandes avancées de ton domaine ?
    WM : Depuis 20 ans, l’interaction est sortie de l’écran et du clavier. J’ai participé au lancement de la réalité augmentée, qui à l’époque était vue comme l’inverse de la réalité virtuelle. Cela a aussi abouti aux interfaces tangibles, où on utilise des objets physiques pour interagir. Le papier interactif, sur lequel je travaille beaucoup, est une combinaison des deux. Plus récemment, il y a un grand intérêt pour l’interaction gestuelle avec les tablettes, les Kinect, etc., et puis le crowdsourcing, qui essaient d’utiliser l’intelligence humaine quand l’ordinateur ne sait pas faire. J’oublie plein de choses, bien sûr.

    On peut aussi parler de l’impact industriel. Par exemple, j’ai passé deux ans à Stanford, au HCI Lab, dirigé par Terry Winograd. Larry Page était son thésard. Il n’a jamais terminé sa thèse, mais il a créé Google. Pas mal ! En 2009, je me souviens avoir parlé avec Mike Krieger, toujours à Stanford, de mes recherches sur la communication à distance entre personnes proches et de notre notion de communication ambiante, et aussi de vidéo, etc. J’ai essayé de le prendre comme thésard mais il n’a pas voulu car il travaillait sur un petit projet. C’est devenu SnapChat… Il y a beaucoup d’exemples comme ça aux États-Unis.

    En France, ce n’est pas pareil. C’est dur de convaincre les industriels. On leur dit : « voilà une bonne interface » et ils répondent « oui, mais il y en a une qui marche déjà bien ». C’est l’avantage d’avoir habité dans plusieurs pays : on voit l’influence de la culture. En informatique, la culture américaine est très présente. Je commence à le voir après 20 ans passés en dehors des États-Unis, mais je reste américaine !

    B : : Il semble y avoir un changement de comportement par rapport aux modes traditionnels d’accès à l’information. On constate par exemple que les jeunes semblent avoir du mal avec l’écrit ?
    WM : En effet. Ce que je vois c’est que tout le monde pense que l’accès à l’information passe forcément par les interfaces graphiques actuelles. Moi j’ai « grandi » avec une Lisp Machine d’un côté, une station Sun sous Unix de l’autre. Avec Hal Abelson et Andy diSessa au MIT on a travaillé sur un système qui s’appelait Boxer, une sorte de Lisp visuel. Il y avait aussi Lego Logo, plein d’autres systèmes avec des hypothèses différentes. Aujourd’hui les gens ne connaissent que Windows, les applications, et le web, et c’est extrêmement limité. Et même les étudiants de nos Masters ont vraiment du mal à penser plus largement que ça et c’est un dommage. Et pour les plus jeunes, c’est vrai qu’ils ont du mal à écrire, peut-être parce qu’ils tapent tout le temps des SMS ?

    B : Avec les interfaces graphiques, les gens apprennent-ils autre chose que l’écriture dite classique ?
    WM : Je me souviens du moment où je suis passé de la recopie de texte écrit à la main à la rédaction directement sur l’ordinateur. Il y a des écrivains qui n’ont jamais fait ce pas et, de nos jours, des jeunes n’ont jamais fait la première partie : rédiger sur papier. C’est très différent, comme interaction. L’écriture, c’est très physique. Mais de pouvoir taper au clavier, c’est un bon changement en fait. Le champ des possibles su le papier est aussi varié : on peut aussi dessiner, faire des schémas, écrire de la musique. En fait, je travaille sur le papier interactif depuis 20 ans maintenant. Il y a des technologies comme Anoto, qui permettent de capturer ce que l’on écrit sur papier, et puis il y a des écrans qui ressemblent à du papier, comme celui du Kindle. Le papier électronique, c’est un peu cela le rêve : combiner ces deux technologies pour faire du papier interactif. C’est une question de temps. Mais ce qui m’intéresse, c’est que lorsque j’étudie des gens qui doivent utiliser l’ordinateur, comme les biologistes qui ont besoin de bases de données de gènes, d’algorithmes de séquençage, etc. Ils utilisent toujours le papier pour prendre des notes.

    B : Même les jeunes ?
    WM : Oui, même les jeunes. On essaye de comprendre les raisons de cela. En ce moment on travaille avec des musiciens et des compositeurs à l’IRCAM. On les appelle des « utilisateurs extrêmes » car ils poussent les limites de la technologie. Ils utilisent beaucoup l’ordinateur, mais ils travaillent aussi sur papier. Ils ont besoin des deux. Ce qui est très intéressant, c’est de comprendre quels sont les aspects du papier qui sont importants pour eux. Et la réponse est : pour pouvoir exprimer leurs idées plus facilement. Quand je suis sur l’ordinateur, je suis dans une application et je ne peux faire que ce qui a été prévu par ses concepteurs. Avec le papier, j’ai une grande souplesse d’expression. Je peux faire des schémas, tracer des courbes, écrire du texte. Les compositeurs veulent exprimer une idée musicale sous forme de dessin. Ils ne savent pas forcément encore ce que c’est. Alors comment créer une application sur un ordinateur pour aider quelqu’un à exprimer quelque chose qui est dans sa tête et n’est pas encore parfaitement défini ? C’est ça, en partie, la créativité dont je parlais tout à l’heure. En plus, chaque compositeur veut être unique : si je conçois une application qui répond exactement au besoin d’un compositeur, un autre ne voudra pas l’utiliser. Il faut donc réaliser un système que les utilisateurs peuvent personnaliser dès le début, mais avec lequel ils peuvent aussi immédiatement exprimer leurs idées. C’est un vrai défi. Et nous avons réalisé une série d’outils pour relever ce défi, et certains sont utilisés par des compositeurs pour des pièces qui vont être jouées en public. Et là aussi on utilise notre notion de substrate. Je vous fais une explication sur le tableau.

    substrates

    Si je fais une série de points (Wendy met des points apparemment au hasard sur le tableau…) et que je dis à l’ordinateur : « interprète cela », ça peut être plein de choses. Mais si j’ajoute ça (Wendy dessine cinq lignes), maintenant tout le monde comprend : c’est une portée. Mais qu’est-ce qui se passe si je fais ça (Wendy dessine deux axes perpendiculaires) ? C’est un graphe, du papier millimétré. L’idée, c’est qu’on peut créer différents contextes pour les données. Les points sont les données et la portée ou les axes, c’est ce qu’on appelle le substrate. C’est un moyen d’organiser les données, mais aussi de les interpréter, de définir ce que l’on peut faire avec. Cela touche aussi à ce que certains chercheurs font en base de données : comment organiser les données.

    PaperTonnetz workspace© Wendy Mackay

    B : Si l’on se penche sur le nom de ton équipe : Insitu. Dans le domaine artistique, in situ, c’est l’art qui est dans son contexte, l’art qui est dans sa position. Comme le street art. C’est lié à ça, le choix du mot in situ ?
    WM : Un peu. InSitu, c’est aussi l’abréviation de « interaction située ». C’est l’idée que les êtres humains utilisent toujours l’ordinateur dans un certain contexte et qu’il ne faut pas considérer l’interaction de façon abstraite, mais par rapport à ce contexte. Bien sûr, on utilise des abstractions pour concevoir le système, mais il ne faut pas oublier le contexte. Il y a un autre aspect, c’est que je travaille toujours avec de vrais utilisateurs et de vraies situations. J’ai observé les contrôleurs du trafic aérien, les biologistes de l’Institut Pasteur, les compositeurs de l’IRCAM pendant des dizaines d’heures. Nous travaillons avec eux, on fait des ateliers, on conçoit des prototypes  qu’ils peuvent utiliser pour jouer leur musique, analyser leurs données biologiques, utiliser le même simulateur de trafic aérien sur lequel ils s’entraînent. C’est très important de voir comment les prototypes marchent dans ces situations réelles.

    B : Est-ce que ça veut dire que la valeur de votre travail dépend du moment de l’histoire où on est ? Ou est-ce que vous avez des théorèmes ou des axiomes, des principes intemporels ?
    WM : Avec ma formation en psychologie expérimentale, ce qui m’intéresse c’est que l’on travaille avec des êtres humains. Si je regarde l’évolution de l’être humain au niveau cognitif depuis, disons, l’invention de l’ordinateur, j’ai une courbe plate. Peut-être que ça bouge un peu, on parlait des jeunes tout à l’heure, mais c’est à peu près plat. Mais pour les ordinateurs, avec la loi de Moore, on a une courbe comme exponentielle. C’est la capacité de stockage, la capacité de calcul, les réseaux.

    PastedGraphic-3

    B : Donc là, tu as marqué sur ton dessin que les machines sont devenues plus « quelque chose » que les êtres humains aux alentours de 1980… Plus intelligentes ?
    WM : (rire) Non, ce n’est pas ça… Il y a des gens comme Ray Kurzweil qui croient à ce point de convergence, la « grande singularité » où les machines vont dépasser l’homme. Moi je n’y crois pas parce que les êtres humains ne fonctionnent pas de la même façon que les ordinateurs. Mais il y a cette idée que la capacité de l’ordinateur augmente et que la complexité de ce que l’on traite avec l’ordinateur augmente de façon spectaculaire, alors que nos capacités à gérer toute cette information n’ont pas augmenté. C’est la raison de l’information overload.

    B : La surcharge d’information ?
    WM : C’est ça. Nos capacités sont de plus en plus limitées par rapport à la quantité d’informations et la complexité du système qu’on utilise. Alors il faut que les systèmes prennent bien en compte ces limitations. Il y a des normes, des capacités de l’être humain qu’on connaît et qu’on utilise dans la conception de nos systèmes. Par exemple il y a la Loi de Fitts, qui peut prédire précisément le temps qu’il faut pour déplacer le curseur vers une cible, comme un bouton, en connaissant la distance et la taille de la cible. Il y a aussi des connaissances qui viennent des sciences sociales, de la psychologie, même de la biologie. On peut utiliser cette connaissance de ce qui ne change pas beaucoup pour gérer cette augmentation de complexité du côté de l’ordinateur.

    B : Wendy, un dernier point que tu aurais aimé souligner, que nous n’aurions pas abordé ?
    WM : Je suis née au Canada, j’ai grandi aux États-Unis, et j’ai passé une grande partie de ma carrière en Angleterre et en Europe. Ce sont les quatre endroits où il se passe beaucoup de choses dans notre domaine. J’ai l’impression que pour beaucoup d’informaticiens, la culture n’a pas beaucoup d’influence sur leur domaine. Mais en interaction homme-machine, c’est important. Du côté européen, c’est plus théorique, du côté nord-américain, c’est plus pratique. L’IHM est très présente maintenant dans les meilleures universités aux États-Unis, au Canada et en Angleterre. C’est moins le cas dans le reste de l’Europe. Par exemple, Stanford a sa d.School et Carnegie Mellon University a le HCI Institute, le plus grand centre d’IHM au monde. Il y a aussi le MIT, l’Université de Toronto, Berkeley, etc. Et ils sont toujours à côté d’une école de design, ce qui est intéressant. Côté design, en Europe, le Royal College of Art à Londres a été le premier à enseigner le design pour l’IHM et en Italie il y a eu Ivrea qui était aussi une école de design mais liée à l’informatique. Au Pays-Bas, le design est très développé et Philips à Eindhoven a aussi poussé en ce sens. En France, c’est très difficile. On est très monodisciplinaire en France.

    PastedGraphic-5B : Il n’y a pas assez de connexions ou de relations entre les écoles de design françaises et les écoles d’informatique selon toi ?
    WM : Beaucoup trop peu. On a essayé avec l’ENSCI (l’Ecole Nationale Supérieure de Création Industrielle) plusieurs fois. Quand on a réussi, c’était très intéressant mais très difficile car les écoles de design sont gérées de façon différente, il est très dur pour un étudiant de prendre des cours des deux côtés. L’ENSCI a des liens avec le CEA, c’est sans doute plus facile pour des groupes de recherche industrielle. Mais en France, le manque de pluridisciplinarité vient du fait que les étudiants sont orientés très tôt. Ça crée des problèmes. Par exemple nous avons deux Masters en IHM à Paris-Sud : l’un pour les entrepreneurs, l’autre pour les chercheurs. Ils sont enseignés en anglais et la plupart de nos étudiants (100% des entrepreneurs et 90% du Master recherche) ne sont pas français. Je trouve ça dommage. L’autre chose, c’est que les étudiants en France ne savent pas ce qu’est la recherche. Ça arrive très tard, à la fin du M2 avec le stage de recherche. Et ils n’ont pas non plus l’expérience de définir leurs propres projets, ce sont les enseignants qui imposent le sujet. Quand on va au MIT, il y a des espaces partout pour faire des projets. Les étudiants sont toujours en train de travailler sur des projets. Il y a même un système qui s’appelle UROP, Undergraduate Research Opportunities Program pour qu’ils puissent travailler, dès le début de la licence, dans un labo et être payés (pas beaucoup) pour participer à la recherche dès le début de leur scolarité. Et ça change tout : les gens sont plus curieux, plus ouverts, plus autonomes. En France, un étudiant fait un Master de deux ans et il commence son premier stage de recherche à la fin de tous les cours.

    B : C’est un peu vrai à l’université. C’est un petit peu moins vrai dans les grandes écoles
    WM : C’est vrai, mais c’est vraiment dommage, et c’est vraiment trop tard.
    Comment savoir si on veut faire de la recherche ? La recherche, ce n’est pas juste une question d’intelligence. C’est aussi une question de curiosité, de personnalité. Il y a des gens qui sont faits pour être chercheur, d’autres non… Il faut être un peu rebelle pour être un bon chercheur, je pense. Comment savoir, si c’est à l’âge de 23 ans qu’on fait pour la première fois un peu de recherche ? Comment décider, après seulement quelques semaines de stage, si on veut candidater à une thèse ? Il y a des étudiants qui manquent de confiance et qui disent : « ah, je ne suis pas sûr de pouvoir le faire ». Et d’autres pensent : « bon, il faut travailler dans l’industrie parce qu’il faut gagner sa vie ». Mais c’est une belle vie, la recherche, pour les gens qui ont les capacités… Alors je trouve qu’on est en retard pour cette ouverture sur la recherche, et c’est aussi dommage pour ceux qui vont dans l’industrie. Moi, j’ai passé une partie de ma vie dans l’industrie, d’abord dans la R&D. Les travaux qu’on a fait en recherche sont devenus des produits qui ont rapporté du bénéfice et j’ai été chef d’un groupe où l’on a développé plein de logiciels. Au bout d’un moment, je me suis lassée et je me suis dit : non, c’est beaucoup mieux de faire de la recherche. Je suis revenue dans la recherche et j’adore ça. Mais je comprends les deux aspects, le développement de produits et la recherche, et cela m’a aidé des deux côtés. Il y a toujours des problèmes quand on fait des vrais produits dans le monde réel. Il y a les plannings à respecter, les spécifications fonctionnelles, etc. ; il y a la réalité, qui est très différente. Soit on s’adapte, soit on est absolument bloqué. je pense que si l’on fait un peu de recherche quand on est plus jeune, quand on va dans l’industrie ça donne un peu plus de souplesse pour gérer ces situations. Voilà, c’est l’interaction située, encore une fois ! En conclusions, j’aime beaucoup faire de la recherche en France. C’est difficile aux États-Unis en ce moment, car il y a beaucoup de pression pour faire des choses utiles à l’industrie. Moi, j’aime la capacité de pouvoir penser à plus long terme.

     

  • Lev Manovitch à Place de la Toile

    Interview de Lev Manovitch par Claire Richard à Place de la Toile.  Lev Manovich est professeur d’informatique à l’Université de New York, spécialiste des médias et de la visualisation de data masse. Il est l’auteur de Le langage des nouveaux médias et  l’an dernier de Software takes command.

    Ce Place de la Toile est le dernier de la saison et le dernier de Xavier de la Porte. C’est l’occasion, comme auditeur assidu,  de remercier Xavier pour de très bons moments, des moments forts, des moments intelligents qui forçent à réfléchir.

    A la question « Est-ce qu’il est important de comprendre comment fonctionnent les algorithmes », Manovitch répond évidemment que oui, une évidence pour les lecteurs de Binaire. Mais il soulève un problème : « Notre société ne repose plus sur une constitution de quelques pages de textes mais sur des algorithmes de millions de lignes de code, et ce code on ne peut pas le consulter ». Pas cool !

    En une phrase, il rejoint deux sujets sur lequel je m’arrache la tête depuis deux ans :

    Bon sang mais c’est bien sûr, les deux sujets sont très liés ! Pour vivre honnêtement dans une société numérique, il faut être formé pour cela (l’informatique) et il faut que la société arrête de nous entuber (la neutralité). Pour ça et le reste, allez écouter Manovitch et son accent russe des plus sympas.

    Serge Abiteboul

     

  • Affelnet : de l’infinie souplesse du logiciel

    Un ami de Binaire, Marc Shapiro, nous écrit pour parler de l’infinie souplesse du logiciel. Il mentionne brièvement un autre problème qu’il nous faudra aussi aborder : Qui de nous ou de la machine décide ? A l’ère  des voitures sans chauffeur, des échanges boursiers automatisés et des des drones-bourreau, on ne peut éluder la question.

    Dans le Monde du 2 juillet : « A Paris, un logiciel pour favoriser la mixité scolaire ».  Un logiciel, Affelnet, aide à répartir les collégiens entre lycées : « chaque rectorat y a introduit des critères spécifiques, le transformant avec plus ou moins de pertinence en un outil au service de la politique rectorale. » Ainsi, l’académie de Paris a choisi des paramètres qui remontent les élèves défavorisés, permettant ainsi à un boursier d’intégrer un « bon » lycée devant un élève mieux noté ; alors que d’autres académies ont fait le choix contraire.

    Cela nous rappelle que ce n’est jamais « la machine qui décide » et que, quels que soient les choix qui sont faits, ce sont des humains qui en sont responsables en amont.  C’est très clair ici : différentes académies utilisent le même logiciel, en le paramétrant selon des politiques spécifiques.

    Espérons en outre que, dans les académies, on prend en compte aussi l’individu concerné, et qu’on n’utilise pas le résultat du calcul comme un alibi ; mais ceci est une autre histoire…

    Pour en revenir à nos moutons, ce cas illustre aussi l’infinie souplesse du logiciel.  Tout logiciel un peu évolué regorge de paramètres que l’on peut varier, afin de modifier son comportement.  Si l’on en croit la description d’Affelnet dans le Monde, le responsable d’une académie peut, sans difficulté, changer le poids relatif des notes de troisième d’une part, et de divers indicateurs comme le statut de boursier ou l’adresse d’autre part.  Augmenter le poids des notes favorisera statistiquement les élèves ayant bénéficié jusque-là de bonnes conditions de scolarité.

    On peut aussi modifier le l’algorithme de calcul lui-même, afin par exemple de prendre en compte de nouvelles données (disons, la distance entre le domicile et le lycée ; ou bien, soyons fous : les souhaits de l’intéressé).  Chaque nouvelle « version » de logiciel incorpore un grand nombre de telles améliorations.

    Cette infinie souplesse va de pair avec une infinie complexité.  Les paramètres d’un gros logiciel sont nombreux, souvent difficiles d’accès, et presque toujours mal compris.  Le logiciel est infiniment souple, mais savoir le concevoir, le réaliser, le maintenir et modifier est un métier.  Cela demande méthode et rigueur, et la capacité de savoir passer du général (la spécification, ou ce à quoi le logiciel va servir) au particulier (le codage, ou mise en œuvre détaillée) et vice-versa (comment telle modification locale impactera l’ensemble).

    Enfin, cet exemple illustre parfaitement la distinction entre « mécanisme » et « politique ».  On attend d’un logiciel qu’il soit un outil générique pouvant être mis au service d’objectifs variés.  Dans le cas d’Affelnet, le « mécanisme », c’est l’aide à la décision de répartition des élèves ; la « politique », le choix d’un ensemble de paramètres. Cette distinction est un des apports fondamentaux de l’informatique.

    Marc Shapiro, Directeur de recherche Inria et membre du Lip6

  • Pièges à MOOC

    Il y a deux ans le New York Times faisait sa une sur « l’année du MOOC » (Massive Open Online Course). Des journalistes enthousiastes expliquaient le plus sérieusement du monde que le « FLOT » (Formation en Ligne Ouverte à Tous)  allait permettre de diffuser les meilleurs cours sur Internet, instruire l’humanité,  pour enfin sortir la majorité de la population mondiale de la pauvreté. Véritable révolution de l’enseignement ? Excès d’optimisme ? Binaire a demandé à un ami, Rachid Guerraoui, de nous expliquer ce qu’il en est.

    Cette époque coïncidait avec la mise en ligne de certains cours auxquels des milliers d’étudiants s’inscrivaient  partout dans le monde: le cours de Thrun à Stanford avec près de 150.000 inscrits, le cours de Guttag au MIT avec plus de 70.000 inscrits, le cours d’Odersky de l’EPFL avec plus de 50.000 inscrits, etc. Aucun de ces professeurs ne pourrait jamais espérer atteindre autant d’élèves dans sa carrière, même en se réincarnant plusieurs fois. La progression du nombre d’inscrits à de tels cours, plus fulgurante que celle de Facebook, laissait présager aux MOOCs un avenir des plus radieux.

    Il a fallu malheureusement un peu déchanter. On s’est rendu compte qu’une grande majorité d’inscrits abandonnait : jusqu’à 95%. Ceux qui restaient étaient pour la plupart très instruits et possédaient déjà des diplômes et un travail. Autrement dit, les MOOCs fonctionnent bien pour la formation professionnelle mais ne semblent pas toujours   adaptés aux jeunes élèves scolarisés. Aujourd’hui des médias parlent de la désillusion de l’enseignement numérique. Il y a plusieurs raisons à cela. En voici cinq.  Il s’agît de pièges dans lesquels sont tombés plusieurs projets. Ces pièges sont sournois car il partent à chaque fois  d’un constat tout à fait juste pour en déduire une conclusion parfois idéalisée, souvent hâtive, et qui peut signifier l’abandon à terme du projet.

    RachidRachid Guerraoui @Rachid

    Le terme « enseignement »

    Le constat de départ ici est que l’enseignement dans plusieurs parties du monde, y compris dans certaines régions de pays dits riches,  est dans un état catastrophique, mais qu’à l’inverse, Internet se propage de manière prodigieuse partout dans le monde. Rien de plus naturel alors que d’essayer de prendre l’enseignement là où il est le meilleur et d’utiliser Internet pour le diffuser le plus largement possible. On parle alors d’enseignement numérique.  Cela sous-entend (1) la conception d’un enseignement sous une forme numérique appelé contenu – typiquement la vidéo d’un professeur donnant un cours et   (2) la diffusion de ce contenu à travers un support de diffusion du numérique – typiquement Internet.

    Les élèves suivraient les cours sur Internet. On parle parfois de « flipping classes » dans le sens ou les élèves apprendraient les concepts « at-home »  pour venir en classe faire leur « home-work ». L’enseignement s’en trouverait complètement changé. Mais l’Histoire nous a démontré que l’enseignement traverse toutes les révolutions, techniques ou technologiques, sans changer radicalement. On a radicalement modifié au fil du temps notre manière de voyager, de se soigner, de faire du commerce, de s’amuser, mais pas d’enseigner.

    Depuis la nuit des temps, les professeurs debout s’agitent à quelques mètres de leurs élèves pour capter leur attention et les empêcher de s’endormir. On a pensé que l’écriture allait fondamentalement changer cela.  On s’est  trompé. Même le grand Socrate qui avait peur que ses classes soient désertées à cause de l’utilisation de l’écriture s’est trompé.  On a pensé que l’imprimerie allait changer cela et qu’avec les livres, les élèves n’auraient plus besoin de venir en classe. On s’est trompé. On pense que le numérique va finalement changer cela. On se trompe.  Tout comme les inventions de l’écriture et de l’imprimerie ont servi d’appoints (considérables) à l’enseignement, mais sans le changer radicalement, le numérique ne sera aussi qu’un appoint. Un appoint important, certes, mais seulement un appoint. Il faudrait idéalement parler d’appoint numérique de l’enseignement plutôt que d’enseignement numérique. Rien ne remplacera la présence physique du professeur si le but est de transmettre du savoir à de jeunes élèves.

    Le pouvoir du numérique

    Le numérique permet de réaliser des choses étonnantes et la progression des possibilités de l’informatique graphique semble exponentielle. Pourquoi devrions-on nous nous en priver dans l’enseignement pour produire du contenu éducatif ? Pourquoi ne pas profiter de ces progrès technologiques pour enseigner le théorème de Thalès avec une animation de Spider Man et le théorème de Pythagore à travers une course de Robben ?

    Cela coûte néanmoins cher : à produire et à visualiser. Quand bien même les moyens d’acheter le matériel et le logiciel adéquats sont disponibles à un instant donné pour une production graphique sophistiquée, le passage à l’échelle peut s’avérer impossible. Les temps de montage sont énormes et les enseignants se retrouvent à perdre du temps sur autre chose que ce qu’ils savent faire : bien expliquer des concepts. Cela peut s’avérer d’autant plus inutile que l’élève du fin fond de l’Afrique ne dispose ni de la bande passante ni de la qualité graphique pour profiter de ces prouesses graphiques. On a vu plusieurs projets  d’enseignement numérique démarrer en force avec des moyens technologiques faramineux pour s’essouffler quelques mois plus tard.

    En fait, en investissant dans des moyens technologiques, on oublie souvent que le plus important est ailleurs : c’est le contenu.  Pour promouvoir un contenu de qualité, pouvoir le changer facilement et l’adapter à différentes situations, le logiciel et le matériel doivent être minimalistes. Rien par ailleurs n’a été inventé de mieux pour l’enseignement que le tableau noir et la craie. Ne pas être capable d’enseigner quelque chose de manière simple signifie souvent que nous ne l’avons pas bien compris, disait Einstein.

    L’élitisme a priori

    On part ici du constat que le contenu est crucial, pour en déduire qu’il faut passer par une étape de concertation, voire de certification a priori. Après tout, on ne peut pas mettre n’importe quoi à la disposition de millions d’élèves. Dans la pratique, un tel souci d’élitisme s’est traduit par la composition d’un comité d’experts censé évaluer le projet de création d’un contenu. Si le contenu est jugé inadapté, ou redondant avec un contenu existant, le comité d’experts le rejette ou suggère des modifications.  Or, on le ne dit  jamais assez,  la meilleure manière de faire capoter un projet est de le confier à un comité d’experts.

    Comme rappelé ci-dessus, il est évident que le contenu est la ressource la plus importante dans un enseignement numérique. Mais il faut avant tout qu’il y en ait. Or la difficulté est de motiver les enseignants. Au delà des stars d’un domaine, comme celles citées ci-dessus et qui désirent souvent atteindre un grand nombre d’élèves pour prêcher leur bonne parole, un professeur anonyme ne trouve pas toujours la motivation nécessaire à un travail de numérisation de son enseignement. Rajouter un obstacle de certification a priori s’avère souvent rédhibitoire.

    Il est important d’encourager les bons enseignants à numériser leur savoir. Mais une fois qu’un enseignant est convaincu de la pertinence d’un tel projet, il est tout aussi important de le laisser tranquille sur le choix de son contenu. Au bout du compte, le meilleur filtre est l’élève à l’autre bout d’Internet. Le numérique permet de comparer les taux d’accès et de rétention du contenu numérique. Si une vidéo expliquant le théorème Bolzano Weierstrass par le principe du « soleil levant »  à la craie et au tableau noir est suivie par des milliers de personnes, alors on peut juger qu’elle atteint son objectif. Autrement dit, l’élitisme est inévitable, mais il se fait naturellement a posteriori.

    L’exhaustivité

    Il existe aujourd’hui des cours classiques complets dans quasiment tous les domaines. Certains cours ont fait leur preuve depuis de nombreuses années. Ils suivent des séquences très spécifiques qui permettent à l’élève de comprendre de manière progressive sans sauter d’étape importante. Partant de cela, on se dit qu’il faut donc suivre la même voie pour le numérique : préparer et numériser des cours entiers, couvrant tous les aspects importants d’un domaine, avant de les mettre en ligne. Pour caricaturer, cela signifie qu’avant de concevoir un contenu numérique sur la résolution des équations du troisième degré, il faut l’avoir fait pour des équations du second degré.

    L’expérience a montré qu’à part pour des profils très spécifiques de personnes, des cours numériques complets sont jugés trop lourds par de jeunes élèves. Même quand ils s’inscrivent et suivent les premières étapes, ils abandonnent dans la majorité des cas. Par ailleurs, s’imposer une forme d’exhaustivité dans la génération d’un contenu numérique tend à annihiler les possibilités de co-création (wiki) et s’avère dans la pratique tout aussi rédhibitoire qu’un comité d’experts complexés. L’erreur encore une fois ici est de penser l’enseignement numérique comme un substitut de l’enseignement classique, soumis aux mêmes contraintes.

    Souvent, ce que  les élèves cherchent sont des appoints concis leur rappelant tel ou tel concept la veille d’un examen, ou leur donnant une idée sur une matière avant qu’ils ne puissent faire un choix d’orientation. Il est non seulement important que ces appoints soient brefs, mais qu’ils renvoient le moins possible vers d’autres contenus. Rien n’empêche d’avoir un contenu numérique spécifique pour ceux qui désirent une explication concernant la résolution d’équations du troisième degré : si aucun contenu n’est (encore) disponible pour expliquer la résolution  pour le second degré, tant pis. Le mieux est souvent l’ennemi du bien.

    La personnalisation

    Le désir de personnalisation part du constat que les élèves n’avancent pas tous au même rythme. Il serait souhaitable d’adapter l’offre numérique à chaque cas particulier. Idéalement, l’enseignement numérique permettrait de jouer le rôle du professeur privé au service de l’élève.

    Plus concrètement, une série de tests permettrait d’avoir une idée sur le niveau de l’élève et de lui proposer un contenu qui a été jugé adapté par des élèves du même niveau. L’élève pourrait lui aussi poser des questions et avoir un soutien personnalisé qui adapterait le contenu à la progression de l’élève. Techniquement, cela n’est pas impossible. Dans la pratique, cela ne fonctionne que rarement, pour les raisons indiquées ci-dessus : impatience des élèves, bande passante inadaptée, mauvais matériel de réception, difficulté de mobiliser les enseignants pendant de longues périodes d’enregistrement, etc.

    Encore une fois, la personnalisation est certes un objectif louable, mais essayer de le mettre en œuvre par la technologie peut devenir un frein à la diffusion du savoir. La personnalisation se fait naturellement par les élèves eux-mêmes : ils décident par exemple de quand ils vont voir des vidéos, combien de fois et dans quel ordre.

    watermark-youtubeL’expérience Wandida (*) @Wandida

    Nous nous sommes lancés à l’EPFL dans une expérience pragmatique  d’appoint à l’enseignement numérique en essayant d’éviter les pièges ci-dessus. Le schéma est celui de wikipédia : des vidéos atomiques expliquant des concepts de manière concise sont mises en accès libre sur Internet. Une simple recherche par mot-clé permet d’y accéder directement et gratuitement. Aucun test ou mot de passe n’est requis. Le modèle utilisé pour la conception des vidéos est celui de la craie et du tableau noir. L’enseignant n’est impliqué que dans la phase d’enregistrement du contenu : jamais dans le montage. Il est accompagné d’un ingénieur qui permet de souligner les incohérences lors de l’enregistrement et de minimiser les modifications a posteriori. La durée moyenne d’une vidéo est de 6mn : le temps maximal de concentration d’un jeune élève. L’ambition n’est pas de remplacer l’enseignement, mais de se concentrer sur les concepts difficiles d’une matière. La bibliothèque Wandida comporte déjà aujourd’hui près de 200 vidéos d’informatique, de mathématiques et de physique.

    Rachid Guerraoui, Professeur à l’Ecole Polytechnique Fédérale de Lausanne

    (*) Le terme wandida désigne dans l’Atlas marocain le papier glacé, utilisé par les bouchers pour envelopper leur viande et par les épiciers pour envelopper leur beurre: pour les élèves de classe modeste, c’était le seul papier brouillon disponible. Le projet wandida, initié à l’EPFL, est ouvert à d’autres partenaires.

     

  • Le samouraï de Villeneuve la Garenne

    Quand j’ai visité Simplon, je suis resté sur ma faim. Je n’avais pas assez causé avec les élèves. Alors j’ai contacté Rodolphe (Rodolphe Duterval) et lui ai proposé de le retrouver pour un verre. C’est un élève de la première promo de Simplon.co à Montreuil… Un élève un peu particulier : je vais plus parler de lui comme enseignant que comme élève. Mais après tout, le brouillage du fossé entre élèves et enseignants, n’est-ce pas aussi un aspect de Simplon ?

    rodolpheRodolphe © Nicolas Friess

    Rodolphe est particulier parce qu’il a déjà suivi 4 ans d’une école d’ingénieur avant de laisser tomber pour atterrir à Simplon, confronté à la difficulté de trouver un stage, attiré par l’esprit entrepreneurial. Donc, contrairement à la plupart des autres, il ne part pas de zéro en informatique. Comme il s’accaparait Ruby on Rail plus vite que ses potes, les profs de Simplon lui ont proposé comme stage de partir évangéliser Villeneuve la Garenne.

    Rodolphe s’est dit : j’aime enseigner ; je vais peut-être me découvrir une vocation. Pourquoi pas ?

    vlgla cité de La Noue à Villeneuve la Garenne  © Nicolas Friess

    La destinée: la cité de La Noue a été originellement conçue par son architecte sur le modèle… d’un micro-processeur !

    Le cadre de l’insertion à VlG
    Les élèves sont une quinzaine pour suivre une formation rémunérée de six mois de développeur informatique. Ils ont entre 19 et 25 ans, « plus ou moins » le niveau bac, et niveau 0 en informatique. (Merci l’éducation nationale ; il est commun en France en 2014 de quitter l’éducation gratuite, laïque et obligatoire sans rien savoir en informatique.). Ses élèves sont pour certains décrocheurs ; ils cherchent tous vaguement leur voie – traduire, ils galèrent. Une association spécialisée dans l’économie sociale et solidaire, Pôle Solidaire, les a pris en contrat d’avenir, et fournit la salle. Les machines viennent de Simplon – c’est de la récup d’un labo pharmaceutique. Elles tournent Linux et rien d’autre : Rodolphe n’est-il pas ici pour évangéliser ?

    1404_simplon__NFR0387Photo d’élèves peut-être en cours © Nicolas Friess

    La pédagogie
    On se débarrasse vite fait des concepts et « vas-y ! ». Le plus difficile est de les garder concentrés. Et pour ça, il faut qu’ils fassent. Ils aiment aussi les belles histoires et Rodolphe est le king du story telling : « Si tu as une bonne idée, et si tu as la technique, tu peux devenir le roi du couscous ; C’est l’histoire d’un jeune Bill Gates qui passait tout son temps sur les ordinateurs, séchait les cours, avait des tas de problèmes à l’école…».  Les problèmes à l’école, ils connaissent. Avec Rodolphe, ils découvrent l’ordinateur. Et il ne leur vent pas du rêve. Lui ne peut que leur amener la technique ; il faut qu’ils bossent dur s’ils veulent réussir. Alors ils bossent.
    C’est plus la motivation que les neurones qui risque de manquer. Mais, alors que les 6 mois touchent à leur fin, tout va bien. Ils ont bien eu un peu de problème avec l’anglais, mais l’ambiance est au beau fixe, l’absentéisme anormalement faible (ce que l’on remarque souvent dans ce genre de formations). Pire, le soir, ils n’arrivent pas à se décoller du clavier. La programmation, c’est addictif ? Très probablement.
    En tous cas, ils ont progressé plus vite que prévu. Ils bossent sur de vrais projets de sites Web, pour des associations locales. Oui ! Ils y arrivent !

    Les débouchés visés
    Il faut qu’à la fin des six mois, ils soient « employables » comme « opérateur système ». Rodolphe reconnaît que ça ne veut pas dire grand-chose. Ils sauront faire un site Web et filer un coup de main aux handicapés de l’ordinateur et d’Internet (ça, ça ne manque pas). Ils seront à l’aise avec un clavier et un programme ; ils pourront tenir des jobs de médiateur numérique, de référant digital. Ils pourront être utiles dans des petites entreprises ou des associations. Et parmi eux, certains, les plus tenaces, les plus brillants deviendront de vrais développeurs. Tous auront changé.


    Nous sommes une communauté de lutteurs, samouraïs, Maitres de l’air, et les codeurs de sumo.
    Nous devenons meilleurs en programmation information en résolvant des problèmes @codersumo

    Et Rodolphe ?
    Il aime partager ce qu’il a appris, donc le job d’enseignant lui plait bien. Mais il aimerait aussi être plus créatif. Il a l’ambition de devenir un de ces supers développeurs, un vrai, de cette aristocratie qui savent faire naitre des programmes, complexes, beaux, novateurs. Alors, en attendant, il lit, il apprend, et il fait des katas sur codersumo.com. Et si vous avez un truc sympa à lui proposer, envoyez le à binaire qui fera suivre.

    Serge Abiteboul

  • Real Humans ?

    Dans un article du journal du CNRS, Raja Chatila, un chercheur en robotique, replace dans son vrai contexte la très attrayante série real humans que propose Arte. C’est une série qui « ne parle pas de robotique » mais utilise la robotique comme une fable pour nous aider à regarder notre humanité en miroir de ces êtres imaginaires.

    Raja nous explique que « ces machines sont extrêmement loin de la réalité ou même d’un futur éventuel » :

    • La notion de droit pour les robots est une absurdité, car ce sont bien des humains qui les ont conçus, développés et utilisés, donc qui sont juridiquement responsables de leurs agissements ;
    • La notion de conscience pour une machine est un oxymore, alors qu’on « ne sait même pas [complètement] définir la conscience chez les êtres humains» ;
    • Choisir de laisser un robot décider seul est un non-sens, car il y a bien une décision humaine : celle d’utiliser le résultat de l’algorithme de calcul sans chercher à l’analyser.

    Raja rappelle que les «risques de confusion entre le vivant et le non-vivant » est un sujet d’étude en soi. La vraie question est posée.

    Pinocchio de bois, Florence (dès que la fée passera ces patins seront humains ) ©Vladimir Menkov

    Nous sommes bien loin de ceux qui, personnifiant les objets numériques (machines, algorithmes, …), se perdent dans des débats illusoires ou confondent un résultat scientifique avec un coup de bluff médiatique.  Le dernier, « On a réussi le test de Turing », est démystifié par Jean-Paul Delahaye dans un joli billet.

    Raja est bien un chercheur à la pointe de la robotique et de l’intelligence mécaniste (dite souvent intelligence artificielle). Ce sont des scientifiques comme lui dont les travaux extrêmement sophistiqués permettent aux industriels de faire les robots qui changent notre vie, ceux qui la changeront encore plus demain. Ces objets numériques et mécaniques seront probablement plus des objets connectés intégrés à notre environnement quotidien que des marionnettes animées.

    Thierry Viéville.