Auteur/autrice : binaire

  • Reduction de mémoire et d’énergie par les règles de l’harmonie musicale

    En cette période de crise où chacun se demande s’il doit vraiment remplacer son iPod et autre gadget par une version encore plus performante, nous recommandons à nos lecteurs d’avoir encore un peu de patience. Un reporteur de Binaire a eu vent du dernier  projet d’un de nos plus grands inventeurs, Albert Robida. A suivre…

    phono-operagraphe
    Un grimpeur, en récompense pour avoir réussi l’ascension du Cervin, s’offre l’écoute de Sarastro dans “La flute enchantée
    (phono-opéragraphe d’Albert Robida version bêta 1.2.)

    Un nouvel appareil révolutionnaire est sur le point d’être introduit sur le marché : le phono-opéragraphe récemment breveté (FR5775A1) par Albert Robida, chercheur visionnaire à l’université de technologie de Compiègne et auto-entrepreneur. Il est si léger que même les montagnards qui pèsent leur sac au gramme près se laisseront tenter.

    Le phono-opéragraphe est spécialisé dans la musique d’opéra et, grâce à l’usage des structures de données auto-ajustables de Sleator et Tarjan, s’adapte dynamiquement à l’enregistrement choisi par l’utilisateur. Sa méthodologie technologique permet de re-générer son et musique par une approche calculatoire utilisant les règles de l’harmonie musicale afin de reconstituer le son à partir d’un contenu mémoire minime, quasiment au niveau plancher prédit par la théorie de l’information de Shannon.  L’énergie dépensée par le processeur est minimisée grâce à une exploitation rigoureuse des bruits ambiants, avec un algorithme qui “mine” les sons alentour pour extraire et amplifier les composantes musicales du milieu naturel où elles sont habituellement inaudibles, ce qui permet de les  réutiliser en les incorporant à l’enregistrement, économisant ainsi sur la quantité de son que l’appareil doit créer ex nihilho.

    C’est dans le registre de soprano colorature que l’enregistrement audio est le plus compact, et donc le plus léger, comme il est logique. Mais même les sopranos lyriques restent très raisonnables en montagne. Ainsi, Carmen, la Traviata, et morceaux similaires le rendent d’un poids nettement inférieur à 50g : il bat largement tous ses concurrents. Les performances sont un peu moins impressionnantes avec les altos et ténors, et il faut faire attention à ne pas prendre trop de morceaux avec basse, ni surtout de basse profonde ; cela réduit l’intérêt en pratique. Heureusement, on annonce déjà que la prochaine génération, inspirée par le point de vue d’Alan Perlis (et son célèbre principe “La constante d’une personne est la variable d’une autre”), aura un poids variable en fonction du morceau qu’on est en train d’écouter, avec mises au point de l’algorithme en fonction des préférences musicales du grimpeur (à condition toutefois qu’il soit mélomane.)

    Albert Robida conjecture que la place mémoire nécessaire pour mémoriser un morceau de musique est une fonction monotone décroissante de sa beauté selon le canon classique.

    Le prix de lancement est prévu autour de 45,99 euros.

    Claire Mathieu, ENS, Paris

  • Françoise en Inde

    Le sujet de la formation à l’informatique a été beaucoup débattu en France récemment. Mais en dehors de l’hexagone ? On se pose les mêmes questions ? D’autres pays auraient-ils eut l’audace de prendre de l’avance sur nous ? Binaire a proposé à Françoise Tort, chercheuse à l’ENS Cachan et co-responsable en France du concours CASTOR informatique, d’interroger des collègues à l’étranger. Leurs réponses apportent beaucoup à nos débats parfois trop franchouillards.
    FT_Inde
    Tour d’horizon de l’enseignement de l’informatique… Après la Bavière, Israël, Françoise nous emmène en Inde.

    IMG_8908

    Note sur le système scolaire indien : L’Inde est divisée en 28 États et 7 «territoires fédéraux ». Les politiques et les programmes scolaires sont suggérés par le gouvernement central, les états provinciaux ayant une liberté dans leur application. Le système scolaire comprend quatre cycles : primaire (6 à 10 ans), primaire supérieur (11 et 12 ans), secondaire (13 à 15 ans) et secondaire supérieur (17 et 18 ans). Le cursus est commun à tous les élèves jusqu’à la fin du secondaire, ils choisissent des spécialités les deux dernières années. Les élèves apprennent trois langues (l’anglais, le hindi et leur langue maternelle). Il y a trois types d’établissements : deux sont coordonnés au niveau national, respectivement par le CBSE et par l’ICSE, qui publient des programmes pour les enseignements et les examens, le troisième correspond aux établissements d’états (locaux).


    Pradeep_Photo
    Entretien avec Pradeep Kumar Misra, professeur associé au département B.Ed / M.Ed. à la faculté de sciences de l’éducation de l’université M.J.P. Rohilkhand, à Bareilly, dans l’état de l’Uttar Pradesh. Il forme de futurs enseignants. Ses travaux de recherche portent sur les technologies éducatives, la formation des enseignants et la formation tout au long de la vie

    Depuis 10 ans, TIC et informatique sont enseignées dès le primaire

    Il semble y avoir un consensus partagé par les gouvernements indiens (central et d’états) et les organismes en charge des questions d’éducation sur la promotion de l’informatique dans l’éducation secondaire. Signalons dans ce sens l’appel du gouvernement central pour  « une Inde numérique » ou, encore, les programmes de différents gouvernements d’état pour fournir gratuitement des ordinateurs et des tablettes aux élèves. Depuis environ 10 ans, les écoles indiennes proposent des cours d’informatique : certaines l’introduisent dès la première année du primaire, d’autres, plus tard, vers la moitié du primaire. L’informatique est au programme obligatoire pour le primaire et est proposée en option pour le secondaire. Cette matière prend environ 2h30 à 3 heures par semaine, incluant pratique et théorie, et plus pour ceux qui le prennent en option à partir du lycée. Comme les autres matières, l’enseignement peut être en Hindi, en anglais ou dans la langue maternelle.

    Utiliser des applications et programmer, et plus en option…

    Alors que dans les autres matières, il y a un programme officiel et des manuels scolaires prescrits, la situation est plus ambiguë pour l’enseignement de l’informatique. Il n’y a pas de programme formel pour le primaire. Pour le secondaire, chacun des conseils éducatifs (CBSE, ICSE, et d’état), propose son propre programme sous des dénominations différentes (« computer education », « computer science », « computer application », « ICT literacy »). [note : ICT pour « Information and Communication Technologies », TIC en français)].

    Les contenus des enseignements obligatoires portent sur les utilisations d’applicatifs et sont centrés sur les savoir-faire : sur des logiciels et applications web au niveau collège et en programmation (Java, C++, Python) au niveau lycée. Dans la mesure où les établissements ont une certaine latitude dans l’application des programmes et le choix des manuels, il y a de fait une grande variété des contenus offerts.

    Une promesse de réussite future

    Il y a de nombreux arguments favorables à un enseignement de l’informatique en Inde. Un argument assez largement répandu est que les enfants sont en présence de nombreux ordinateurs dans la vie courante, qu’ils apprennent à utiliser souvent par eux-mêmes, avec leurs amis ou les membres de leur famille et que parfois cela les amènent à adopter de mauvaises pratiques et habitudes, des utilisations incorrectes et peu sûres ; autant d’écueils qu’éviterait une formation cadrée à l’école.

    Une autre opinion répandue dans notre société est que, quelles que soient les carrières choisies par les jeunes, avoir des compétences de base en informatique leur sera toujours utile sur le long terme. La réussite de professionnels de l’informatique indiens connus à travers le monde (comme Satya Nadella, directeur général de Microsoft, ou Sundar Pichai, vice-président de Google, et bien d’autres) motive très certainement les parents et les étudiants indiens à choisir les écoles qui offrent des cours d’informatique. Beaucoup d’écoles privées offrent des cours en informatique pour gagner une réputation de modernité et attirer plus d’élèves.

    Cependant, les élèves sont plutôt divisés quant à l’intérêt des cours d’informatique. Ceux qui choisissent l’option pensent que c’est amusant à apprendre, un nouveau monde à explorer et une bonne préparation pour leur poursuite d’étude. Ils y voient un outil de réussite sociale, le moyen de passer auprès de ses amis pour le « doué en informatique ». Mais la majorité des élèves y voit juste une matière obligatoire, donnant du travail supplémentaire, et un obstacle de plus à franchir pour obtenir leur diplôme.

    Un vivier d’enseignants qualifiés

    Les enseignants de l’école publique sont recrutés par les agences gouvernementales (centrale et fédérales), le recrutement dans le privé est indépendant. Les enseignants intervenant aux niveaux primaires n’ont pas forcément de diplômes dans cette discipline. En revanche, c’est bien le cas des enseignants du secondaire, qui ont un diplôme de niveau licence ou maîtrise en informatique ou en technologie de l’information (B.Tech in Computer Science/IT ; M.Sc. in Computer Science ; Masters in Computer Applications), et un diplôme professionnel en éducation, obtenu en un an.

    Pour le moment, il ne me semble pas y avoir de pénurie d’enseignants qualifiés. Un nombre important d’étudiants indiens sont diplômés en informatique et il leur suffit d’obtenir le diplôme en éducation pour prétendre à un poste d’enseignant. De plus, le gouvernement et les agences privées proposent des formations continues. Toutefois, il me semble que les diplômés en informatique sont plutôt enclins à poursuivre une carrière dans l’industrie, avec des promesses de bons salaires. Devenir enseignant me paraît être un second meilleur choix,  pour ceux qui veulent éviter de connaître le chômage.

    Les femmes restent sous-représentées en informatique

    L’engagement des filles et des femmes en informatique a évolué en Inde dans les dernières années. Il est sûr que l’informatique permet aux filles de rompre les barrières liées au genre. Une étude réalisée en 2010 suggérait que c’est « une discipline appréciée des étudiantes, parce qu’elle demande des efforts intellectuels plutôt que physiques, et leur permet de travailler en intérieur. » Mais la même étude remarquait  que « les femmes restent sous-représentées dans les domaines des technologies de l’information, probablement du fait de contraintes sociales qui réduisent leur liberté d’étudier, leur accès aux ressources et leurs opportunités ». Une autre étude suggère qu’il y a des questions spécifiques à résoudre concernant les questions de genre en éducation et qu’il faudrait étudier les voies par lesquelles les TIC conduisent à des résultats d’apprentissage égalitaire entre filles et garçons.  Un nombre significatif de jeunes filles quittent le système scolaire après la puberté, et il faudrait explorer le potentiel offert par les outils numériques pour former ces adolescentes déscolarisées.

    Ne pas en rester là et approfondir encore les contenus

    40% des indiens, soit 430 millions de personnes, ont moins de 18 ans. Cela fait de l’Inde le pays abritant la plus grande population d’enfants au monde. La promesse faite par le gouvernement que « chaque village devra être connecté par une bande passante, et l’éducation pourra être offerte aux enfants des écoles même les plus reculées » (voir par exemple) montre que dans un avenir proche les cours d’informatique à l’école seront nécessaires et souhaités. En résumé, l’informatique est apparue comme une composante vitale de l’enseignement scolaire indien mais il nous reste encore à faire de plus gros efforts pour définir et mettre en œuvre un programme et des contenus d’enseignement détaillés, offrant un bon équilibre entre connaissances théoriques et pratiques, et développant de nouvelle méthodes pédagogiques, mais par dessus tout aidant les enfants « to grow virtual but remain socially grounded ».

    Pour en savoir plus

    • Le programme proposé sur le site de l’ICSE pour l’enseignement intitulé « utilisation des ordinateurs » pour le niveau fin de collège début de lycée (computer application – classes IX and X)
    • Des documents d’accompagnement disponibles sur le site du CBSE pour les enseignements : de TIC en fin de collège début de lycée – ICT, class IX et class X) et le programme d’informatique au lycée (Computer Science class XI)
  • Susan McGregor, journalist and computer scientist

    A new “entretien de la SIF”. Claire Mathieu and Serge Abiteboul interview Susan McGregor  who is Assistant Professor at Columbia University  and Assistant Director of the Tow Center for Digital Journalism. Besides being a journalist, Susan is also a computer scientist. So, she is really the person to ask about the impact of computer science on journalism.

    smg

    Professor McGregor © Susan McGregor

    B: Susan, who are you?
    S: I am assistant professor at the Columbia Graduate School of Journalism and the Assistant Director of the Tow Center for Digital Journalism there. I had a longterm interest in non-fiction writing and got involved in journalism in university, but my academic background is in computer science, information visualization, and educational technology. Prior to joining Columbia, I was the Senior Programmer on the News Graphics team at The Wall Street for four years, and before that was at a start up specializing in real-time event photography. Though I’ve always worked as a programmer, it has always been as a programmer on design teams. Design teams can be a challenge if you come from computer science, because there is a tension between the tendencies of programming and design. Programming prioritizes modular, reusable components and general solutions, while designs should always be as specific to the given situation as possible. My interest in visualization and usability began during a gap year between secondary school and university, part of which I spent working in an administrative role at a large corporation. I observed how incredibly frustrated my co-workers (who were not tech people) were with their computers. Thanks to a CS course I had taken in secondary school I could see places where the software “design” was really just reflecting the underlying technology. Interface decisions – which are essentially communication decisions – were being driven by the technology rather than the user or the task.

    Computer science literacy is essential for journalists…

    B: How much computer science do you think a good journalist needs to know nowadays?
    S: Computer literacy is essential for journalists; in fact, there are enough ways that computer science is important to journalism that a few years ago we began offering a dual-degree program in computer science and journalism at Columbia.

    First, journalists must understand digital privacy and security because they have an obligation to protect their sources, so understanding how email and phone metadata can be used to identify those sources is essential. Second – and probably best known – are the roles in newsrooms for those with the engineering skills to build to the tools, platforms and visualizations that are key to the evolving world of digital publishing. Third, computer science concepts like algorithms and machine learning are now a part of nearly every product, service and industry, and influence many areas of public interest. For instance, credit card offers and mortgages are being made available according to algorithms, so understanding their potential for power and bias is crucial to assessing their impact on civil rights. In order to accurately and effectively report on technology in general, more journalists need to understand how these systems work and what they can do. Right now, technology is often covered more from a consumer perspective than from a science perspective. Since joining Columbia, I’ve become more directly aware of the tensions between scientists and journalists. Scientists want their work covered but are rarely happy with the result. Journalists need better scientific understanding, but scientists should also consider putting more effort into their communications with those outside the field. Scientific papers are written for scientific audiences; providing an additional text with more of a focus on accessibility could improve both the quality and reach of science journalism.

    … but journalists are essential for people to be informed

    B: How do you view the future of journalism given the evolution of computer science in society ?
    S: Journalism is increasingly collaborative, with citizen journalists, crowd sourcing of information, and more direct audience interaction. That is a big change from even fifteen years ago! That will continue, though I think we will also see a return to more classic forms, with more in-depth reporting. The Internet has given rise to a lot more content than we used to have, but not necessarily more original reporting. Even if you believe that it requires no special talent or training to be a journalist, you cannot get away from the fact that original reporting takes time. Finding sources takes time; conducting interviews takes time. And while computers can do incredible number-crunching, the kind of inference essential to finding and reporting worthwhile stories is still something that people do better than computers.

    smg2

    Newspaper clip, ©FBI

    B: As a journalist, what do you think of natural language processing for extraction of knowledge from text?
    S: From what I understand of those particular topics, the most promising prospect for journalists is knowledge collation and discovery. Until only a few years ago, news organizations often had library departments and librarians, and you started a new story or beat by reviewing the “clip file”. That does not exist any more, because most of the archives are digital, and because there isn’t typically a department dedicated to indexing articles in the same way. But if NLP (Natural Language Processing) and entity resolution could help us meaningfully connect coverage across time and sections, it could be a whole new kind of clip file.  Many news organization are sitting on decades of coverage without really effective ways to mine and access all that knowledge.

    B: How do you define “reporting”?
    S: The scientific equivalent of reporting is conducting an experiment or observational study; generating new results or observations. Reporting involves direct observation, interviews, data gathering, media production and analysis. Today, one frequently sees variations of the same news item on different outlets, but they are all based on the same reporting; the volume of content is going up, but the volume of original information is not necessarily increasing. For example, while covering the presidential election in 2008, I learned that virtually all news organizations get their elections data from the Associated Press. Many of these news outlets produce their own maps and charts on election day, but all the news organizations are working from the same data at the same time. It may look diverse, but the source material is identical. Nowadays, you often have several news organizations covering an issue where, realistically, one or two will do. In those cases, I think the others should focus their efforts on underrepresented topics. That’s what we really need: more original reporting and less repetition.

    B: You could probably also say that for science. As soon as someone has an interesting idea, everyone flocks to it and repeats it. Now, as a journalist, what do you think of big data analysis?
    S: “Big data” is a pretty poorly defined term, encompassing everything from statistics to machine learning, depending on who you ask. The data used in journalism is almost always very small by anybody’s standards. Data-driven journalism, however, is an important and growing part of the field. In the US, we now have outlets based exclusively on data journalism. The popularity of data journalism stems in part, I think, from the fact that the American ideal of journalism is “objective,” and we have a culturally deep-seated notion, carried over from science, that numbers and data are objective, that they embody a truth that is unbiased and apolitical. But what is data? Data is the answer to someone else’s interview questions. Well, what were that person’s motivations? You must be critical of that. Skepticism is a necessary component of journalism, as a profession. At some level you never fully believe any source and such skepticism must extend to data. Corroboration of and context for data are essential.

    To me this is also a key point about data and data analysis in journalism: data analysis alone is not journalism. You have to first understand and then present the data’s significance in a way that is relevant and meaningful to your audience. Take food prices, for example. We have good data on that. What if I wrote an article saying that Gala apples were selling for 43 dollars a barrel yesterday? It is a fact – and in that sense “true.” But unless I also include what a barrel cost last week, last month, or last year, it’s meaningless. Is 43 dollars a barrel a lot, or a little? And if I don’t include expert perspectives on why Gala apples sold for 43 dollars a barrel yesterday, it’s not actionable. At its best, journalism provides information with which people can make better decisions about their lives. Without the why it is statistics, not journalism.

    Communication, education, and computer technology

    smg3

    Discovery of early homo sapien skulls in Herto, Ethiopia, ©Bradshaw Foundation

    B- Sometimes we are frustrated that journalists write so little about critical advances in computer science and, in comparison, so much about discoveries of new bones in Africa, for example.
    S- Humans are visual creatures. Bones in Africa, you can take pictures. But research discoveries in CS, often they’re not visual. Vision is humans’ highest bandwidth sense, and we know that readers are drawn to visuals in text. I have a pet hypothesis that visualizations can be used, essentially, to turn concepts into episodic memories – as, for example, iconic images, or political propaganda and cartoons do. And because visuals can be consumed at a glance and remembered (relatively) easily, ideas with associated visuals are easier to spread. This is one reason why visuals have been a part of my work on digital security from the beginning.

    smg41smg42

    http vs. https, visualized. © Matteo Farinella & Susan McGregor

    B: Speaking of education theory, what do you think of MOOCs (*) ?
    S – I doubt MOOCs will persist in their current form, because right now we’re essentially just duplicating the university model online. But I do think that the techniques and technologies being developed through MOOCs will influence regular teaching methods, and there will be an increase in self-organized informal learning.  Online videos have and will continue to change education. Interactive exercises with built-in evaluations will continue to be important. Classrooms will be less the place where lectures happen and more where questions get asked. Of course, that possibility is dependent on universal access to good quality internet connections, which is not yet a reality even in many parts of the United States.

    Computer science literacy is essential for everyone.

    B- What do you think of computer science education at the primary school level?
    S – Computational thinking is required literacy for the 21st century. I am not sure how new that idea is: Seymour Papert’s “objects to think with” approach to constructivist education and the development of the Logo programming language happened nearly fifty years ago. I started playing with Logo in primary school, when I was eight. To consider computational thinking a necessary literacy is uncontroversial to me. I can even imagine basic programming used as a method of teaching math. Because I teach adult journalists, I do the reverse: I use story to teach programming.

    For example, when I teach my students javascript, I teach it as “language,” not as “computing.” That is, I draw a parallel from natural language writing to writing a program. For example, in journalism there is a convention about introducing a new character. When someone is first named in an article, you say something to describe them, such as: “Mr Smith, a 34 year old plumber from Indiana”. Well, that is a variable declaration!  Otherwise, if you later refer to Smith without having introduced him, people would not know who you are talking about. The way in which computers “read” programs, especially these very simple programs, is very similar to the way humans read text. You could extend the analogy: the idea of a hyperlink is like including an external library, and so on. The basic grammar of most programming languages is really quite simple compared to the grammar of a natural language: you have conditionals, loops, functions – that is about all.

    smg6

    Sample slide from “Teaching JavaScript as a natural language” presentation delivered at BrooklynJS, February 2014.

    B: One last question: what do you think of the Binaire blog? Do you have any advice for us?
    S- The time to load the pages is too long. For most news organizations, an increasing proportion of visitor traffic is coming from mobile. The system should sense that the reader has low bandwidth and adapt to it.

    B- Is there anything else you would like to add?
    S- When it comes to computer science programming and technology, to the audiences who may not be familiar with it, I like to say: you can do it! Douglas Rushkoff once drew a great parallel between programming and driving, and it probably takes the same level of effort to reach basic competency with each. But one big difference is that we see people – all different kinds of people – driving, all the time. Computer science and programming, meanwhile, are invisible, and the people given the most visibility in these fields tend to look alike. Yet they are both arguably essential skills in today’s world. If you want to be able to choose your destination, you must learn to drive a car. Well, in this day and age, if you want to be able to direct yourself in the world, you must learn to think computationally.

    Explore computational thinking. You can do it!

    Susan McGregor, Columbia University

    (*) Mooc, Massive online courses. In French, Flot, Formation en ligne ouverte

     

  • Coder : entre vice et plaisir

    Le phalanger volant (glider) proposé comme emblème de la communauté des hackers.

    Dans la définition (anglaise) sur Wikipedia de « Hacker » on découvre que ce mot peut désigner

    1. Celui qui cherche et exploite les faiblesses d’un système informatique,
    2. Celui qui innove dans le domaine de l’électronique ou de l’informatique, et
    3. Celui (ou celle) qui combine l’excellence, la ruse, et l’exploration dans ses activités.

     

     

    Dans la page française, c’est un brin plus sobre :

    1. Hacker, spécialiste de la sécurité informatique
      ou
    2. Hacker, personne qui aime comprendre le fonctionnement interne d’un système, en particulier des ordinateurs et réseaux informatiques.
    Le bitesize de la BBC inclut des jeux et un guide du nouveau parcours de formation des enfants au code. ©BBC

    Sur ces bases, il est possible d’imaginer que nombreux sont ceux qui pensent que le hacker développe de façon positive son imagination, code, invente, crée. Qu’il reflète le plaisir exprimé par le jeune Max, 10 ans, choisi par la BBC dans le cadre de l’effort national qui fait que depuis le 1er septembre 2014 c’est depuis l’âge de 5 ans qu’on enseigne la programmation aux jeunes Britanniques.

    Le lecteur averti de cet article aura cependant noté que parmi les 3 définitions en anglais et les 2 en français l’une pouvait permettre une interprétation malicieuse. C’est celle qu’a choisi –semble-t-il- un homologue français de la BBC, qui fait dire à un personnage « hacker, c’est un escroc du net ».

    Ou le choix entre proposer que coder soit un plaisir… ou un vice.
    Colin de la Higuera.

  • Science participative & informatique

    IMG_8603
    © @Maev59

    Par certains aspects la science informatique du XXIème siècle est participative ou du moins, elle permet à d’autres disciplines de le devenir. De quoi s’agit-il en fait ? Pour mieux comprendre cette démarche, nous vous proposons de considérer trois exemples précis.

    • La science est un bien commun accessible à tou·te·s, elle peut-être participative.
    • La recherche scientifique est un métier qui nécessite beaucoup d’années d’études.
      Il faut bien distinguer les deux

    1. Le Crowdsourcing ou comment utiliser une foule de cerveaux humains

    Des travaux scientifiques expérimentaux et ludiques permettent de confier des tâches que des machines ont du mal à réaliser, au village humain relié par Internet, au service de la recherche scientifique ou de la culture. Cela se fait à une échelle techniquement inaccessible à une équipe de recherche, même la mieux dotée du monde.

    • Ainsi, Fold.it est un jeu de puzzle sur le repliement des protéines. Les scientifiques ont su réduire à un jeu combinatoire le problème très compliqué de trouver un niveau d’énergie optimal au repliement d’une protéine. Ils profitent des capacités naturelles du cerveau humain pour aider à résoudre ce type de problème exploratoire, avec à la clé un vrai résultat scientifique. Un autre exemple dans la même veine en lien avec les maladies génétiques est par exemple Phylo.

      logo-foldit
      © http://fold.it
    • La capacité naturelle de reconnaissance des formes du cerveau humain est utilisée par exemple pour classer des galaxies dans Galaxyzoo avec la participation d’un très grand nombre d’astronomes amateurs. Ce travail collectif massif peut même prendre une forme involontaire comme avec Recaptcha quand nous devons saisir des caractères lus sur une image pour prouver que nous sommes une personne et non un algorithme sur une page web. Le micro-travail de cette multitude de personnes sert aussi à la numérisation de qualité de nos bibliothèques : la photo des textes à numériser est découpée en petites images qui sont proposées dans les formulaires de façon à ce qu’un humain lise le texte de l’image et le rentre au clavier.

      logo-recapcha
      © recapcha.net

    On est donc devant une nouvelle approche : ce n’est plus uniquement grâce à la puissance des calculs et à la création de nouveaux algorithmes qu’émergent des travaux scientifiques (ex : comme ce fut le cas pour la reconstruction des régions codantes du génome humain). C’est grâce à la capacité de faire coopérer des milliers de cerveaux humains sur certains problèmes précis (exploratoires ou de reconnaissance) qui dépassent justement la capacité des calculs numériques. L’écueil serait évidemment d’en déduire que toute la science se ferait par-la-foule. On ne va évidemment pas faire voter la foule sur la véracité d’un théorème mathématiques, par exemplr.

    Quel est le rôle du public ici ? Celui d’accepter de «prêter son intelligence » souvent dans le cadre d’un jeu. En fait-t-on pour autant un spécialiste de l’ADN ou d’astronomie ou l’aide-t-on à augmenter sa culture scientifique sur ces sujets ? Pas lors de cette activité. On lui offre simplement l’occasion de découvrir que l’expérimentation numérique de phénomènes scientifiques peut-être amusante. Cela peut simplement lui donner le goût des sciences.

    2. L’utilisateur devenant co-validateur

    view-brainTV
    © braintv.org

    Quand on mesure en situation réelle l’activité cérébrale profonde d’un patient, ou que l’on robotise un environnement quotidien pour augmenter le bien-être face à un handicap, il est juste insensé d’imaginer travailler sans associer l’utilisateur final en tant que validateur de ces volets du travail de recherche. C’est le cas des travaux exemplaires de Jean-Philippe Lachaux qui a mis au point BrainTV, un système permettant au patient d’observer lui-même son activité cérébrale ou l’équipe de David Guiraud qui affirme le rôle essentiel du patient dans ses recherches permettant de restaurer la marche chez le paralytique grâce à une puce électronique reliée à ses muscles (ceci grâce aux progrès de la simulation numérique).

    Une telle démarche se retrouve à un autre niveau dans l’Interaction Homme-Machine, quand Wendy Mackay explique que l’enjeu n’est pas de mettre « l’humain dans la boucle [de la machine] » mais bien la machine dans la boucle des activités humaines. L’utilisateur numérique devient co-validateur du progrès du numérique.

    view-apisense
    © apisense.com

    Bien entendu l’usage même que nous faisons du numérique est soigneusement étudié. Cela peut être fait en toute transparence et la plateforme Apisense, par exemple, sollicite une communauté d’utilisateurs volontaires, en les associant à la démarche et en partageant avec eux objectifs et résultats.

    Que se passe-t-il ici ? Au lieu de séparer l’objet et l’acteur des recherches, on fait le choix de profiter des interactions qu’il peut y avoir entre eux.  Là encore, sans transférer de compétences professionnelles, la science devient participative.

    3. La contribution du public aux collectes de données

    Le muséum d’histoire naturelle, cet institut de recherche qui étudie notre environnement naturel,  propose depuis des années au public de faire des mesures de comptage de populations dans la nature pour évaluer l’évolution de la biodiversité. Une démarche rigoureuse qui permet d’accorder un bon degré de confiance à la collecte de ces données. Ce sont les chercheurs qui décident ce qu’il y a lieu à mesurer et surtout comment exploiter ces données. Conçue dès le départ comme une démarche de médiation scientifique, un effet retour sur la prise de conscience des problèmes environnementaux a été obtenu grâce à cette démarche de partage de pratiques scientifiques et à la découverte de connaissances naturelles (activités scolaires générées). On fait de la science « pour de vrai » disent les enfants.

    view-Pl@ntNet
    © plantnet.net

    De même, le projet Pl@ntNet, met à disposition sur sa plateforme un logiciel interactif pour identifier les plantes que l’on rencontre sur le terrain et partager les observations effectuées. Que se passe-t-il ici ? Le public est recruté comme « un assistant du chercheur » pour démultiplier son action. Son avis est bien entendu écouté au delà de son travail de terrain. Et le fait de pouvoir le faire participer à une véritable étude expérimentale est une profonde marque de reconnaissance et de respect. La généralisation à d’autres disciplines n’est pas forcément possible. En effet, en science informatique par exemple, le fait que les élèves de France soient privés de son enseignement, empêche de proposer ce type de démarche en lien avec une science qui ne leur est pas familière.

    D’autres partenariats institution-citoyen existent. En Île de France, 1% du budget de la recherche a été consacré à voir dans quelle mesure développer des projets de recherche à deux voix : scientifique & citoyenne, avec une méthode contractuelle d’appel d’offre rigoureuse et paritaire (scientifiques/société). Les résultats sont encore à évaluer.

    Pour conclure

    Ces trois familles d’exemples de démarches ne se réduisent pas les unes aux autres, n’appartiennent pas aux mêmes paradigmes, ne positionnent pas les acteurs dans les mêmes rôles.  Bref : il n’y a pas de recherche participative, il y a des recherches participatives.

    Thierry Viéville

  • Le pacs des humanités et du numérique

    On parle d’humanités numériques  autour de la proposition du Conseil National du Numérique d’un « bac HN ». Un chercheur en humanités aujourd’hui consulte des documents sur Internet, produit des sources numériques, les indexe, classe ses informations dans des bases de données, invente de nouveaux corpus de sources, tweete, blog, prépare des Mooc, discute à distance avec ses collègues, ses étudiants, etc. Les humanités sont devenues numériques. Une historienne et un informaticien nous parlent du sujet. L’article complet peut être trouvé sur HAL.

    histoire-numeriqueLes humanités numériques se définissent au départ par des outils numériques au service de la recherche en sciences humaines et sociales, des outils pédagogiques pour enseigner dans ces domaines. Mais, le sujet dépasse largement le cadre de ces seuls outils. Tous les savoirs se transforment au contact de la pensée informatique, les disciplines évoluent, les frontières bougent. C’est toute la complexité des humanités numériques.

    Les humanités. Le terme est imprécis. Prenons-le dans un sens très général, en y incluant l’histoire, la linguistique, la littérature, les arts et le design, mais aussi la géographie, l’économie, la sociologie, la philosophie, le droit, la théologie et les sciences des religions.

    Le numérique et l’informatique. Il nous faut ici considérer l’articulation entre le monde numérique et la science qui en est au cœur, l’informatique. Par exemple, le Web, si essentiel dans les humanités numériques, est une des plus belles réalisations de l’informatique. Mais il tient aussi d’une philosophie humaniste : la mise à disposition pour tous, le partage. L’informatique est à la fois une science et une technique, qui propose des outils et développe de nouvelles formes de pensée ; elle a donné naissance au monde numérique, avec ses usages et ses cultures propres.

    Des outils et une pensée

    Le point de départ des humanités numériques est la représentation de l’information et des connaissances sous forme numérique. Les premières applications furent la numérisation de textes (notamment à partir d’OCR, « optical character recognition »), mais aussi de photos, de films, de la musique, de cartes géographiques, de plans d’architecture, etc. Les scientifiques (en SHS ou pas) ont vite compris l’intérêt de réunir des données de natures différentes, de les organiser dans des bases de données. Les bases de données ont été combinées à deux grandes inventions de l’informatique, l’hypertexte et le réseau Internet, pour conduire aux « bibliothèques numériques ». Par exemple, le Projet Perseus  de l’université Tufts s’est attaqué à la construction d’une bibliothèque numérique qui rassemble des textes du monde méditerranéen en grec, latin et arabe. Les textes numérisés, indexés, disponibles sur la Toile, sont facilement accessibles à tous. A l’heure du Web, les étudiants, mais aussi les amateurs, les journalistes, tout le monde a accès à des sources d’informations considérables.histoire-numerique-clio

    Si la bibliothèque numérique peut être vue comme un des piliers des humanités numériques, le « réseau numérique » en est certainement un autre. Le travail des chercheurs repose depuis toujours sur l’existence de réseaux. On échangeait des lettres. On voyageait pour consulter une bibliothèque ; on en profitait pour rencontrer ses homologues locaux. Ces échanges, ces rencontres physiques participaient à produire et enrichir les connaissances. Pour les scientifiques (en sciences humaines ou pas), le réseau numérique transforme le travailler ensemble. On peut partager des textes, les annoter ensemble, les commenter, voire corédiger des contenus très riches en s’éloignant du texte linéaire bien défini aux auteurs bien précisés. Pour citer un exemple riche en symbole, le projet  « Mapping the republic of letters », lancé par Stanford, a permis de mettre en commun des recherches pour étudier comment, depuis la Renaissance, les lettrés européens partageaient leurs connaissances à travers des textes et des rencontres. Un réseau social numérique pour expliquer un réseau social « classique » ! Ce passage au travail en réseau s’accompagne de changements fondamentaux dans nos rapports aux connaissances. Un univers des fragments se substitue aux contributions monolithes. Les outils de recherche, les sites de corédaction encouragent cet effet, qui s’accompagne aussi de l’affaiblissement de la contribution de l’auteur individuel devant les contributions du groupe.

    Jusque-là nous avons surtout parlé d’information, évoquons maintenant les connaissances. À une petite échelle, on introduit des connaissances pour expliquer un document, des éléments qui le composent, des services Web. C’est la base du Web sémantique. Des balisages permettent par exemple de préciser le sens des mots d’un texte, de faire des ponts entre des ressources distinctes avec le linked data. Un des premiers exemples très populaire de balisage de texte est le « Text encoding initiative », initié en 1987. Le but du balisage était de permettre de trouver plus facilement de l’information dans de larges collections de textes de bibliothèques. Avec les ontologies, un pas supplémentaire est franchi pour atteindre le monde des connaissances structurées, classifiées, organisées. Par exemple, l’ontologie Yago a été construite à partir de la version anglaise de l’encyclopédie textuelle Wikipédia, en utilisant un logiciel développé à l’Institut Max Planck. En 2011, Yago avait déjà 2 millions d’entités et plus de 20 millions de relations entre ces entités.

    La machine peut aider à obtenir toujours plus de connaissances. Il est intéressant de remarquer que le calcul de connaissances « quantitatives » est à l’origine de ce qui est souvent cité comme le premier travail en humanité numérique : Roberto Busa, un jésuite italien, a imaginé dans les années quarante et réalisé ensuite, l’analyse linguistique basée sur l’informatique des œuvres complètes de Thomas d’Aquin. Les techniques d’analyse de texte qu’il a utilisées (indexation, contexte, concordance, co-occurrence, etc.) sont utilisées aujourd’hui dans de nombreuses disciplines notamment en histoire ou en littérature. Peut-être les plus paradigmatiques exemples de cette analyse de données (notamment de par leurs masses) viennent de Google trends. Google trends permet d’avoir accès à la fréquence d’un mot dans les requêtes au moteur de recherche Google (près de 10 milliards de requêtes par jour en 2014). Il a donné lieu à de nombreuses études comme la détection d’épidémie.

    Dans les sciences physiques et les sciences de la vie, la modélisation numérique tient une place considérable. En simplifiant, le chercheur propose un modèle du phénomène complexe étudié, et le simule ensuite numériquement pour voir si les comportements résultants correspondent à ceux observés dans la réalité. Parmi les plus grands challenges actuels, on notera par exemple Le « Blue brain project » lancé à l’Ecole Polytechnique Fédérale de Lausanne qui vise ni plus ni moins que de simuler numériquement le cerveau humain. La modélisation et la simulation tiennent une place grandissante en SHS. La sociologie est en particulier un candidat évident. Il est possible de s’appuyer sur la modélisation (extrêmement simplifiée) des comportements d’un très grand nombre d’acteurs (agent dans une terminologie informatique populaire) et de leurs interactions avec leur environnement.6340497bb01b04f0d7b4e00ca32ff638 La puissance de calcul de clusters d’ordinateurs permet ensuite de réaliser des simulations. La comparaison des résultats avec la réalité permet de « paramétrer » le modèle, voire de le modifier, pour mieux coller à la réalité observée. Nous retrouvons par exemple l’étude  de Paola Tubaro et Antonio Casilli sur les émeutes de Londres. Ils ont cherché à savoir si la censure des médias sociaux proposée par David Cameron avait un effet sur le développement d’émeutes. A l’aide d’une simulation numérique, ils ont montré que la censure participait à augmenter le niveau général de violence.

    Et nous conclurons ce tour d’horizon rapide des humanités numériques par l’archivage, un domaine véritablement bouleversé par le numérique. On peut mentionner par exemple Europeana , une bibliothèque numérique européenne lancée en novembre 2008 par la Commission européenne qui compte déjà plus de 26 millions d’objets numériques, textes, images, vidéos, fin 2013. Les États européens (à travers leurs bibliothèques nationales, leurs services d’archivages, leurs musées, etc.) numérisent leurs contenus pour assurer leur conservation, et les mettent en commun. De telles initiatives permettent d’imaginer par exemple que dans moins de 50 ans des historiens trouveront numériquement toutes les informations dont ils ont besoin, passant d’une archive à une autre simplement en changeant de fenêtre sur leur écran.

    Avec le numérique, nous sommes passés pour l’information disponible d’une culture de rareté, à une culture d’abondance. Devant le déluge informationnel, il n’est pas simple de choisir ce qu’il faut conserver, un vrai challenge pour les archivistes. Les institutions comme les Archives Nationales, la BNF (Bibliothèque Nationale de France) et l’INA (Institut National de l’Audiovisuel), et des outils anciens comme le dépôt légal se sont transformés. Que seront devenues les pages du Web d’aujourd’hui dans 50 ans quand des chercheurs voudront les consulter ? Des fondations comme Internet Archive  aux Etats-Unis ou Internet Memory  plus près de nous, s’attaquent au problème avec les grandes institutions d’archivage.

    Limites de la technique. Les humanités numériques ont modifié les modes de travail et de pensée dans les sciences humaines et sociales. Il faut pourtant être conscient de leurs limites. Si les opportunités sont nombreuses, tout n’est pas possible. Certains problèmes demandent des puissances de calcul dont nous ne disposons pas ou que nous n’avons pas les moyens de mobiliser pour un problème particulier. Surtout les plus grandes avancées en humanités reposent sur l’intelligence d’humains qui découvrent la bonne question, énoncent la bonne hypothèse, proposent l’approche révolutionnaire. Si les machines peuvent aider, elles ne sont pas prêtes de fournir cela. Et puis, dans le cadre des SHS, il faut aussi savoir accepter les limites de l’objectivité. Le problème de l’analyse qualitative des données reste entier. Bruno Latour écrivait en 2010 : « Numbers, numbers, numbers. Sociology has been obsessed by the goal of becoming a quantitative science. » Les humanités numériques ne peuvent se réduire à des équations ou des algorithmes (les plus beaux soient-ils) et des nombres. Le sujet principal est l’être humain bien trop complexe pour être mis dans sa globalité en équation ou même en algorithme.

    robot-poppy
    Poppy, un robot pour populariser et démystifier les sciences du numérique.

    La convergence entre sciences et humanités. Un ordinateur est une machine à tout faire (« general purpose ») ; le même système peut être utilisé que la science soit « humaine » ou « dure », et le même algorithme peut être utilisé dans les deux cas. Les méthodes, les concepts, les techniques, les outils de l’informatique rapprochent les chercheurs de toutes ces disciplines, réduisant en particulier le gouffre qui s’est créé entre les SHS et les sciences « dures ». Les principes même de la « pensée informatique » (computational thinking) sont généraux. Les convergences sont si fortes que plutôt que de parler d’humanités numériques, peut-être aurions-nous dû discourir de « sciences numériques » en général. Evidemment une telle convergence n’implique pas la confusion. Un modèle formel des sentiments dans la poésie romantique n’a rien à voir avec un modèle numérique de l’anatomie du cœur humain. Si l’informatique se met au service des sciences humaines et sociales, ce ne doit pas être pour les appauvrir mais au contraire, avec de nouveaux outils, une nouvelle pensée, pour leurs permettre de découvrir de nouveaux territoires.

    Inventer un nouvel humanisme. Avec notamment Internet et le Web, le numérique a encouragé la naissance d’une nouvelle culture basée sur le partage et l’échange. Dans des développements comme les logiciels libres ou Wikipédia, les ambitions de cette culture sont claires, l’invention d’un nouvel humanisme. Il nous semble que les humanités numériques doivent participer à ce mouvement car quelle plus grande ambition humaniste que la diffusion des connaissances et de la culture à toutes et tous ?

    Serge Abiteboul (INRIA & ENS Cachan), Florence Hachez-Leroy  (Université d’Artois & CRH-EHESS/CNRS)

  • Il a existé une culture écrite avant le linéaire B

    Ceux qui, tel Michel Onfray voienttwitt-onfray-oct14 un oxymore dans le fait de rapprocher humanités et informatique, ou apprentissage de l’écriture et apprentissage de la programmation, propagent une vision singulièrement partielle de la culture écrite.

    Tablette précunéiforme, ©2011 Musée du Louvre, thierry Ollivier
    Tablette précunéiforme, ©2011 Musée du Louvre, Thierry Ollivier

    Les premières traces écrites dont nous ayons connaissance, des tablettes qui datent de 3300 av. J.-C., sont pour la plupart des pièces de comptabilité ou d’inventaire (voir par exemple les tablettes archaiques), qui expriment des données sur lesquelles des algorithmes opèrent, notamment des algorithmes de comparaison d’entiers naturels et de listes.

    Face à l’irrédentisme de ceux qui nient la dimension technique de l’écriture, réaffirmons que l’écriture est antérieure au linéaire B, que les humanités et les sciences ont beaucoup à s’apprendre et qu’imaginer un professeur de sciences et un professeur de lettres travaillant ensemble n’est une bizarrerie que dans leur tête.

    Gilles Dowek

  • Françoise en Israël

    Le sujet de la formation à l’informatique a été beaucoup débattu en France récemment. Mais en dehors de l’hexagone ? On se pose les mêmes questions ? D’autres pays auraient-ils eut l’audace de prendre de l’avance sur nous ? Binaire a proposé à Françoise Tort, chercheuse à l’ENS Cachan et co-responsable en France du concours CASTOR informatique, d’interroger des collègues à l’étranger. Leurs réponses apportent beaucoup à nos débats parfois trop franchouillards.

    FT_Israel

    Tour d’horizon de l’enseignement de l’informatique… Après la Bavière, Françoise nous emmène en Israël.

    photo 2

    Note sur le système scolaire Israélien : Le système scolaire Israélien est centralisé. Le ministère de l’Éducation détermine la politique de l’éducation à tous les niveaux, de la maternelle à l’enseignement supérieur, et met en œuvre cette politique, avec l’aide de comités professionnels. La scolarité est divisée en trois périodes : six années d’école élémentaire, trois années de collège et trois années de lycée. Les dix premières années d’enseignement sont obligatoires. Chaque matière est divisée en modules d’environ 90 heures ; certaines matières offrent différents niveaux de spécialisation, les plus courants sont un  programme en trois modules pour un enseignement général et en cinq modules pour un enseignement approfondi.

    judith-gal-ezer-1Entretien avec Judith Gal-Ezer, professeure au département de mathématique et d’informatique de l’Open Université d’Israël (OUI), chercheuse en didactique de l’informatique, présidente du comité des programmes pour l’informatique du ministère de l’éducation Israélien, membre du CSTA (Association internationale des enseignants d’informatique, fondée par l’ACM).

    Environ 300 heures centrées sur la résolution de problèmes algorithmiques

    Depuis 1995, l’informatique est enseignée dans les lycées israéliens, au même titre que les autres disciplines scientifiques (physique, biologie, chimie). Ce sont des enseignements optionnels, comme pour les autres disciplines.  Il existe deux programmes d’enseignement : l’un comporte 3 modules et est adapté aux élèves qui ont un intérêt général pour la matière. L’autre comporte 5 modules et est destiné aux élèves qui souhaitent avoir une connaissance plus approfondie de la matière. Un module correspond à 90 heures de cours étalé sur un semestre, soit 3 heures par semaine. Dans la mesure où la plupart des élèves suivent le programme le plus court, un effort est fait pour que ce programme couvre le plus possible toute la discipline.

    Le programme est centré sur les concepts clés et les fondements de la science informatique, il met l’accent  sur la notion de problèmes algorithmiques et leurs solutions et leur implémentation dans un langage de programmation. Un second paradigme de programmation, les structures de données et la calculabilité sont également abordés.  Ce programme a fait l’objet de mises à jour régulières depuis sa création, la plus importante ayant été l’introduction de la pensée orientée objet.

    « Semer les graines » qui aideront les jeunes dans tous les domaines.

    Je pense que l’objectif de l’enseignement de l’informatique à l’école n’est pas de « produire » de futurs professionnels qui trouveront des emplois dans l’industrie. Il s’agit plutôt de « semer des graines » en initiant les élèves aux fondements de la discipline. Une exposition dès l’école à ce domaine aide les jeunes à choisir plus tard des carrières dans l’industrie ou dans la recherche.

    La résolution de problèmes est au cœur de l’informatique. Son apprentissage et sa pratique demandent aux élèves de savoir spécifier les problèmes clairement et sans ambiguïté, de décrire une solution algorithmique qui soit « robuste » (convenant même dans des situations limites), « correcte » (qui donne le bonne solution) et efficace (dont la complexité est connue). A chaque étape de ce processus, les élèves acquièrent des compétences de base qui leur seront utiles dans tous les domaines qu’ils choisiront d’étudier.

    L’informatique a également des liens avec l’ensemble des autres domaines scientifiques et aussi humanistes.  La quasi-totalité des percées scientifiques d’aujourd’hui sont rendues possibles grâce à la puissance de l’informatique et au travail des informaticiens. Enfin, l’invention des ordinateurs au 20ème siècle a radicalement changé la façon dont nous vivons et travaillons. Il est difficile de prédire l’avenir, mais on peut dire sans se tromper que les personnes qui ne comprennent pas l’informatique seront exclues de ses avantages potentiels.

    Un centre national de formation des enseignants

    Quand le programme a été conçu, il y a maintenant 20 ans, la commission responsable de sa conception avait été très claire sur le fait que les enseignants certifiés pour enseigner l’informatique devraient être diplômés d’un premier cycle universitaire (bachelor’s degree) dans cette discipline en plus du diplôme de formation à l’enseignement. Cette exigence fut officiellement adoptée dès le début.

    De plus, un centre national de formation pour les enseignants d’informatique a été créé. Il assure la formation continue des enseignants en poste et les aide à entretenir une communauté professionnelle dynamique. Il propose une conférence annuelle, des cours et ateliers sur des questions propres au programme du lycée, des documents et du matériel pédagogiques, et une revue pour les enseignants.

    Un effort nécessaire pour encourager les jeunes

    Le nombre des élèves choisissant l’informatique a augmenté régulièrement jusqu’en 2004, il a ensuite diminué. Depuis lors, la part des élèves diplômés ayant choisi cette option se stabilise à  environ 15%.

    Dans une recherche récente, nous avons montré que les élèves qui ont été initiés à l’informatique au lycée, et en particulier ceux qui suivaient le programme long de 5 modules,  étaient plus susceptibles de poursuivre des études dans l’un des domaines de l’informatique dans l’enseignement supérieur. Ceci est d’autant plus vrai pour les jeunes filles.

    Concernant les filles justement, environ 40% des étudiants qui choisissent l’informatique au lycée sont des filles, mais elles ne représentent que 30% des étudiants ayant choisi le programme long de 5 modules. Il y a encore du travail à réaliser pour encourager les jeunes filles à se former à l’informatique.

    Un programme pour le collège en préparation

    Il y a 20 ans, alors que nous développions un programme pour le lycée, il nous apparaissait évident qu’un programme pour le collège était nécessaire. Or, depuis 2 ans, un programme pour les collèges est en cours de développement et déjà en œuvre dans plusieurs établissements. Les principales difficultés rencontrées sont liées à l’affectation et la formation des enseignants.

    4 facteurs de succès essentiels

    Je pense que la réussite de l’enseignement d’informatique en Israël repose essentiellement sur :

    • le programme bien établi et régulièrement mis à jour ;
    • l’obligation officielle d’un diplôme en informatique pour la certification des enseignants ;
    • une offre, par les universités, de programmes préparatoires pour les futurs enseignants et de formation continue pour les enseignants titulaires ;
    • une communauté de chercheurs très dynamiques ;

    Et j’ajouterai : un corps d’enseignants bien établi et motivé.

     


    Pour en savoir plus 

    – Une description du  programme de l’enseignement de l’informatique au secondaire en Israël publiée en 1995.

    – Une proposition de programme pour le collège en Israël publié en 2012, à accès restreint

     

     

  • Jules Ferry 3.0

    Le 3 octobre 2014, le Conseil national du numérique (CNNum) a publié ses recommandations pour bâtir une école créative et juste dans un monde numérique. Le titre du rapport est Jules Ferry 3.0 – rencontre improbable entre l’un des pères fondateurs de l’identité républicaine et le Web 3.0, le Web des connaissances. Serge Abiteboul, qui est membre du CNNum et a participé à l’écriture du rapport, et Gilles Dowek, qui a été auditionné dans le cadre de sa préparation, considèrent pour Binaire un des aspects abordés par ce rapport : l’enseignement de l’informatique.

    Jules_Ferry_Nadar

    Jules Ferry, Wikipédia

    Notre idéal éducatif est tout tracé. L’éducation du peuple aujourd’hui a une dimension personnelle. Son objectif est de donner à chacun sa chance non pas en servant à chacun la même soupe amère au nom d’une égalité mal comprise mais en permettant à chacun d’accéder à l’éducation adaptée à sa demande, Jules Ferry, 1870

    Programme ou tu seras programmé ! Douglas Rushkoff, 2012

    L’École traverse une crise existentielle : elle paraît bien désarmée face à la révolution numérique et peine, par exemple, à intégrer un enseignement de l’informatique dans ses programmes. Pour essayer de contribuer à cette nécessaire transformation de l’École, le Conseil National  du Numérique évoque, dans un rapport publié ce 3 octobre, les mânes de  l’idéal républicain et  réaffirme la nécessité de l’École gratuite et obligatoire pour tous : « L’enseignement de l’informatique de l’école primaire au lycée. C’est une réponse à l’attente sociale d’une politique de l’égalité : permettre à tous les élèves d’avoir une « clé » pour comprendre le monde numérique, participer à la vie sociale et se préparer à de nouveaux mondes professionnels. »

    Le défi est immense : il faut « Construire l’école solidaire et créative d’un monde numérique » et il faut agir rapidement, comme le soulignait déjà le rapport publié l’année dernière par l’Académie des Science, « Il est urgent de ne plus attendre ».
    Le rapport du CNNUM est organisé en 7 chapitres qui structurent ses recommandations :
    1.    Enseigner l’informatique : une exigence
    2.    Installer la littératie de l’âge numérique
    3.    Oser le bac Humanités Numériques
    4.    Vivre l’école en réseau
    5.    Relier la recherche et l’éducation
    6.    Accompagner l’explosion des usages éditoriaux
    7.    Accepter les nouvelles industries de la formation

    Ce rapport est riche et touffu et nous en conseillons la lecture à tous ceux qui s’intéressent aux questions d’éducation. Nous nous limitons dans ce post au premier chapitre, consacré à l’enseignement de l’informatique, parce qu’il nous semble particulièrement important pour le futur de notre pays et parce qu’il rejoint un combat que nous menons depuis plusieurs années.

    Cette exigence d’enseigner l’informatique, qui revient dans de nombreux rapports, en France comme à l’étranger, est en train de s’imposer. Le rapport va plus loin en proposant trois mesures simples et concrètes pour lancer son installation :

    • A l’école primaire : offrir aux professeurs la formation en informatique qui les aidera à répondre aux attentes de leurs élèves.
    • Au collège : démarrer un enseignement d’informatique d’un an, en classe troisième,  sur le temps de la technologie, centré sur la programmation et de l’algorithmique.
    • Au lycée : offrir à tous les élèves la possibilité de choisir l’option Informatique et Science du Numérique en terminale.

    Le rapport insiste sur un indispensable renouvellement des méthodes pédagogiques qui doit accompagner un enseignement de l’informatique. Ce nouvel enseignement doit, par exemple, être l’occasion de développer un enseignement par projet, aujourd’hui encore trop limité dans nos Écoles. En plaidant pour que ces projets soient le plus souvent possible proposés en collaboration avec d’autres disciplines, le rapport suggère aussi d’estomper les murs qui séparent trop souvent les disciplines.

    Le rapport insiste également sur l’aspect qui nous semble le plus important pour faire de cette métamorphose de l’École une réussite : la formation des professeurs. Pour le collège et le lycée, il rappelle la nécessité de développer un corps de professeurs d’informatique ayant reçu une formation solide dans la discipline, de niveau bac+5, car c’est le niveau requis en mathématiques, en physique, en anglais ou en latin. Le rapport propose des chiffres précis. Par exemple, enseigner l’informatique au collège demande 3500 postes. Et l’expérience a montré que l’on était bien loin de fournir un tel nombre d’enseignants en «  transformant » simplement des enseignants d’autres disciplines en informaticiens. Il est donc urgent  pour l’Éducation nationale de recruter des informaticiens.  Des pistes sont suggérées dans le rapport pour trouver les candidats dont notre système éducatif a besoin.

    Si l’enseignement de l’informatique est l’objet du premier chapitre, il est présent à plusieurs autres endroits du rapport. Il permet par exemple d’établir une littératie numérique sur des bases solides. Il se marie à l’enseignement des  humanités, pour construire le Bac Humanités numériques, etc. La proposition de ce Bac Humanités numériques va à l’encontre de l’idée reçue que l’informatique est une affaire qui   concerne uniquement les scientifiques, voire les ingénieurs. L’enseignement de l’informatique doit au contraire s’adresser à toutes et  tous, et peut-être au lycée, en priorité aux littéraires qui, plus que les autres élèves, risquent de rater leur dernière chance d’apprendre un peu d’informatique.

    Le CNNum s’est autosaisi de ce sujet de l’éducation au numérique. Il a longuement écouté des spécialistes de la question, beaucoup de professeurs et d’intervenants de l’éducation populaire. C’est ce long travail coopératif qui a abouti à ces propositions. Ces propositions ne constituent qu’un début, et gageons qu’on reprochera au CNNum de ne pas être allé assez loin. Mais ces propositions ont le mérite d’être réalisables à la rentrée prochaine.

    Ces propositions demanderont certes de l’énergie et on peut parier que la tâche paraîtra certainement insurmontable au Ministère de l’Éducation nationale. Elle le serait sans doute si ce ministère agissait seul, mais c’est un effort collectif qu’il s’agit d’organiser, avec les élèves qui jouent là leur avenir, les familles qui sont en demande,  les professeurs, sur les épaules desquels repose la responsabilité de la réussite de ce projet, les entreprises qui ont besoin d’employés compétents, et la société dans son ensemble, qui vivra plus harmonieusement avec des citoyens à même de comprendre le monde numérique dans lequel ils évoluent.

    Nous sommes tous concernés et c’est collectivement que le pays doit saisir cette occasion.

    Serge Abiteboul et Gilles Dowek

  • Antoine Petit, Président Directeur Général d’Inria

    Antoine Petit vient d’être nommé Président Directeur Général d’Inria, établissement public de recherche dédié aux sciences du numérique (le 28/9/2014). Comme il était au bon vieux temps professeur à l’Ecole Normale Supérieure de Cachan, Binaire a demandé à Alain Finkel, professeur à l’ENS Cachan, qui l’a côtoyé quand il était encore professeur, de nous parler de cette personnalité du monde de la recherche en informatique. Il nous raconte un chercheur, un enseignant, la genèse d’un dirigeant.

    antoineAntoine Petit

    Je connais Antoine Petit depuis 30 ans. Je l’ai rencontré au début des années 1980 dans un groupe de recherche qui utilisait la théorie des langages pour étudier le calcul parallèle et la vérification de programme. Les séminaires avaient lieu dans le sous-marin au LITP*. Antoine faisait sa thèse avec Luc Boasson. Je me souviens de discussions passionnées : Luc soutenait que la recherche devait être motivée par le plaisir quand Antoine défendait qu’il fallait aussi s’intéresser aux applications. Antoine aura par la suite à cœur de faire, personnellement, de la recherche fondamentale en prise avec les applications et, comme responsable, d’éviter qu’un laboratoire ne s’enferme dans une recherche uniquement  fondamentale.

    J’ai retrouvé Antoine à l’Université Paris Orsay où nous étions tous les deux maitres de conférences. J’ai été impressionné par sa grande liberté de penser, son absence d’à priori et de préjugés, qui lui permettent de trouver des solutions originales pour atteindre ses objectifs. J’ai découvert ses capacités exceptionnelles : il est à la fois un chercheur brillant (beaux résultats, très belles présentations pédagogiques, papiers dans les très bonnes conférences) et un stratège hors-norme. S’il y avait dans notre domaine d’autres chercheurs brillants, je n’en connaissais pas avec ses talents de stratège.

    picture-015Antoine Petit, à la Conférence annuelle sur « Computer Science Logic », 2001, @ LSV

    En 1995, il est devenu professeur à l’ENS Cachan. C’est aussi un enseignant brillant. C’est un spécialiste de ces méthodes formelles qui permettent de vérifier des systèmes informatiques calculant en le temps réel, et avec plusieurs processus en parallèle». Il a notamment dirigé la thèse d’une de nos stars, Patricia Bouyer, sur les automates temporisés (des automates finis auxquels on adjoint des horloges ce qui permet d’exprimer et vérifier des propriétés temporelles). Patricia est aujourd’hui DR CNRS, médaille de bronze et prix EATCS Presburger. Malgré ses responsabilités, Antoine a tenu à continuer à faire de la recherche jusqu’assez récemment .

    Les débuts de l’informatique à l’ENS Cachan ne furent pas toujours faciles. Certains  collègues d’autres disciplines souhaitaient une informatique à leur service. Comme Directeur du département Informatique (1995 a 2001), Antoine a eu à négocier pied à pied. Il ne quittait pas ses objectifs de vue et savait déployer une grande créativité pour les atteindre ou résister aux contraintes. Les arguments d’autorité n’avaient aucune prise sur lui. Ni la colère ou les menaces de son interlocuteur. Antoine n’est pourtant pas infaillible. Il a échoué à faire évoluer la cantine de l’ENS Cachan sur un point important. En 1995, il était possible de prendre deux plats définis à l’avance, écrits sur un tableau, par exemple un « steak haricot verts » ou un « poulet frites » mais pas une combinaison comme un « steak frites », et cela bien que les différents composants soient dans des bacs séparés. Antoine s’est battu mais il a perdu.  L’ensemble {steak, poulet, haricots verts, frites¬¬} muni de la combinaison cantinière officielle n’était pas un monoïde (**) et n’était certainement pas libre.

    Son goût de la compétition et de la performance ne s’exprime pas seulement dans le domaine scientifique. Il est passionné par le sport, surtout le rugby. (A son époque cachanaise, il lisait L’équipe tous les jours.) Il adore utiliser des métaphores sportives. S’il veut convaincre de viser l’excellence, il parle de : « jouer en première division ». Dans ces métaphores, on retrouve tout le plaisir qu’Antoine trouve dans la recherche, tout ce plaisir qu’il aimerait que les chercheurs des structures qu’il dirige partagent. Oui. Antoine sait se placer où il faut quand il faut ; il est là où arrive le ballon. Et, je ne parle pas d’opportunisme mais d’intuition, d’analyse, de raisonnement.

    Je me souviens encore de l’entretien que j’ai eu en 1995 avec Antoine pour sa candidature à l’ENS Cachan. Je lui ai prédit une carrière de ministre mais pour l’instant, il n’a été que :
    •    Directeur scientifique du département STIC du CNRS (2001-2003)
    •    Directeur interrégional Sud-Ouest au CNRS (2004-2006)
    •    Directeur d’INRIA Paris-Rocquencourt (2006-2010)
    •    Directeur général-adjoint d’INRIA (2010-2014) et enfin
    •    Président Directeur Général d’INRIA aujourd’hui.

    Antoine n’est pas encore ministre, mais sa carrière n’est pas terminée loin s’en faut. 🙂

    Alain Finkel, Professeur ENS Cachan

    (*) Laboratoire d’informatique théorique et programmation de Paris 7, maintenant LIAFA  de Université Paris Diderot
    (**) Blague de geek. Un monoïde est une structure algébrique. L’ensemble des mots d’un alphabet muni de l’opération de concaténation forme un monoïde libre.

  • Les tablettes de la pédagogie ?

    Binaire reprend un article signé Colin de la Higuerra, paru aujourd’hui dans Slate: Les élèves français n’ont pas besoin d’une tablette à l’école, mais de véritables cours d’informatique.

    Il y a de meilleurs moyens de dépenser les fonds alloués au «grand plan numérique» promis par François Hollande.

    Le 2 septembre dernier, le président de la République lançait un «grand plan numérique» pour l’Éducation nationale. On peut imaginer qu’un «grand plan», sur un enjeu aussi crucial que celui de préparer l’entrée de la jeunesse dans le monde de demain, sera accompagné d’un budget conséquent, sans doute plusieurs milliards d’euros.

    Se pose alors la question de la meilleure manière d’employer cet argent pour préparer les élèves à devenir demain des citoyens éclairés et à trouver un travail. Or, lors du Petit Journal du 25 septembre, la ministre de l’Éducation nationale, Najat Vallaud-Belkacem, a notamment promis que les collégiens bénéficieraient d’une tablette afin d’alléger un cartable trop lourd:

    «À partir de la rentrée 2016, tous les collégiens [3,2 millions d’élèves environ, ndlr] –en l’occurrence, on commencera par les classes de 5e– auront et travailleront sur des tablettes numériques.»

    Pourtant, les élèves n’ont pas besoin d’une tablette supplémentaire mais d’un véritable enseignement de l’informatique, qui leur donne les clés pour comprendre le monde dans lequel ils vivent et vivront, comme celui que suivent, depuis plusieurs années déjà, leurs camarades bavarois, estoniens, israéliens, suisses, lituaniens, néerlandais, etc. C’est également ce que vont suivre leurs camarades anglais, finlandais ou coréens. C’est ce que recommande l’Académie des sciences, c’est ce que recommande la Société informatique de France, c’est ce que recommande le Conseil supérieur des programmes, c’est ce que recommande le Conseil national du numérique.

    S’il faut choisir entre dépenser l’argent pour l’équipement de tablettes ludiques ou pour former les enseignants et développer les outils logiciels nécessaires, une comparaison s’impose. La première proposition n’a été proposée par aucun analyste sérieux: dans les différents endroits où pareille mesure a été expérimentée, aucune évaluation documentée n’a jamais montré que son impact était positif autrement que pour l’économie des pays producteurs de ces équipements (groupe dans lequel il est difficile d’inclure la France, même si la ministre a affirmé sur Canal+ que le gouvernement aimerait «faire travailler des Français»).

    Pour offrir aux élèves un enseignement de qualité, la décision-clé est bien plutôt celle de former les enseignants dans le primaire et de recruter des enseignants dans le secondaire. 1 milliard d’euros par an, par exemple, c’est 25.000 professeurs d’informatique. C’est aussi dix millions d’heures de cours de formation continue et donc la possibilité de former à la fois les professeurs de primaire, ceux de collège, de lycée et même des classes préparatoires! C’est beaucoup plus qu’il n’en faut pour offrir un enseignement de qualité dans toutes les écoles, tous les collèges et tous les lycées français.

    Colin de la Higuera, Président de la Société Informatique de France

     

  • Gérard Berry, traqueur de bugs

    Un informaticien médaille d’or du CNRS 2014 (communiqué du 24 septembre)

    college2Gérard Berry en cours au Collège de France

    C’est un chercheur en informatique qui vient de recevoir la médaille d’or du CNRS, la plus haute distinction scientifique française toutes disciplines confondues. Les informaticiens sont rares à avoir été ainsi honorés : ce n’est que la seconde fois, après Jacques Stern en 2006.

    Gérard Berry est un pionnier dans un nombre considérable de domaines informatiques : le lambda-calcul, la programmation temps réel, la conception de circuits intégrés synchrones, la vérification de programmes et circuits, l’orchestration de services Web. Il a été l’un des premiers informaticiens académiciens des sciences, le premier professeur d’informatique au Collège de France.

    Parmi ses grandes inventions, essayons d’en expliquer une, le langage Esterel.

    Sad_macEcran indiquant un code erreur sur
    les premières versions de Macintosh. @Wikipédia

    Nous sommes entourés de systèmes d’une incroyable complexité : téléphones, moteurs de recherche, avions, centrales nucléaires. Ils fonctionnent tous avec du matériel informatique (des circuits) et du logiciel informatique (des programmes). Mais alors que le plantage d’un téléphone ou même d’un moteur de recherche est anodin, il en est tout différemment des avions, des centrales nucléaires ou encore des pacemakers. Pour ces derniers, le bug peut provoquer un désastre. Pour ne donner qu’un exemple, c’est un bug qui est à l’origine de la destruction d’Ariane 5, de l’Agence spatiale européenne, quarante secondes seulement après son décollage, le 4 juin 1996. Or un bug, c’est souvent une seule ligne de code erronée sur des millions qui composent un programme. Ça vient vite ! Et ça peut faire mal.

    Comment éviter les bugs ? On peut bien sûr tester davantage les programmes. Cela permet de trouver beaucoup d’erreurs, mais combien d’autres passeront à travers les mailles du filet ? Une autre solution, c’est d’intervenir en amont dans le processus de création de programme, par exemple en fournissant aux informaticiens de meilleurs outils de conception, de meilleurs langages de programmation. C’est l’approche que prône Gérard Berry.

    Les langages de programmation standards sont mal adaptés aux situations rencontrées dans des systèmes aussi complexes que des avions. Il faut tenir compte à la fois du matériel et du logiciel, du fait que nombreuses tâches s’exécutent en parallèle, que parfois la même tâche est exécutée plusieurs fois pour se protéger d’une panne d’un composant. Surtout, il faut utiliser des modèles qui tiennent compte du temps, des délais de réponse, des mécanismes de synchronisation. Le nouveau concept de langage synchrone a permis de répondre à cette situation. Ce concept a été découvert et promu par Gérard Berry et ses collègues au travers notamment du langage Esterel. Ce langage ainsi que d’autres langages synchrones développés en France, comme Lustre et Signal, ont eu un impact majeur dans le monde entier.

    Mais comment un langage peut-il aider à résoudre des problèmes aussi complexes ? D’abord, parce qu’il permet de décrire les algorithmes que l’on veut implémenter sous une forme compacte et proche de l’intention du programmeur. Ensuite, parce que ce langage est accompagné de toute une chaîne d’outils de compilation et de vérification automatique, qui garantit que le produit final est correct.

    Les langages synchrones ont constitué une avancée scientifique majeure. Gérard Berry est allé plus loin encore, et les a emmenés dans l’aventure industrielle en cofondant la société Esterel Technologies. Ces langages sont aujourd’hui incontournables dans des domaines comme l’aérospatial ou l’énergie.

     

    Sa notoriété, Gérard l’a aussi mise au service du partage de la culture scientifique pour permettre à chacune et chacun de comprendre « pourquoi et comment le monde devient numérique ». Il passe un temps considérable, souvent avec des jeunes, à expliquer les fondements et les principes de la science informatique. Un défi !

    L’enseignement de l’informatique est l’un de ses grands combats. Il a dirigé avec Gilles Dowek l’écriture d’un rapport important sur la question. Un autre défi ! Alors qu’il  s’agit d’éducation, de science et de technique, l’Etat se focalise souvent sur le haut débit et l’achat de matériel. Un pas en avant et au moins un en arrière. Mais il en faut bien plus pour entamer l’enthousiasme de Gérard Berry.

    Gérard Berry est un inventeur. Au-delà d’Esterel, c’est un découvreur des modèles stables du lambda-calcul, un inventeur de machine abstraite chimique, un concepteur de langages d’orchestration d’objets communicants, comme HipHop. Gérard Berry s’investit avec enthousiasme dans ses nombreuses fonctions des plus académiques, comme professeur au Collège de France, aux plus mystérieuses, comme régent de déformatique du Collège de Pataphysique.

     

    Les Mardis de la science

    Et quand vous passerez devant une centrale nucléaire, admirez le fait que même s’il utilise des logiciels et matériels bien plus compliqués que votre téléphone, son système informatique ne « plante » pas, contrairement à celui de votre téléphone. Quand vous volerez, peut-être au-dessus de l’Atlantique, réjouissez-vous que le fonctionnement de votre avion soit plus fiable que celui de votre tablette. Et puis, de loin en loin, pensez que tout cela est possible parce que des chercheurs en informatique comme Gérard Berry ont mis toute leur créativité, toute leur intelligence pour développer cette science et cette technique qui garantissent la fiabilité des systèmes informatiques.

    Serge Abiteboul (Inria), Laurent Fribourg (CNRS) et Jean Goubault-Larrecq (École normale supérieure de Cachan)

    Pour aller plus loin

    1. « Science et conscience chez les Shadoks ! », vidéo
    2. « L’enseignement de l’informatique en France. Il est urgent de ne plus attendre », rapport de l’Académie des sciences, 2013
    3. « L’informatique du temps et des événements », cours au Collège de France 2012-2013)
    4. « Penser, modéliser et maîtriser le calcul », cours au Collège de France 2009-2010)
    5. « Pourquoi et comment le monde devient numérique », cours au Collège de France 2007-2008)
    6. Entretien avec Gérard Berry, Valérie Schafer, technique et science de l’informatique

    PS. : une citation de Gérard Berry, pataphysicien, « L’informatique, c’est la science de l’information, la déformatique, c’est le contraire. »

    PPS de Binaire : Une amie non informaticienne nous a écrit pour nous dire que le sujet était passionnant mais qu’elle n’avait pas tout compris, en particulier comment un langage comme Esterel pouvait aider. Binaire reviendra sur ce sujet avec Gérard Berry. Mais en attendant, nous conseillons une lecture qui tente d’aller plus loin dans les explications.

     

  • Un informaticien Médaille d’or du CNRS 2014 : Gérard Berry

    college2

    Annonce par Alain Fuchs, président du CNRS.

    Voir un article récent dans Binaire : l’informatique s’installe au college de france

    Et sa page dans Wikipédia.

    La médaille d’or du CNRS est la plus haute distinction scientifique française. Elle est décernée par le Centre national de la recherche scientifique (CNRS) tous les ans depuis sa création en 1954. Elle récompense « une personnalité scientifique qui a contribué de manière exceptionnelle au dynamisme et au rayonnement de la recherche ».

    Gérard a apporté des contributions majeures en sciences informatiques. Grâce à ses collègues et lui, nous comprenons mieux, par exemple, comment fonctionne un système numérique (logiciel et/ou matériel) qui interagit en temps-réel avec son environnement et comment on peut garantir la logique de son fonctionnement.
    Et depuis que Gérard est devenu un scientifique académicien célèbre, il fait cette chose exemplaire de mettre sa notoriété au service du partage de la culture scientifique pour permettre à chacune et chacun de comprendre « pourquoi et comment le monde devient numérique ».

  • Françoise en Bavière

    Le sujet de la formation à l’informatique a été beaucoup débattu en France récemment. Mais en dehors de l’hexagone ? Se pose-t-on les mêmes questions ? D’autres pays auraient-ils eut l’audace de prendre de l’avance sur nous ? Binaire a proposé à Françoise Tort, chercheuse à l’ENS Cachan et co-responsable en France du concours CASTOR informatique, d’interroger des collègues à l’étranger. Leurs réponses apportent beaucoup à nos débats parfois trop franchouillards. 

     

    Tour d’horizon de l’enseignement de l’informatique… Aujourd’hui Françoise nous emmène en Bavière.

    photo 1Note sur le système scolaire bavarois : à la fin du primaire, à l’âge de 10-11 ans, les élèves bavarois s’orientent entre trois voies différentes : la Mittelschule ou la Hauptschule (école de formation professionnelle, surtout artisanale), la Realschule (équivalent du collège qui propose un diplôme de fin d’étude moyen) et le Gymnasium (équivalent du cursus collège + lycée général ou technologique en France). Environ un tiers des élèves d’une tranche d’âge vont au Gymnasium, sélectionnés sur leurs bons résultats à l’école primaire. Pour faciliter la lecture, nous utiliserons dans le texte les niveaux français.

     

    Peter HubwieserEntretien avec Peter Hubwieser professeur à la Technische Universität München (TUM), chercheur en didactique de l’Informatique, acteur majeur dans l’introduction de l’enseignement de l’informatique en Bavière.

     

    Plus de 1/3 des jeunes bavarois apprennent l’informatique dès l’âge de 11 ans.

    Depuis 2004, l’informatique est enseignée dans tous les collèges-lycées bavarois (que nous appelons Gymnasium). Tous les élèves de 6ème, 5ème ont des cours d’informatique obligatoires deux fois par semaine. Ensuite, les élèves qui poursuivent dans la filière « science et technologique », ont aussi un cours obligatoire, 2 fois par semaine, en  3ème et en 2nde. Enfin, un cours optionnel (3 séances par semaine) est proposé en 1ère puis en terminale, et ce dans toutes les filières. Depuis 2008, des cours d’informatique sont également proposés dans les écoles professionnelles. On peut donc dire que plus d’un tiers des élèves bavarois scolarisés dans le secondaire apprennent l’informatique dès l’âge de 11 ans.

    L’objectif général de cet enseignement n’est pas de former de futurs spécialistes de l’informatique ou de convaincre les jeunes de poursuivre des études supérieures dans ce domaine. Il s’agit d’aider les élèves à devenir des citoyens responsables et autonomes dans une société dominée par les nouvelles technologies de l’information et de la communication.

    Le programme combine des méthodes pour penser et des outils pour appliquer

    J’ai contribué à l’écriture du programme d’enseignement. Ce programme vise à développer les compétences de traitement de l’information des élèves et à les aider à comprendre les structures de bases des systèmes informatiques qu’ils utilisent. L’originalité de notre approche est la place donnée à la modélisation : les élèves apprennent des technique de modélisation des objets et systèmes qu’ils utilisent, tout en mettant en œuvre leurs modèles à l’aide de logiciels et d’environnements de programmation. Par exemple, les premières années, les élèves apprennent à représenter les documents (textes, images, hypertextes, etc) qu’ils produisent avec des logiciels à l’aide des notions abstraites d’objets, attributs, méthodes et classes empruntées à la modélisation orientée objet développée dans les années 80-90 en génie logiciel. A la fin de la classe de 5ème, ils travaillent sur leurs premiers programmes, en utilisant un robot virtuel (le Robot Karel). En classe de 3ème, ils modélisent des problèmes réels, et implémentent leurs solutions avec des logiciels tableurs et des systèmes de gestion de bases de données. A partir de la 2nde, ils programment avec des langages objets (le plus souvent avec le langage Java). Enfin, en 1ère et terminale, ils abordent des concepts de domaines plus spécifiques comme le développement logiciel ou l’informatique théorique.

    Le projet, conçu dès 1994, a profité d’une importante réforme scolaire en 2004

    J’ai commencé à travailler à ce projet d’enseignement en 1994 à la faculté d’informatique de la TUM. Nous avons publié un premier projet de programme en 1997. A cette époque, le gouvernement fédéral lançait un programme expérimental de 3 ans visant à tester un projet de réforme des collèges-lycées bavarois. Un enseignement d’informatique mettant en œuvre notre proposition a été introduit dans cette expérimentation, dans une quarantaine d’établissements. Devant le succès rencontré auprès des élèves, des parents et des enseignants, le gouvernement a décidé, dès 2000, d’introduire cet enseignement dans la réforme. Ce fut effectif à la rentrée 2004 pour la classe de 6ème, puis chaque année suivante pour les autres niveaux.

    La formation a été anticipée pour avoir des enseignants diplômés dès le début

    Les enseignants bavarois ont tous deux disciplines (mathématique et physique par exemple). Ils ont une formation et un diplôme universitaire dans ces disciplines. Pour enseigner, ils passent deux certificats, l’un  disciplinaire, l’autre en pédagogie et psychologie.

    Ce qui a été exceptionnel, c’est que la formation des enseignants a été initiée bien avant que la création de l’enseignement ne soit décidée. Deux universités ont ouvert un programme de formation continue en deux ans, en 1995, suivi avec succès par une petite centaine d’étudiants. En 1997, l’enseignement universitaire a été officialisé, et a été suivi, de 2001 à 2006, d’un programme de formation, que j’ai initié et coordonné. Nous avons formé environ 300 enseignants dans 5 universités bavaroises. Depuis, un programme d’auto-formation est proposé, suivi par 80 enseignants. En parallèle, l’administration bavaroise a mis en place des actions de promotion pour inciter les détenteurs d’un Master en informatique à embrasser la profession d’enseignant. On peut estimer qu’il y a aujourd’hui, près de 1 300 enseignants d’informatique dans les collèges-lycées, et que parmi eux 800 sont diplômés en informatique.

    Les enseignant et les élèves sont plutôt satisfaits

    Nous avons réalisé une enquête auprès des enseignants en 2009. Ils se disaient plutôt motivés et satisfaits des cours et du programme. Nous leur avons demandé s’il y avait des écarts de réussite entre garçons et filles. Globalement, ils n’ont pas relevé de différence, sauf une baisse de performance des filles au niveau de la classe de 2nde. Toutefois, d’autres indicateurs sont plus faibles pour ce niveau, qui est l’année de l’introduction de la programmation objet. Il nous semble intéressant d’étudier cela d’un peu plus près.

    Une nouvelle réforme du système scolaire en perspective

    Le programme est en cours de révision.  Pour autant que je sache, il y aura des éléments supplémentaires sur la protection des données et la sécurité des données. Mais le plus important est qu’il y a, à l’heure actuelle, un débat sur le retour aux collèges-lycées en 9 ans (la réforme de 2003 avait réduit ce cursus à 8 années). Personne ne sait ce qu’il en résultera.


    Pour en savoir plus …

    1- Peter Hubwieser. 2012. Computer Science Education in Secondary Schools – The Introduction of a New Compulsory Subject. Trans. Comput. Educ. 12, 4, Article 16 (November 2012), 41 pages.

    2 – Peter Hubwieser. 2001. Didaktik der Informatik (en Allemand, Didactique de l’Informatique). Springer-Verlag, Berlin.

  • Cod cod coding à Nancy

    codcodcoding-logoCod Cod Coding ? C’est le nom de la toute nouvelle activité de programmation créative récemment qui vient d’éclore au sein de la MJC centre social Nomade à Vandoeuvre-lès-Nancy.

    Avec Cod cod coding, les poussins à partir de 8 ans peuvent inventer des jeux, des histoires animées, ou simuler des robots avec l’ordinateur.  Le partage d’une culture scientifique en informatique est-il un problème de poule et d’œuf ?  Comment ceux qui ne sont pas du tout initiés aux sciences du numérique peuvent-ils comprendre la pertinence et la nécessité de partager des sciences du numérique ? Voire même une source de querelles de poulaillers ? Est-ce que nos mômes seront initiés à ces sciences du XXième siècle quand les poules auront des dents ? Plus maintenant !

    codcodcoding-vueatelierBien loin de ces prises de bec et sans jamais casser d’œufs, un jeune chercheur en sciences informatiques consacre une partie de son activité à permettre aux enfants de découvrir, en jouant, comment faire éclore des bout de logiciels pour co-créer le monde numérique de demain.  Avec le logiciel Scratch, ils apprennent : la logique, l’algorithmique, le codage numérique de l’information. Ils auront même le droit de se tromper pour trouver des solutions (seul ou avec ses voisin(e)s), personne n’est là pour leur voler dans les plumes !! Oui, apprendre le code, c’est aussi une seconde chance de picorer quelques grains de science, y compris pour ceux qui sont plus ou moins à l’écart du nid scolaire.

    Et pour en savoir plus, rendez-vous sur le blog associé à cette activité,  une poule aux œufs d’or pour partager les réalisations des participants ! Voir aussi comment faire de l’informatique en primaire, comme nous l’explique Martin Quinson. Et si vous cherchez un lieu de ce type près de chez vous : rendez-vous sur jecode.org qui offre une carte de France de ces initiatives.

    Florent Masseglia et Véronique Poirel, propos recueillis par Thierry Viéville  et Marie-Agnès Enard.

    codcodcoding-tweets

  • Informatique en primaire, comment faire ?

    Les ministres de l’éducation nationale changent, mais l’idée de commencer à initier à la programmation informatique en primaire, fait son bonhomme de chemin comme les questionnements qu’elle soulève. Martin Quinson, enseignant-chercheur en informatique, a proposé une analyse sur son blog : «Informatique en primaire, comment faire ?». Avec d’autres, nous avons trouvé son texte passionnant. Nous avons demandé une fiche de lecture à une enseignante, amie de Binaire.

    On parle donc de mettre en place des activités, destinées à enseigner l’informatique au plus grand nombre et au plus vite. Comment alors apporter des éléments de réponses aux nombreuses questions pratiques qui se posent, notamment sur ce qu’il convient d’enseigner, et sur la démarche à adopter ?

    Les objectifs pédagogiques

    ©letourabois.free.fr

    Il y a un terme fédérateur : celui de littératie numérique des enfants. En adaptant la définition de littératie donnée par l’OCDE, on peut parler de « l’aptitude à comprendre et à utiliser les technologies de l’information et de la communication dans la vie courante, à la maison, au travail et dans la collectivité en vue d’atteindre des buts personnels et d’étendre ses connaissances et ses capacités ».

    Comment faire alors en sorte que les enfants soient capables de faire un usage raisonné de l’informatique et des ordinateurs ? Si quelques idées sont disponibles dans ces propositions d’orientations générales pour un programme d’informatique à l’école primaire, d’autres éléments de réponse complètent cette vision :

    ©scratch.mit.edu

    Que les enfants soient capables de créer des petites choses sur ordinateur, comme ils sont capables d’écrire de petits textes ou faire des dessins à l’heure actuelle. Mais aussi qu’ils puissent créer leur propre carte de vœux animée pour la fête des mères, sans avoir à choisir parmi des cartes toutes faites sur http://www.dromadaire.com ou ailleurs, ou encore qu’ils soient capables de faire de petits dessins animés pour raconter des petites histoires, de complexité comparable aux rédactions qu’ils font déjà. Enfin, qu’ils puissent réaliser leurs propres petits jeux informatiques, qui auront le mérite d’être leurs propres créations même s’il ne s’agit pas de futurs blockbusters.

    Voilà qui est clair et proche du quotidien.

    Faut-il faire des « Coding Goûters » ?

    ©jecode.org

    Un « Coding Goûter » est une animation qui se déroule une demi-journée, où les enfants et leurs parents apprennent ensemble la programmation créative, avec des accompagnateurs, mais sans professeur. Ce format est particulièrement bien trouvé et des micro-formations pour aider les collègues qui voudraient se lancer sont proposées côté Inria. Cependant, la réponse est à nuancer, car ce format n’est pas généralisable, en l’état actuel, pour des activités récurrentes en milieu scolaire sans formation des enseignants. Voyons donc les autres possibilités d’animation.

    . . ou de la programmation créative ?

    Comme dit Claude Terosier de chez Magic Makers, il s’agit d’apprendre à coder pour apprendre à créer . Dans la même lignée, s’organise une activité pilote à la rentrée à la MJC Nomade de Vandœuvre-les-Nancy sur ce modèle. Leur club s’appelle Cod Cod Coding .

    ©codcodcoding

    L’un des points forts de l’outil le plus répandu Scratch, c’est sa communauté d’utilisateurs. De très bons pédagogues diffusent beaucoup de bonnes ressources, ce qui est pratique quand on débute. Cette communauté se réuni tous les deux ans, lors d’événements très enrichissants. On peut s’appuyer sur ce guide présentant dix séances clé en main, ou sur celui-ci, également bien fait. Et on trouve de bonnes ressources sur le wiki de http://jecode.org.

     

    Oser l’informatique débranchée

    ©csunplugged.org

    Comprendre comment est représentée l’information une fois numérique ou découvrir un algorithme ou ce que sont les algorithmes, c’est possible sans machine, sous forme de jeux, de devinette ou d’activité avec un crayon et un papier. Et c’est précieux : cela montre que c’est une façon de penser, pas que d’utiliser les machines. Cela permet aussi à ce qui ne raffolent pas de technologie de comprendre aussi. Faire à chaque séance un peu de débranché au début, un temps d’activités sur machine, avant un petit retour tous ensemble à la fin semble une excellente idée.

    Sans aller jusqu’à introduire la notion d’algorithme avant le premier passage sur machine, il est possible d’utiliser des activités débranchées pour expliquer ce que programmer veut dire. Cette activité semble particulièrement pertinente pour cela. Ensuite, si les enfants ont encore un peu de patience, vous pouvez enchaîner avec les activités débranchées mises au point avec Jean-Christophe Bach, ou d’autres activités débranchées existantes.(…)

    Mise en œuvre pédagogique.

    ©images.math.cnrs.fr

    Prenons l’exemple de l’enseignement de Scratch. On peut opter pour une approche traditionnelle avec un chapitre sur les variables, un chapitre sur les boucles, un autre sur les conditionnelles. Mais on peut aussi retourner le modèle, et commencer par faire un petit Angry Birds (en utilisant des conditionnelles sans s’en rendre compte, du moins jusqu’à la fin du chapitre où l’on verbalise la notion après usage), continuer par un casse brique (et utiliser des variables sans apprendre explicitement ce que c’est), puis un Pong (mettant du parallélisme en œuvre sans réaliser avoir besoin de le dire), etc. Voilà ce qui marche pour de vrai, avec les enfants du primaire. Et ensuite de montrer ce qu’on a découvert : les ingrédients de tous les algorithmes du monde.

    Comme support, on recommande ce livre. Il s’agit d’une bande dessinée racontant les aventures d’un chat et d’un étudiant en informatique. Au fil des 10 chapitres, on est amené à programmer des petits jeux pour « débloquer » l’aventure jusqu’au chapitre suivant. On apprend les bases de la programmation créative.

    Sinon, l’un des dix principes de « La main à la pâte » est de faire tenir un cahier de laboratoire aux enfants, où ils consignent leurs expériences et conclusions avec leurs mots à eux.

    Utilisation du matériel.

    Un ordinateur pour deux enfants suffit. La programmation en binôme est très efficace. Le plus important est de s’assurer que les rôles s’inversent régulièrement, et qu’aucun enfant ne monopolise la souris. Être deux par machine force les enfants à planifier leurs activités au lieu de se laisser porter par la souris, sans but précis.

    Et après ?

    Voilà donc l’état des réflexions. Mais on est  pas seuls: l’équipe invite à discuter tous ensemble au fur et à mesure des avancées sur ce qui fonctionne et les problèmes rencontrés. C’est aussi pour cela qu’elle a fondé http://jecode.org  : faire se rencontrer les volontaires souhaitant enseigner, informer à propos des lieux qui veulent organiser des ateliers, mettre en lien les acteurs qui désirent apprendre l’informatique. Inscrivez-vous sur la liste de diffusion pour échanger sur ces sujets.

    Alice Viéville.

     

  • Permis de vivre la ville

    logoPetite balade dans le 14e arrondissement parisien pour prendre un bain d’éducation populaire ; nous rendons visite à « Permis de Vivre la Ville ». L’association a été créée en 1987 sous le patronage de l’Abbé Pierre. Elle travaille depuis au cœur des quartiers en difficulté. Pourquoi cette association nous intéresse-t-elle tout particulièrement ? Ses projets conjuguent culture et informatique.

    L’ambiance est à la fois studieuse et détendue. Des jeunes s’activent sur leurs projets informatiques. D’habitude, c’est plus calme nous explique-t-on : les jeunes de l’autre lieu installé à Montreuil sont aussi par hasard présents. Ici, on ne se contente pas de répéter qu’il est des quartiers en grande difficulté. On retrousse ses manches et on change les choses.

    marcela Anne
    Marcela Perez, Permis de Vivre la Ville Anne Dhoquois, Banlieues créatives

    Un malstrom d’information tout en sourires est déversé par Anne Dhoquois et Marcela Perez. Banlieues créatives, Tremplin numérique… nous sommes vite perdus dans des structures, des projets, des sites Web. Cette association de terrain a longtemps été présente à Evry (Bois Sauvage) et Paris 17ème (Porte Pouchet) ; elle l’est toujours à Clichy-sous-Bois (Chêne pointu) et Antony (Noyer Doré), et vient d’ouvrir un second local à Montreuil. Ça bouge !

    tremplinDes jeunes du 92 et 93 dans les locaux parisiens © Tremplin numérique

    Au delà de la grande gentillesse qui se dégage de nos deux hôtesses, une impression forte de compétences. Ici on ne bricole pas. L’expérience, la connaissance des dossiers, un mélange détonnant avec une passion évidente pour l’ambition de participer à construire une ville plus humaine.

    lexik© Lexik des cités / collectif Permis de Vivre la Ville

    Nous pourrions raconter le Lexik des cités et le langage des jeunes du quartier (comme exercice, traduire : « Ma came a un bail et ses darons le savent pas ») mais nous allons plutôt parler d’un projet plus récent « Banlieues créatives ». Ce média web est l’occasion pour les jeunes de faire l’apprentissage du reportage, de l’interview, de la publication, de la parole publique, aux côtés d’une journaliste professionnelle. Le résultat se traduit dans un site Web. Celui-ci, truffé d’informations, d’interviews, de témoignages, est passionnant. Il décrit des expériences concrètes qui amènent à changer de regard sur les quartiers, sur le sens de la société, sur la dimension sociétale que peuvent prendre des  actions de terrain.
    Petite balade dans le 14e arrondissement parisien pour rendre visite à Permis de vivre la ville. On en ressort avec l’envie de ne plus subir le numérique, mais de le mettre au service de la société. Merci Marcela et Anne de nous avoir fait oublier quelques instants la morosité ambiante.

    Serge Abiteboul et Valérie Peugeot

    La carte de vœux numérique 2014 du 1er Ministre Jean-Marc Ayrault réalisé par les encadrants des jeunes de l’association

  • Le « grand plan numérique » du président : pour quoi faire ?

    Le numérique est déjà omniprésent dans nos maisons et au travail. On peut naturellement penser qu’il est temps que l’école en profite aussi. Mais en pratique, quels problèmes concrets pourraient être résolus par le « grand plan numérique » annoncé par François Hollande ? Claire Mathieu, Directrice de recherche CNRS, spécialiste en algorithmique, aborde le sujet. 

    D’une part, il y a les problèmes de communication dont voici quelques exemples.

    1. L’enfant n’a pas écrit quels devoirs il a à faire pour le lendemain. Les parents doivent téléphoner aux autres parents pour essayer de récupérer les informations. Solution : l’enseignant pourrait mettre la liste des devoirs à faire sur le site internet de l’école.
    2. L’enfant n’a pas rapporté son livre ou sa feuille d’exercices à la maison. Les parents doivent trouver une autre famille qui a le document nécessaire, et aller en catastrophe le leur emprunter. Solution : l’éditeur pourrait avoir une version numérique de son livre, accessible sur le site internet de l’école. L’enseignant pourrait télécharger sur le site web de l’école les documents supplémentaires.
    3. L’enfant ne fait pas signer le cahier de classe à ses parents. Solution : les résultats de l’enfant pourraient être accessibles à ses parents sur le site internet de l’école, et ceux-ci pourraient « signer » par internet.
    4. Les enseignants perdent du temps à rassembler autorisations pour les sorties, attestations d’assurance, et autres paperasses. Solution : ces attestations pourraient être téléchargées directement par les parents sur le site internet de l’école.
    5. On découvre en arrivant à l’école qu’il y a une grève ou qu’un enseignant est absent. Solution : afficher ces informations sur le site internet de l’école.
    6. Un enfant est malade. Solution : Les parents envoient la lettre prévenant qu’il est malade, directement sur le site internet de l’école. Ils se tiennent au courant de ce qui est enseigné grâce à ce site, afin que l’enfant rattrape son retard.

    D’autre part, il y a les problèmes dus à la diversité et aux limitations des uns et des autres.

    1. Certains n’apprennent pas à la même vitesse que les autres. Solution : s’il y avait au fond de la classe, dans le coin bibliothèque, quelques tablettes sécurisées avec des logiciels éducatifs associés aux manuels scolaires, l’enseignant pourrait demander aux enfants plus lents ou plus rapides de passer du temps à apprendre avec l’aide du logiciel.
    2. L’enseignant est censé apprendre aux enfants un large programme de sciences, d’histoire, d’art, etc., mais il y a des domaines auxquels il ne connaît pas grand-chose. Solution : il peut préparer son cours plus facilement avec des logiciels de cours sur internet préparés par les éditeurs de manuels scolaires.
    3. Il y a des moments dans la journée où l’attention baisse et où les enfants ont du mal à se concentrer. Solution : une activité supplémentaire pour laquelle les possibilités sont multipliées grâce à internet pourrait être de projeter un film documentaire. On n’est plus limité par la bibliothèque de films de l’école.
    4. Des enfants n’aiment pas l’école, s’ennuient, font des bêtises, dérangent la classe. Solution : les occuper à bon escient par des jeux éducatifs sur les tablettes.

    Il ne s’agit pas là de faire des changements fondamentaux, mais d’utiliser l’outil numérique pour faciliter le quotidien de manière très concrète.

    Que faut-il pour réaliser ces modestes objectifs ?

    • Du point de vue des ressources matérielles et logicielles, il faut qu’internet soit disponible, que les éditeurs aient une version numérique de leurs manuels scolaires avec logiciels associés, qu’un cadre existe pour créer des sites web scolaires faciles à consulter et à modifier, mais également sécurisés et protégeant les informations privées des élèves ; il faut aussi que les classes aient des tablettes ou portables qui soient protégés contre le vol et que leur maintenance soit assurée. Pour les familles qui n’ont pas internet chez elles, il faut absolument (c’est une question d’équité) que les parents puissent, à la mairie, à la bibliothèque municipale, ou dans un autre lieu, avoir accès au site internet de l’école.
    • Du point de vue des compétences, il faut que les enseignants sachent utiliser le site web de l’école, consulter les versions numériques des manuels, produire des contenus numériques. Il faut que les parents sachent communiquer avec l’école par l’intermédiaire du site web. Des formations sont pour cela nécessaires, pas très longues mais récurrentes puisque la question se repose chaque année.
    • Enfin, pour les réfractaires irréductibles, il faut un « pont » qui permette de continuer à recevoir les messages des parents comme avant tout en mettant à jour le dossier numérique de l’élève (grâce à un scanner par exemple), et qui permette aux parents de savoir quand même ce qui se passe à l’école par des moyens traditionnels (panneau d’affichage par exemple). Il faut donc prévoir de recruter le personnel adéquat pour ce travail supplémentaire, au moins pendant une période de transition de quelques années.

    Bien sûr, tout cela a un coût. Globalement il n’est pas clair que ce plan ferait gagner du temps aux enseignants, mais il permettrait d’améliorer la communication entre parents et enseignants, et d’améliorer l’apprentissage grâce à un enseignement plus personnalisé. Il est donc raisonnable de penser que la population est prête à ce qu’une fraction de ses impôts soit utilisée pour cela.

    Pour aller plus loin.

    L’introduction du numérique dans le quotidien de l’école ne serait qu’un premier pas. Une fois l’outil présent, on peut s’en servir avec plus d’ambition. Par exemple, les enfants pourraient écrire un journal de leur école, qui (avec une équipe motivée) pourrait être de qualité quasiment professionnelle. Pour les écoles jumelées, il y aurait des perspectives de collaborations nouvelles. Il pourrait être envisageable que les enfants malades, s’ils sont suffisamment en forme, suivent quand même la classe en même temps que les autres avec une « webcam ». Des exercices de style QCM, conçus par les éditeurs, pourraient être corrigés par ordinateur au lieu de faire intervenir l’enseignant. Pour les enfants souffrant d’un handicap, des possibilités nouvelles existeraient. Pour les enfants curieux de comprendre comment ça marche, il serait possible d’avoir un enseignement de l’informatique. Les MOOCs, FLOTs et autres cours en-ligne auraient une chance d’être intégrés à l’enseignement. Plus généralement, une fois les automatismes acquis pour exploiter l’outil informatique, il serait beaucoup plus facile ultérieurement de profiter des futures avancées, et cela permettrait à la France de participer plus pleinement à la révolution du numérique dans la société.

    Claire Mathieu, École Normale Supérieure  Paris, CNRS

  • Comment l’informatique a révolutionné l’astronomie

    Françoise Combes, astronome à l’Observatoire de Paris et membre de l’Académie des Sciences (lien Wikipédia), a un petit bureau avec un tout petit tableau blanc, des étagères pleines de livres, un sol en moquette, et deux grandes colonnes de tiroirs étiquetées de sigles mystérieux. Au mur, des photos de ciels étoilés. Elle parle avec passion de son domaine de recherche, et met en exergue le rôle fondamental qu’y joue l’informatique.
    Entretien réalisé par Serge Abiteboul et Claire Mathieu

    fc-aug02

    La naissance des galaxies…

    B : Peux-tu nous parler de tes sujets de recherche ? Vu de l’extérieur, c’est extrêmement poétique : « Naissance des galaxies », « Dynamique de la matière noire » …
    FC : La question de base, c’est la composition de l’univers. On sait maintenant que 95% est fait de matière noire, d’énergie noire, et très peu de matière ordinaire, qui ne forme que les 5% qui restent. Mais on ignore presque tout de cette matière et de cette énergie noire. Les grands accélérateurs, contrairement à ce qu’on espérait, n’ont pas encore trouvé les particules qui forment la matière noire. On a appris vers l’an 2000 grâce aux supernovae que l’expansion de l’univers était accélérée. Mais la composition de l’univers que l’on connaissait alors ne permettait pas cette accélération ! Il fallait un composant pouvant fournir une force répulsive, et c’est l’énergie noire qui n’a pas de masse, mais une pression négative qui explique l’accélération de l’expansion de l’univers. On cherche également maintenant de plus en plus en direction d’autres modèles cosmologiques qui n’auraient pas besoin de matière noire, des modèles de « gravité modifiée ».

    B : Cette partie de ton travail est surtout théorique ?
    FC : Non, pas seulement, il y a une grande part d’observation, indirecte évidemment, observation des traces des composants invisibles sur la matière ordinaire. On observe les trous noirs grâce à la matière qu’il y a autour. Les quasars, qui sont des trous noirs, sont les objets les plus brillants de l’univers. Ils sont au centre de chaque galaxie, mais la lumière piégée par le trou noir n’en sort pas ; c’est la matière dans le voisinage immédiat, qui tourne autour, et progressivement tombe vers le trou noir en spiralant, qui rayonne énormément. Ce qui est noir et invisible peut quand même être détecté et étudié par sa « signature » sur la matière ordinaire associée.
    Pour mieux étudier la matière noire et l’énergie noire, plusieurs télescopes en construction observeront pratiquement tout le ciel à partir des années 2018-2020, comme le satellite européen Euclid, ou le LSST (Large Synoptic Survey Telescope) et le SKA (Square Kilometer Array). Le LSST par exemple permettra d’observer l’univers sur un très grand champ (10 degrés carrés), avec des poses courtes de 15 secondes pendant 10 ans. Chaque portion du ciel sera vue environ 1000 fois. Même dans une nuit, les poses reviendront au même endroit toutes les 30 minutes, pour détecter les objets variables : c’est une révolution, car avec cet outil, on va avoir une vue non pas statique mais dynamique des astres. Cet instrument fantastique va détecter des milliers d’objets variables par jour, comme les supernovae, sursauts gamma, astéroides, etc. Il va regarder tout le ciel en 3 jours, puis recommencer, on pourra sommer tous les temps de pose pour avoir beaucoup plus de sensibilité.
    Chaque nuit il y aura 2 millions d’alertes d’objets variables, c’est énorme ! Ce n’est plus à taille humaine. Il faudra trier ces alertes, et le faire très rapidement, pour que d’autres télescopes dans le monde soient alertés dans la minute pour vérifier s’il s’agit d’une supernova ou d’autre chose. Il y aura environ 30 « téraoctets » de données par nuit !  Des supernovae, il y en aura environ 300 par nuit sur les 2 millions d’alertes. Pour traiter ces alertes, on utilisera des techniques d’apprentissage (« machine learning »).

    B : Qui subventionne ce matériel ?
    FC : Un consortium international dont la France fait partie et où les USA sont moteur, mais il y a aussi des sponsors privés. Le consortium est en train de construire des pipelines de traitement de données, toute une infrastructure matérielle et logicielle.

    A273

    La place de l’informatique

    B : La part du « matériel informatique » dans ce télescope est très importante ?
    FC : Le télescope lui-même, de 8m de diamètre, est assez ordinaire. L’innovation est dans l’optique et les instruments pour avoir un grand champ, qui sont une partie importante du coût ; les images seront prises simultanément avec six filtres de couleur. Le traitement des données nécessite des super ordinateurs qui forment une grande partie du coût.

    B : Alors, aujourd’hui, une équipe d’astronomes, c’est pluridisciplinaire ?
    FC : Oui, mais c’est aussi très mutualisé. Il y a des grands centres (Térapix à l’Institut d’Astrophysique de Paris par exemple) pour gérer les pipelines de données et les analyser avec des algorithmes. Ainsi, on se prépare actuellement à dépouiller les données d’Euclid, le satellite européen qui sera lancé en 2020, dont le but est de tracer la matière noire et l’énergie noire, notamment avec des lentilles gravitationnelles. Les images des millions de galaxies observées seront légèrement déformées, car leur lumière est déviée par les composants invisibles sur la ligne de visée; il faudra reconstituer la matière noire grâce cette déformation statistique.

    B : Quels sont les outils scientifiques de base ? Des mathématiques appliquées ?
    FC : Oui. La physique est simple. Les simulations numériques de formation des galaxies dans un contexte cosmologique sont gigantesques : il s’agit de problèmes à  N-corps avec 300 milliards de corps qui interagissent entre eux ! Le problème est résolu par des algorithmes basés soit sur les transformées de Fourier soit sur un code en arbre, et à chaque fois le CPU croît en N log N. On fait des approximations, des développements en multi-pôles. En physique classique, ou gravité de Newton, cela va vite. Mais pour des simulations en gravité modifiée, là, c’est plus compliqué, il y a des équations qui font plusieurs pages. Il y a aussi beaucoup de variantes de ces modèles, et il faut éviter de perdre son temps dans un modèle qui va se révéler irréaliste, ou qui va être éliminé par des observations nouvelles. Il y a donc des paris à faire.

    B : Tu avais dit que vous n’étiez pas uniquement utilisateurs d’informatique, qu’il y a des sujets de recherche, spécifiquement en informatique, qui découlent de vos besoins ?
    FC : Je pensais surtout à des algorithmes spécifiques pour résoudre nos problèmes particuliers. Par exemple, sur l’époque de ré-ionisation de l’univers. Au départ l’univers est homogène et très chaud, comme une soupe de particules chargées, qui se recombinent en atomes d’hydrogène neutre, dès que la température descend en dessous de 3000 degrés K par expansion, 400 000 ans après le Big Bang. Suit une période sombre et neutre, où le gaz s’effondre dans les galaxies de matière noire, puis les premières étoiles se forment et ré-ionisent l’univers. Ce qu’on va essayer de détecter, (mais ce n’est pas encore possible actuellement) c’est les signaux en émission et absorption de l’hydrogène neutre, pendant cette période où l’univers est constitué de poches neutres et ionisées, comme une vinaigrette avec des bulles de vinaigre entourées d’huile. C’est pour cela que les astronomes sont en train de construire le « square kilometer array » (SKA). Avec ce télescope en ondes radio, on va détecter l’hydrogène atomique qui vient du début de l’univers, tout près du Big bang ! Moins d’un milliard d’années après le Big bang, son rayonnement est tellement décalé vers le rouge (par l’expansion) qu’au lieu de 21cm, il a 2m de longueur d’onde ! Les signaux qui nous arrivent vont tous à la vitesse de la lumière, et cela met 14 milliards d’années à nous parvenir – c’est l’âge de l’univers.
    Le téléscope SKA est assez grand et sensible pour détecter ces signaux lointains en onde métrique, mais la grande difficulté vient de la confusion avec les multiples sources d’avant-plan : le signal qu’on veut détecter est environ 10000 fois inférieur aux rayonnements d’avant-plan. Il est facile d’éliminer les bruits des téléphones portables et de la ionosphère, mais il y a aussi tout le rayonnement de l’univers lui-même, celui de la Voie lactée, des galaxies et amas de galaxies. Comment pourra-t-on pêcher le signal dans tout ce bruit? Avec des algorithmes. On pense que le signal sera beaucoup plus structuré en fréquence que tous les avant-plans. On verra non pas une galaxie en formation mais un mélange qui, on l’espère, aura un comportement beaucoup plus chahuté que les avant-plans, qui eux sont relativement lisses en fréquence. Faire un filtre en fréquence pourrait a priori être une solution simple, sauf que l’observation elle-même avec l’interféromètre SKA produit des interférences qui font un mixage de mode spatial-fréquentiel qui crée de la structure sur les avant-plans. Du coup, même les avant-plans auront de la structure en fréquence. Alors, on doit concevoir des algorithmes qui n’ont jamais été développés, proches de la physique. C’est un peu comme détecter une aiguille dans une botte de foin. Il faut à la fois des informaticiens et des astronomes.

    Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.

    Arp87Le couple de galaxies en interaction Arp 87,
    image du Hubble Space Telescope (HST), Credit NASA-ESA

    B : Cela veut-il dire qu’il faut des astronomes qui connaissent l’informatique ?
    FC : Les astronomes, de toute façon, connaissent beaucoup d’informatique. C’est indispensable aujourd’hui. Rien que pour faire les observations par télescope, on a besoin d’informatique. Par exemple le télescope SKA (et  son précurseur LOFAR déjà opérationnel aujourd’hui à Nançay) est composé de « tuiles » qui ont un grand champ et les tuiles interfèrent entre elles. Le délai d’arrivée des signaux provenant de l’astre observé sur les différentes tuiles est proportionnel à l’angle que fait l’astre avec le zénith. Ce délai, on le gère de façon numérique. Ainsi, on peut regarder dans plusieurs directions à la fois, avec plusieurs détecteurs. Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.
    Un astronome va de moins en moins observer les étoiles et les galaxies directement sur place, là où sont les télescopes. Souvent les observations se font à distance, en temps réel. L’astronome contrôle la position du télescope à partir de son bureau, et envoie les ordres d’observation par internet. Les résultats, images ou spectres arrivent immédiatement, et permettent de modifier les ordres suivants d’observation. C’est avec les télescopes dans l’espace qu’on a démarré cette façon de fonctionner, et cela s’étend maintenant aux télescopes au sol.
    Ce mode d’observation à distance en temps réel nécessite de réserver le télescope pendant une journée ou plus pour un projet donné, ce qui n’optimise pas le temps de télescope. Il vaut mieux avoir quelqu’un sur place qui décide, en fonction de la météo et d’autres facteurs, de donner priorité à tel ou tel utilisateur. Du coup on fait plutôt l’observation en différé, avec des opérateurs sur place, par « queue scheduling ». Les utilisateurs prévoient toutes les lignes du programme (direction, spectre, etc.) qui sera envoyé au robot, comme pour le temps réel, mais ce sera en fait en différé. L’opérateur envoie le fichier au moment optimum et vérifie qu’il passe bien.
    Selon la complexité des données, la calibration des données brutes peut être faite dans des grands centres avec des super computers. Ensuite, l’astronome reçoit par internet les données déjà calibrées. Pour les réduire et en tirer des résultats scientifiques, il suffit alors de petits clusters d’ordinateurs locaux. Par contre, les super computers sont requis pour les simulations numériques de l’univers, qui peuvent prendre des mois de calcul.
    Que ce soit pour les observations ou les simulations, il faut énormément d’algorithmes. Leur conception se fait en parallèle de la construction des instruments. Les algorithmes sont censés être prêts lorsque les instruments voient le jour. Ainsi, lorsqu’un nouveau télescope arrive, il faut qu’il y ait déjà par exemple tous les pipelines de calibrations. Cette préparation est un projet de recherche à part entière. Tant qu’on n’a pas les algorithmes, l’instrument ne sert à rien: on ne peut pas dépouiller les données. Les progrès matériels doivent être synchronisés avec les progrès des algorithmes.

    B : Est-ce que ce sont les mêmes personnes qui font la simulation de l’univers et qui font l’analyse des images ?
    FC : Non, en général ce sont des personnes différentes. Pour la simulation de l’univers, on est encore très loin du but. Les simulations cosmologiques utilisent quelques points par galaxie, alors qu’il y a des centaines de milliards d’étoiles dans chaque galaxie. Des « recettes » avec des paramètres réalistes sont inventées pour suppléer ce manque de physique à petite-échelle, sous la grille de résolution. Si on change quelques paramètres libres, cela change toute la simulation. Pour aller plus loin, il nous faut aussi faire des progrès dans la physique des galaxies. Même dans 50 ans, nous n’aurons pas encore la résolution optimale.

    B : Comment évalue-t-on la qualité d’une simulation ?
    FC : Il y a plusieurs équipes qui ont des méthodes complètement différentes (Eulérienne ou « Adaptive Mesh Refinement » sur grille, ou Lagrangienne, code en arbre avec particules par exemple), et on compare leurs méthodes. On part des mêmes conditions initiales, on utilise à peu près les mêmes recettes de la physique, on utilise plusieurs méthodes. On les compare entre elles ainsi qu’avec les observations.

    Crab_xrayImage en rayons X du pulsar du Crabe, obtenue
    avec le satellite CHANDRA, credit NASA

    B : Y a-t-il autre chose que tu souhaiterais dire sur l’informatique en astronomie ?
    FC : J’aimerais illustrer l’utilisation du machine learning pour les pulsars. Un pulsar, c’est une étoile à neutron en rotation, la fin de vie d’une étoile massive. Par exemple, le pulsar du crabe est le résidu d’une supernova qui a explosé en l’an 1000. On a déjà détecté environ 2000 pulsars dans la Voie lactée, mais SKA pourra en détecter 20000 ! Il faut un ordinateur pour détecter un tel objet, car il émet des pulses, avec une période de 1 milliseconde à 1 seconde. Un seul pulse est trop faible pour être détecté, il faut sommer de nombreux pulses, en les synchronisant. Pour trouver sa période, il faut traiter le signal sur des millions de points, et analyser la transformée de Fourier temporelle. L’utilité de ces horloges très précises que sont les pulsars pour notre compréhension de l’univers est énorme. En effet, personne n’a encore détecté d’onde gravitationnelle, mais on sait qu’elles existent. L’espace va vibrer et on le verra dans le 15e chiffre significatif de la période des pulsars. Pour cela on a besoin de détecter un grand nombre de pulsars qui puissent échantillonner toutes les directions de l’univers. On a 2 millions de sources (des étoiles) qui sont candidates. C’est un autre exemple où il nous faut des algorithmes efficaces, des algorithmes de machine learning.

    sextet-seyfert-hstLe groupe compact de galaxies, appelé le Sextet
    de Seyfert, image du Hubble Space Telescope (HST), Credit NASA-ESA

    Hier et demain

    B : L’astronomie a-t-elle beaucoup changé pendant ta carrière ?
    FC : Énormément. Au début, nous utilisions déjà l’informatique mais c’était l’époque des cartes perforées.

    B : L’informatique tenait déjà une place ?
    FC : Ah oui. Quand j’ai commencé ma thèse en 1976 il y avait déjà des programmes pour réduire les données. Après les lectrices de cartes perforées, il y a eu les PC. Au début il n’y avait même pas de traitement de texte ! Dans les années qui suivirent, cela n’a plus trop changé du point de vue du contact avec les écrans, mais côté puissance de calcul, les progrès ont été énormes. L’astrophysique a énormément évolué en parallèle. Par exemple pour l’astrométrie et la précision des positions : il y a 20ans, le satellite Hipparcos donnait la position des étoiles à la milliseconde d’arc mais seulement dans la banlieue du soleil. Maintenant, avec le satellite GAIA lancé en 2013, on va avoir toute la Voie lactée. Qualitativement aussi, les progrès sont venus de la découverte des variations des astres dans le temps. Avant tout était fixé, statique, maintenant tout bouge. On remonte le temps aujourd’hui jusqu’à l’horizon de l’univers, lorsque celui-ci n’avait que 3% de son âge. Toutefois, près du Big bang on ne voit encore que les objets les plus brillants. Reste à voir tous les petits. Il y a énormément de progrès à faire.

    B : Peut-on attendre des avancées majeures dans un futur proche ?
    FC : C’est difficile à prévoir. Étant donné le peu que l’on sait sur la matière noire et l’énergie noire, est-ce que ces composants noirs ont la même origine ? On pourrait le savoir par l’observation ou par la simulation. La croissance des galaxies va être différente si la gravité est vraiment modifiée. C’est un grand défi. Un autre défi concerne les planètes extrasolaires. Actuellement il y en a environ 1000 détectées indirectement. On espère « imager » ces planètes. Beaucoup sont dans des zones théoriquement habitables – où l’eau est liquide, ni trop près ni trop loin de l’étoile. On peut concevoir des algorithmes d’optique (sur les longueurs d’onde) pour trouver une planète très près de l’étoile. Des instruments vont être construits, et les astronomes préparent les pipelines de traitement de données.

    Le public

    B : Il y a beaucoup de femmes en astrophysique?
    FC : 30% en France mais ce pourcentage décroît malheureusement. Après la thèse, il faut maintenant faire 3 à 6 années de post doctorat en divers instituts à l’étranger avant d’avoir un poste, et cette mobilité forcée freine encore plus les femmes.

    B : Tu as écrit récemment un livre sur la Voie lactée?
    FC : Oui, c’est pour les étudiants et astronomes amateurs. Il y a énormément d’astronomes amateurs – 60000 inscrits dans des clubs d’astronomie en France. Quand je fais des conférences grand public, je suis toujours très étonnée de voir combien les auditeurs connaissent l’astrophysique. C’est de la semi-vulgarisation. Ils ont déjà beaucoup lu par exemple sur Wikipédia.

    B : Peuvent-ils participer à la recherche, peut-être par des actions de type « crowd sourcing »?
    FC : Tout à fait. Il y a par exemple le « Galaxy zoo ». Les astronomes ont mis à disposition du public des images de galaxies. La personne qui se connecte doit, avec l’aide d’un système expert, observer une image, reconnaître si c’est une galaxie, et définir sa forme. Quand quelqu’un trouve quelque chose d’intéressant, un chercheur se penche dessus. Cela peut même conduire à un article dans une revue scientifique. L’interaction avec le public m’intéresse beaucoup. C’est le public qui finance notre travail ; le public est cultivé, et le public doit être tenu au courant de toutes les merveilles que nous découvrons.

     stephanLe groupe compact de galaxies, appelé le Quintet
    de Stepĥan, image du Hubble Space Telescope (HST), Credit NASA-ESA

  • Votre vie numérique dans un Pims

    Une personne « normale » aujourd’hui a généralement des données sur plusieurs machines et dans un grand nombre de systèmes qui fonctionnent comme des pièges à données où il est facile de rentrer de l’information et difficile de la retirer ou souvent même simplement d’y accéder. Il est également difficile, voire impossible, de faire respecter la confidentialité des données. La plupart des pays ont des règlementations pour les données personnelles, mais celles-ci ne sont pas faciles à appliquer, en particulier parce que les serveurs de données sont souvent situés dans des pays avec des lois différentes ou sans véritable réglementation.

    Nous pourrions considérer qu’il s’agit du prix inévitable à payer pour tirer pleinement avantage de la quantité toujours croissante d’information disponible. Cependant, nous n’arrivons même pas à tirer parti de toutes les informations existantes car elles résident dans des silos isolés. La situation ne fait que s’aggraver du fait de l’accroissement  du nombre de services qui contiennent nos données. Nous sommes arrivés à un stade où la plupart d’entre nous avons perdu le contrôle de nos données personnelles.

    Pouvons-nous continuer à vivre dans un monde où les données sont de plus en plus importantes, vitales, mais aussi de plus en plus difficiles à comprendre, de plus en plus complexes à gérer ? De toute évidence, non ! Alors, quelles sont les solutions pour parvenir à un monde de l’information qui puisse durablement satisfaire ses utilisateurs ?

    Une première solution serait que les utilisateurs choisissent de déléguer toutes leurs informations à une entreprise unique. (Certaines entreprises rêvent clairement d’offrir tout le spectre des services de gestion d’information.) Cela faciliterait la vie des utilisateurs, mais les rendrait aussi totalement dépendants de cette société et donc limiterait considérablement leur liberté. Nous supposerons (même si c’est discutable) que la plupart des utilisateurs préfèrerait éviter une telle solution.

    Une autre possibilité serait de demander aux utilisateurs de passer quelques années de leur vie à étudier pour devenir des génies de l’informatique. Certains d’entre eux ont peut-être le talent pour cela ; certains seraient peut-être même disposés à le faire ; mais nous allons supposer que la plus grande partie des personnes préfèreraient éviter ce genre de solution si c’est possible.

    Y a-t-il une autre option ? Nous croyons qu’il en existe une, le système de gestion des informations personnelles, que nous appellerons ici pour faire court Pims pour « Personal information management system ».

    Pour aller plus loin : Article complet

    Serge Abiteboul Benjamin André Daniel Kaplan
    INRIA & ENS Cachan Cozy Cloud Fing & MesInfos