Catégorie : Numérique

  • Interstices fait peau neuve !

    Vous ne connaissez pas )i(nterstices ? C’est une revue de culture scientifique en ligne, qui vient d’avoir 10 ans ! Vous trouverez des podcasts, des jeux, des idées reçues et des articles de tous niveaux sur les sciences du numérique. Bref, des ressources pour les scolaires et pour les autres, écrites par des chercheurs pour vous !

    Vous connaissez )i(nterstices ? Eh bien, il faut y retourner car le site d’interstices vient de changer ! Pour ses 10 ans, le nouveau site est plus moderne et fait la part belle aux témoignages des lecteurs. Et en plus, les super contenus sont toujours là !

    Logo Interstices

    Mes préférés ? L’abécédaire et les podcasts. Et puis les jeux et les animations, et puis la nouvelle rubrique L’informatique – ou presque – dans les films, et puis…

    Bref, interstices nouveau est arrivé. Binaire salue sa re-naissance en lui souhaitant autant de succès pour les 10 prochaines années !

    Sylvie Boldo

  • Pixees, le monde numérique à portée de clic

    Vous en avez marre qu’on vous rabâche les oreilles avec des notions d’informatique ou de numérique, que l’on vous dise « Ah oui, mais c’est hyper important pour le monde d’aujourd’hui », alors que vous ne comprenez même pas pourquoi ? Et bien voici un moyen efficace et intéressant de comprendre ces notions.

    pixees-4Pixees, un site Inria, de la SIF (Société Informatique de France) et de Pasc@line (Association des Professionnels du Numérique) avec plus d’une vingtaine de partenaires, dédié à la médiation scientifique…

    Pixees, une solution pour décoder le monde du numérique

    La médiation… ?! D’accord ! On part déjà trop loin ? Et bien disons simplement que ce site regroupe toute sorte de supports pour nous initier aux notions d’algorithmes, à la représentation de l’information, à l’histoire de l’informatique, etc. C’est à travers des conférences, des vidéos, des interviews, des documentaires, des jeux, et on en passe, que nous pouvons nous documenter, et même apprendre à apprendre aux autres.

    pixees-2En effet ce site a été réalisé pour toute personne du niveau le plus sobre au plus élevé. Que nous soyons parent, élève ou étudiant, professeur, ou bien simplement curieux, ce site est fait pour nous. Des méthodes sont là pour vous accompagner pas à pas, par exemple pour expliquer à l’enfant comment utiliser et s’approprier ces machines omniprésentes au quotidien dans notre société : ordinateur, tablette ou smartphone… et au-delà de l’usage,apprendre également à créer grâce à elles.

    Peur de ne pas être à la hauteur ? De ne pas comprendre les articles ? Pas d’inquiétude, ils sont indexés et de multiples définitions sont là pour nous secourir en cas de problème.

    Spécial profs : profitez de la culture numérique en live.

    Cela tombe à pic, au moment où l’enseignement des fondements du numérique entre au collège et en primaire (on parle parfois de « codage », mais au delà de l’apprentissage de la programmation, il y a la construction d’une culture scientifique indispensable à la maîtrise du numérique).

    pixees-3Selon le lieu où on se trouve en France, il y a la possibilité de faire venir dans son établissement une ou un chercheur. Pixees propose différents types d’interventions, telles que des animations et/ou des conférences, consultables sur le site et répertoriées géographiquement sur la carte de France de tous les partenaires du projet.

    Vous préférez un contact direct de visu ? Cela tombe bien, car notre bureau en ligne est ouvert à partir du 8 septembre les mercredis et jeudis de 14h00 à 17h00. Vous n’aurez ensuite plus qu’à lancer la connexion en cliquant sur l’image affichée. Nous contacter par mail, téléphone, Twitter ou en remplissant un formulaire numérique est aussi possible.

    Le partage et la co-construction avant tout

    Pixees n’est évidemment pas réservé qu’aux enseignants, animateurs d’activité extra-scolaire ou parents. Le bureau en ligne est destiné à tous les futurs et bienvenus inconditionnels du site qui souhaiteront participer à cette aventure.

    En plus, Pixees peut vous répondre en anglais, espagnol, italien, allemand et en d’autres langues, grâce à notre bureau en ligne international. Certaines ressources sont mêmes déjà traduites.

    Pixees ou le mouvement perpétuel

    pixees-1Ça y est, mordu de Pixees ? N’oubliez alors pas de suivre son actualité et ses évolutions de publications et d’interventions. N’hésitez surtout pas à faire part de vos idées et remarques, afin que ce site évolue selon vos besoins.

    Un dernier argument pour vous montrer que ce site est celui de toutes et tous ? L’une de nous est une jeune prof de langues, l’autre une étudiante en communication. Aider à construire et nourrir Pixees a été notre job d’été. On en a profité pour découvrir plein de choses bien utiles dans notre vie quotidienne, dans le monde numérique. Et aussi des choses «inutiles» mais passionnantes pour avoir une meilleure vision de cet univers-là.

    Alice Viéville et Juliette Calvi

  • Un algorithme : EdgeRank de Facebook

    On n’arrête pas de vous dire que les algorithmes ont de plus en plus d’importance dans votre vie quotidienne. Vous êtes capable de comprendre comment Philae a fait pour atterrir sur la comète «Tchouri», mais vous ne seriez pas capable de comprendre comment ils fonctionnent ? Allons donc ! Binaire a demandé à un ami, Rachid Guerraoui, professeur à l’École Polytechnique Fédérale de Lausanne, de nous expliquer l’algorithme EdgeRank qui d’une certaine façon participe à votre vie sociale. N’hésitez pas à demander à Binaire des explications sur d’autres algorithmes.

    En préambule, si vous n’êtes pas familier de Facebook, ce réseau social qui est aussi le deuxième site web le plus visité au monde (après Google), nous vous conseillons d’aller lire la page de wikipedia qui l’explique en détail ou d’aller prendre 10 minutes pour consulter cette vidéo.

    edgerank-binaire-rayclid© Ray Clid

    Si vous êtes adepte du réseau social Facebook, vous aurez sans doute remarqué que toutes les activités concernant vos « amis » n’apparaissent pas dans votre fil d’actualité. Mais comment Facebook fait-il le tri? Pourquoi Facebook decide t-il d’afficher telle actualité plutôt que telle autre ? Ces décisions sont prises par un algorithme,  un parmi ceux qui régissent notre vie quotidienne aujourd’hui.

    Cet algorithme s’appelle EdgeRank. Le principe de cet algorithme n’est pas sorcier. Si on omet certains détails, en particulier de mise en oeuvre et d’optimisation, on peut l’expliquer de manière assez simple.

    Avant de décrire son fonctionnement néanmoins, quelques éléments de contexte.

    A la base, Facebook avait pour objectif de connecter les étudiants de l’Université de Harvard. Aujourd’hui, Facebook connecte près d’un milliard d’utilisateurs. Facebook permet à chacun de partager en temps réel toutes sortes d’informations avec ses “amis”: des notes décrivant ses états d’âme ou ses activités quotidiennes, des photos, de la musique, des recommandations pour des livres, des liens vers des articles de journaux, etc.

    En gros, chaque utilisateur possède deux espaces: un espace qu’il utilise pour décrire les informations qu’il souhaite partager, ses posts, et un espace dans lequel il voit défiler les posts partagés par ses amis.  Ce second espace est parfois appelé fil d’actualité.    L’algorithme EdgeRank fait une sélection radicale parmi tous les posts des amis d’un utilisateur Bob pour en afficher en moyenne 10% sur le fil d’actualité de Bob. D’une part EdgeRank fait cela pour ne pas inonder Bob d’informations qui disparaîtraient en une fraction de seconde à cause de leur trop grand nombre.  D’autre part EdgeRank filtre les informations afin que Bob trouve son fil d’actualité suffisamment intéressant pour rester connecté et être actif à son tour.  Plus il y a de personnes connectées et plus Facebook peut monnayer son support publicitaire. edgePour chaque utilisateur Bob, EdgeRank  détermine le score des posts partagés par les amis de Bob : plus le score d’un post p est élevé et plus B devrait trouver p intéressant.  EdgeRank affiche les posts dont les scores pour Bob sont les plus élevés.

    En première approximation, le score pour un utilisateur Bob, d’un post p émis par une utilisatrice Alice, correspond au produit de trois variables:  a * t * f.

    • La variable a désigne l’affinité d’Alice par rapport à Bob. Plus Bob  à l’habitude d’aimer ou de commenter des informations postées par Alice, voire d’envoyer des messages à Alice, et plus a sera grand.
    •  La variable t représente le poids du post. Une longue note, une photo ou une vidéo ont plus de poids qu’un petit commentaire par exemple.
    • La variable f représente la fraîcheur du poste: plus un post est ancien, plus diminue. Donc la priorité est donnée aux posts les plus récents.

    Il est important de remarquer ici que la notion de score est relative. Le score d’un post p posté par Alice peut être différent pour deux amis d’Alice, Bob et Jack. Cela peut s’expliquer par le fait que Bob soit un admirateur d’Alice mais pas Jack. Par ailleurs, la  notion d’affinité, sous-jacente au calcul d’un score, est asymétrique. Le fait que Bob  soit un admirateur d’Alice n’implique pas l’inverse. Ainsi, il se peut que les posts d’Alice soient systématiquement affichés sur le fil d’actualité de Bob et jamais l’inverse.

    En fait, EdgeRank ne fait pas simplement un produit, mais une somme de produits.  A chaque post p est associé un ensemble de liens. Le premier lien est celui de la création de p: il est généré par l’utilisateur Alice qui a partagé p.  A chaque fois qu’un autre ami Jack d’Alice souligne qu’il aime p ou le commente, un nouveau lien est généré par Jack : toujours concernant le post p. Si Jack est aussi un ami de Bob, il y a des chances que le lien qu’il vient de créer augmente le score du post p et le fasse apparaître sur le fil d’actualité de Bob.

    Plus un post p est “liké” ou commenté par des amis de Bob et plus p a de chances d’apparaitre sur le fil d’actualités de Bob. Cela explique parfois pourquoi on voit apparaître un « vieux » post sur son fil d’actualité.

    Chacun des liens sur p a donc un score qui correspond à un produit de variables a * t * f. Le score de p est la somme des scores des liens.

    Le nom de l’algorithme, EdgeRank, souligne le fait qu’il ordonne en fait des liens (vers des posts).

    (*) Pour en savoir plus une vidéo wandida

     

  • Journaliste et informaticienne

    Un nouvel « entretien de la SIF ». Claire Mathieu et Serge Abiteboul interviewent Susan McGregor qui est professeur à l’Université de Columbia et directeur adjoint du Centre Tow pour le journalisme numérique. En plus d’être une journaliste, Susan est aussi informaticienne. Donc, c’est vraiment la personne à interroger sur l’impact de l’informatique sur le journalisme.

    Cet entretien parait simultanément sur Binaire et sur 01net. Traduction Serge Abiteboul. Version originale.

    smgProfesseur McGregor © Susan McGregor

    B : Susan, qui êtes-vous?
    S : Je suis professeur à l’Ecole d’études supérieures de journalisme de Columbia et directeur adjoint du Centre Tow pour le journalisme numérique. Je me suis intéressée depuis longtemps à l’écriture d’essais et je me suis impliquée dans le journalisme à l’université, mais ma formation universitaire est en informatique, sur la visualisation de l’information, et les technologies de l’éducation. Avant de rejoindre Colombia, j’ai été Programmeur senior de l’équipe News Graphics au Wall Street Journal pendant quatre ans, et encore avant ça, dans une start-up spécialisée dans la photographie d’événements en temps réel. Bien que j’aie toujours travaillé comme programmeur, ça a toujours été comme programmeur dans des équipes de design. Les équipes de design peuvent être un défi si vous venez de l’informatique, car il existe une tension entre programmation et conception. Les priorités de la programmation vont vers des composants modulaires, réutilisables et des solutions générales, alors que les conceptions doivent toujours être le plus spécifiques possibles pour une situation donnée. Mon intérêt pour la visualisation et pour la facilité d’utilisation a commencé au cours d’une année de césure entre l’école secondaire et l’université, dont j’ai passé une partie à travailler sur des tâches administratives dans une grande entreprise. J’ai pu observer comment mes collègues (qui ne connaissaient rien à la technique) étaient extrêmement frustrés avec leurs ordinateurs. Grâce à un cours d’informatique suivi au lycée, je pouvais voir les endroits où la conception du logiciel reflétait juste la technologie sous-jacente. Des choix d’interface – qui étaient essentiellement des choix de communication – étaient guidés par la technologie alors qu’ils auraient dû l’être par les besoins de l’utilisateur ou dans l’intérêt des tâches réalisées.

    La littératie informatique est essentielle pour les journalistes …

    B : Selon vous, qu’est-ce qu’un journaliste devrait savoir en informatique aujourd’hui ?
    S : La culture informatique est essentielle pour les journalistes ; l’informatique est devenue tellement importante pour le journalisme pour des tas de raisons, que nous avons commencé à proposer un double diplôme en informatique et journalisme à Columbia.

    Tout d’abord, les journalistes ont besoin de comprendre la vie privée et la sécurité numérique, parce qu’ils ont l’obligation de protéger leurs sources. Il leur faut comprendre comment les métadonnées des courriels et des communications téléphoniques peuvent être utilisées pour identifier ces sources. Ensuite – et c’est sans doute l’aspect le plus connu – nous allons trouver la place dans les rédactions pour des personnes avec des compétences techniques pour construire les outils, les plates-formes et les visualisations qui sont essentiels dans le monde de l’édition numérique en pleine évolution. Et puis, des concepts de l’informatique comme les algorithmes et l’apprentissage automatique se retrouvent maintenant dans presque tous les produits, les services, les industries, et influencent de nombreux secteurs des intérêts du public. Par exemple, les offres de cartes de crédit et de prêts hypothécaires sont accordées selon des algorithmes ; la compréhension de leurs biais potentiels est donc critique pour être capable d’évaluer leurs impacts sur ​​les droits civils. Afin de rendre compte avec précision et efficacité de la technologie en général, plus de journalistes ont besoin de comprendre comment ces systèmes fonctionnent et ce qu’ils peuvent faire. À l’heure actuelle, la technologie est souvent couverte plus du point de vue des consommateurs que d’un point de vue scientifique.

    Depuis que j’ai rejoint Columbia, j’ai pris de plus en plus conscience des tensions entre les scientifiques et les journalistes. Les scientifiques veulent que leurs travaux soient racontés mais ils sont rarement satisfaits du résultat. Les journalistes ont besoin de plus en plus de faire comprendre la science, mais de leur côté, les scientifiques devraient également faire plus d’efforts pour communiquer avec les non-spécialistes. Les articles scientifiques sont écrits pour un public scientifique ; fournir des textes complémentaires orientés vers une véritable transmission des savoirs pourrait améliorer à la fois la qualité et la portée du journalisme scientifique.

    B : Comment voyez-vous l’avenir du journalisme en tenant compte de l’évolution de la place de l’informatique dans la société?
    S : Le journalisme est de plus en plus collaboratif, avec les citoyens journalistes, le crowd sourcing de l’information, et plus d’interactions en direct avec le public. On a pu observer un grand changement ces quinze dernières années ! Ça   va continuer, même si je pense que nous allons aussi  assister à un retour vers des formes plus classiques, avec des travaux journalistiques plus approfondis. Internet a généré  beaucoup plus de contenu que ce dont nous disposions avant, mais pas nécessairement plus de journalisme original. Même si vous pensez qu’il n’est pas nécessaire d’avoir de talent particulier ou de formation pour être un journaliste, vous ne pouvez pas empêcher que la réalisation d’un reportage original demande du temps. Trouver des sources prend du temps ; mener des interviews prend du temps. Et si des ordinateurs peuvent réaliser des calculs incroyables, le genre de réflexions nécessaires pour trouver et raconter des histoires qui en valent la peine est encore quelque chose que les gens font mieux que les ordinateurs.

    smg2Clip de journal, ©FBI

    B : En tant que journaliste, que pensez-vous du traitement du langage naturel pour l’extraction de connaissances à partir de texte?
    S : De ce que je comprends de ces sujets particuliers, la perspective la plus prometteuse pour les journalistes est le collationnement et la découverte de connaissances. Il y a encore quelques années seulement, les agences de presse avaient souvent des documentalistes, et vous commenciez une nouvelle histoire ou une nouvelle investigation en examinant un classeur de « clips ». Tout cela a disparu parce que la plupart des archives sont devenues numériques, et parce qu’il n’y a généralement plus de département dédié à l’indexation des articles. Mais si le TNL (traitement naturel de la langue) et la résolution d’entités pouvaient nous aider à relier de façon significative la couverture d’un sujet à travers le temps et ses aspects, ils pourraient remplacer très différemment le classeur. Beaucoup d’organes de presse disposent de dizaines d’années d’archives mais ne disposent pas de moyens réellement efficaces pour exploiter tout ça, pour avoir vraiment  accès à toute cette connaissance.

    Le volume de contenus augmente, mais le volume d’informations originales pas nécessairement.

    B : Vous utilisez souvent (dans la version anglaise) le terme « reporting » ?  Que signifie ce mot pour vous ?
    S : L’équivalent scientifique de « reporting » c’est la conduite d’une expérience ou d’observations ; il s’agit de générer de nouveaux résultats, de nouvelles observations. L’idée de « reporting » implique l’observation directe, les interviews, la collecte de données, la production de médias et l’analyse. Aujourd’hui, on trouve souvent des variantes du même élément d’information à plein d’endroits, mais ils ont tous la même origine ; le volume de contenus augmente, mais le volume d’informations originales pas nécessairement. Par exemple, quand j’ai couvert l’élection présidentielle en 2008, j’ai appris que pratiquement tous les organes de presse obtenaient leurs données électorales de l’Associated Press. Beaucoup de ces organes de presse produisent leurs propres cartes et graphiques le jour du scrutin, mais ils travaillent tous à partir des mêmes données au même moment. Il peut vous sembler que vous avez de la diversité, mais la matière brute est la même pour tous. Aujourd’hui, vous avez souvent plusieurs organes de presse couvrant un sujet quand, de façon réaliste, un ou deux suffiraient. Dans ces cas, je pense que les autres devraient concentrer leurs efforts sur des thèmes sous-représentés. Voilà ce dont nous avons vraiment besoin : des reportages plus originaux et moins de répétitions.

    B : Vous pourriez probablement dire aussi ça pour la science. Dès que quelqu’un a une idée intéressante, tout le monde se précipite et la répète. Maintenant, en tant que journaliste, que pensez-vous de l’analyse du « big data » (des data masses) ?
    S : « Big Data » est un terme assez mal défini, englobant tout, depuis des statistiques à l’apprentissage automatique, suivant la personne que vous interrogez. Les données utilisées en journalisme de données sont presque toujours de taille relativement petites. Le journalisme de données (« data journalism »), cependant, occupe une place de plus en plus importante dans notre domaine. Aux États-Unis, nous avons maintenant des entreprises fondées exclusivement sur le journalisme de données. La popularité de ce genre de journalisme provient en partie, je pense, du fait que l’idéal américain de journalisme est « l’objectivité » ; nous avons une notion profondément ancrée dans notre culture avec ses origines dans la science, que les chiffres et les données sont objectifs, qu’ils incarnent une vérité impartiale et apolitique. Mais d’où viennent  les données ? Les données sont la réponse aux questions d’une interview. Eh bien, quelles étaient les motivations de la personne qui a choisi ces questions ? Il faut être critique vis à vis de tout cela. Le scepticisme est une composante nécessaire du journalisme, une notion essentielle de cette  profession. À un certain niveau, vous ne devez jamais croire complètement quelque source que ce soit et un tel scepticisme doit s’étendre aux données. La corroboration des données et leur contexte sont des points essentiels.

    Pour moi, c’est également un point clé des données et de l’analyse des données dans le cadre du journalisme : l’analyse de données seulement n’est pas du journalisme. Vous devez d’abord comprendre, puis présenter la signification des données d’une manière qui est pertinente et significative pour votre auditoire. Prenez les prix des denrées alimentaires, par exemple. Nous avons des données de qualité sur ce sujet. Et si j’écris un article disant que les pommes Gala se vendaient 43 dollars le baril hier ? C’est un fait – et en ce sens il « est vrai ». Mais à moins que je n’inclue aussi le coût du baril la semaine dernière, le mois dernier ou l’année dernière, cette information n’a aucun sens. Est-ce que 43 dollars le baril c’est beaucoup ou c’est peu? Et si je n’inclus pas les perspectives d’un expert qui explique pourquoi les pommes Gala se sont vendues pour 43 dollars le baril hier, on ne peut rien faire de cette information. Pour bien faire, le journalisme doit fournir des informations avec lesquelles les gens puissent prendre de meilleures décisions pour ce qui est de leur vie. Sans de telles explications, c’est des statistiques, pas du journalisme.

    La communication, l’éducation et la technologie informatique

    smg3Découverte de cranes d’homo sapiens à Herto, Ethiopie, ©Bradshaw Foundation

    B : Parfois nous sommes frustrés que les journalistes parlent si peu des progrès essentiels en informatique et beaucoup, en comparaison, de ​​la découverte de quelques os en Afrique, par exemple.
    S : Les êtres humains sont des créatures visuelles. Des os en Afrique, vous pouvez prendre des photos. Mais les découvertes de la recherche en informatique sont rarement visuelles. La vision est parmi tous les sens humains, celui qui a la bande passante la plus élevée.  Nous savons que les lecteurs sont attirés par les images à l’intérieur d’un texte. J’ai cette hypothèse « jouet » que des visualisations peuvent être utilisées, essentiellement, pour transformer des concepts en mémoire épisodique – par exemple, des images iconiques, ou de la propagande politique et des caricatures peuvent être utilisées. Et parce que les visuels peuvent être absorbés en un clin d’œil et mémorisés (relativement) facilement, des idées accompagnées de visuels associés sont bien plus facilement disséminées. C’est une des raisons pour lesquelles j’utilise des visuels dans mon travail sur la sécurité numérique et ce depuis toujours.

    smg41smg42http vs. https, visualisés. © Matteo Farinella & Susan McGregor

    B : En parlant de théorie de l’éducation, que pensez-vous des Flots (*)?
    S : Je doute que les Flots persistent dans leur forme actuelle, parce qu’en ce moment on se contente essentiellement de répliquer sur le Web le modèle de l’université classique. Je pense par contre que les techniques et les technologies que l’on développe en ce moment vont influencer les méthodes d’enseignement, et qu’il y aura une augmentation de l’apprentissage informel auto-organisé. Les vidéos en ligne ont et continueront à transformer l’éducation. Des exercices interactifs avec des évaluations intégrées continueront à être importants. Les salles de classe seront moins le lieu où on donne des cours et plus des endroits où on pose des questions. Bien sûr, tout cela dépend de l’accès universel à des connexions Internet de bonne qualité, ce qui n’est pas encore une réalité, même pour de nombreuses parties des États-Unis.

    La littératie informatique est essentielle pour tous.

    B : Que pensez-vous de l’enseignement de l’informatique à l’école primaire ?
    S : La pensée informatique est une littératie indispensable pour le 21e siècle. Je ne sais pas si cette idée est très nouvelle : L’approche des «  objets à penser » de Seymour Papert avec la pédagogie constructiviste et le développement du langage de programmation Logo date de près de cinquante ans. J’ai commencé à jouer avec Logo à l’école primaire, quand j’avais huit ans. L’idée de considérer la pensée informatique comme une littératie nécessaire est incontestable pour moi. Je peux même imaginer la programmation élémentaire utilisée comme une méthode pour enseigner les maths. Parce que j’enseigne à des journalistes adultes, je fais l’inverse : j’utilise le récit pour enseigner la programmation.

    Par exemple, quand j’enseigne à mes étudiants Javascript, je l’enseigne comme une « langue », pas comme de l’ « informatique. » Voilà, je montre un parallèle entre l’écriture d’une langue naturelle et l’écriture d’un programme. Par exemple, en journalisme, nous avons cette convention sur l’introduction d’un nouveau personnage. Quand on parle de quelqu’un pour la première fois dans un article, on l’introduit, comme : « M. Smith, un plombier de l’Indiana, de 34 ans. » Eh bien, c’est ce qu’on appelle une déclaration de variable en programmation ! Sinon, si plus tard, vous parlez de Smith sans l’avoir introduit, les gens ne savent pas de qui vous parlez. La façon dont les ordinateurs « lisent » des programmes, en particulier des programmes très simples, est très semblable à la façon dont les humains lisent du texte. Vous pouvez étendre l’analogie : l’idée d’un lien hypertexte tient de la bibliothèque externe, et ainsi de suite. La grammaire de base de la plupart des langages de programmation est vraiment très simple comparée à la grammaire d’une langue naturelle : vous avez des conditionnelles, des boucles, des fonctions – c’est à peu près tout.

    smg6Exemple de diapositives d’une présentation Enseigner JavaScript comme une langue naturelle à BrooklynJS, Février 2014.

    B : Une dernière question: que pensez-vous du blog Binaire? Avez-vous des conseils à nous donner ?
    S : Le temps de chargement des pages est trop long. Pour la plupart des organes de presse, une part croissante des visiteurs vient du mobile. Le système doit savoir qu’un lecteur a une faible bande passante et s’y adapter.

    B : Et est-ce qu’il y a autre chose que vous aimeriez ajouter?
    S : En ce qui concerne la programmation et la technologie informatiques, et le public qui n’y connaît rien, je voudrais dire : vous pouvez le faire ! Douglas Rushkoff a fait un grand parallèle entre la programmation et la conduite d’une voiture : il faut probablement le même niveau d’effort pour atteindre une compétence de base dans les deux cas. Mais alors que nous voyons des gens – toute sorte de gens – conduire, tout le temps, l’informatique et la programmation sont par contre invisibles, et les personnes qui jouissent du plus de visibilité dans ces domaines ont tendance à se ressembler. Pourtant, on peut dire que programmer et conduire sont aussi essentiels l’un que l’autre dans le monde d’aujourd’hui. Si vous voulez être en mesure de choisir votre destination, vous devez apprendre à conduire une voiture. Eh bien, de nos jours, si vous voulez être en mesure de vous diriger dans le monde, vous devez apprendre la pensée informatique.

    Explorez la pensée informatique. Vous pouvez le faire !

    Susan McGregor, Université de Columbia

    (*) En anglais, Mooc, cours en ligne massifs. En français, Flot, formation en ligne ouverte.

     

  • Coder : entre vice et plaisir

    Le phalanger volant (glider) proposé comme emblème de la communauté des hackers.

    Dans la définition (anglaise) sur Wikipedia de « Hacker » on découvre que ce mot peut désigner

    1. Celui qui cherche et exploite les faiblesses d’un système informatique,
    2. Celui qui innove dans le domaine de l’électronique ou de l’informatique, et
    3. Celui (ou celle) qui combine l’excellence, la ruse, et l’exploration dans ses activités.

     

     

    Dans la page française, c’est un brin plus sobre :

    1. Hacker, spécialiste de la sécurité informatique
      ou
    2. Hacker, personne qui aime comprendre le fonctionnement interne d’un système, en particulier des ordinateurs et réseaux informatiques.
    Le bitesize de la BBC inclut des jeux et un guide du nouveau parcours de formation des enfants au code. ©BBC

    Sur ces bases, il est possible d’imaginer que nombreux sont ceux qui pensent que le hacker développe de façon positive son imagination, code, invente, crée. Qu’il reflète le plaisir exprimé par le jeune Max, 10 ans, choisi par la BBC dans le cadre de l’effort national qui fait que depuis le 1er septembre 2014 c’est depuis l’âge de 5 ans qu’on enseigne la programmation aux jeunes Britanniques.

    Le lecteur averti de cet article aura cependant noté que parmi les 3 définitions en anglais et les 2 en français l’une pouvait permettre une interprétation malicieuse. C’est celle qu’a choisi –semble-t-il- un homologue français de la BBC, qui fait dire à un personnage « hacker, c’est un escroc du net ».

    Ou le choix entre proposer que coder soit un plaisir… ou un vice.
    Colin de la Higuera.

  • Le pacs des humanités et du numérique

    On parle d’humanités numériques  autour de la proposition du Conseil National du Numérique d’un « bac HN ». Un chercheur en humanités aujourd’hui consulte des documents sur Internet, produit des sources numériques, les indexe, classe ses informations dans des bases de données, invente de nouveaux corpus de sources, tweete, blog, prépare des Mooc, discute à distance avec ses collègues, ses étudiants, etc. Les humanités sont devenues numériques. Une historienne et un informaticien nous parlent du sujet. L’article complet peut être trouvé sur HAL.

    histoire-numeriqueLes humanités numériques se définissent au départ par des outils numériques au service de la recherche en sciences humaines et sociales, des outils pédagogiques pour enseigner dans ces domaines. Mais, le sujet dépasse largement le cadre de ces seuls outils. Tous les savoirs se transforment au contact de la pensée informatique, les disciplines évoluent, les frontières bougent. C’est toute la complexité des humanités numériques.

    Les humanités. Le terme est imprécis. Prenons-le dans un sens très général, en y incluant l’histoire, la linguistique, la littérature, les arts et le design, mais aussi la géographie, l’économie, la sociologie, la philosophie, le droit, la théologie et les sciences des religions.

    Le numérique et l’informatique. Il nous faut ici considérer l’articulation entre le monde numérique et la science qui en est au cœur, l’informatique. Par exemple, le Web, si essentiel dans les humanités numériques, est une des plus belles réalisations de l’informatique. Mais il tient aussi d’une philosophie humaniste : la mise à disposition pour tous, le partage. L’informatique est à la fois une science et une technique, qui propose des outils et développe de nouvelles formes de pensée ; elle a donné naissance au monde numérique, avec ses usages et ses cultures propres.

    Des outils et une pensée

    Le point de départ des humanités numériques est la représentation de l’information et des connaissances sous forme numérique. Les premières applications furent la numérisation de textes (notamment à partir d’OCR, « optical character recognition »), mais aussi de photos, de films, de la musique, de cartes géographiques, de plans d’architecture, etc. Les scientifiques (en SHS ou pas) ont vite compris l’intérêt de réunir des données de natures différentes, de les organiser dans des bases de données. Les bases de données ont été combinées à deux grandes inventions de l’informatique, l’hypertexte et le réseau Internet, pour conduire aux « bibliothèques numériques ». Par exemple, le Projet Perseus  de l’université Tufts s’est attaqué à la construction d’une bibliothèque numérique qui rassemble des textes du monde méditerranéen en grec, latin et arabe. Les textes numérisés, indexés, disponibles sur la Toile, sont facilement accessibles à tous. A l’heure du Web, les étudiants, mais aussi les amateurs, les journalistes, tout le monde a accès à des sources d’informations considérables.histoire-numerique-clio

    Si la bibliothèque numérique peut être vue comme un des piliers des humanités numériques, le « réseau numérique » en est certainement un autre. Le travail des chercheurs repose depuis toujours sur l’existence de réseaux. On échangeait des lettres. On voyageait pour consulter une bibliothèque ; on en profitait pour rencontrer ses homologues locaux. Ces échanges, ces rencontres physiques participaient à produire et enrichir les connaissances. Pour les scientifiques (en sciences humaines ou pas), le réseau numérique transforme le travailler ensemble. On peut partager des textes, les annoter ensemble, les commenter, voire corédiger des contenus très riches en s’éloignant du texte linéaire bien défini aux auteurs bien précisés. Pour citer un exemple riche en symbole, le projet  « Mapping the republic of letters », lancé par Stanford, a permis de mettre en commun des recherches pour étudier comment, depuis la Renaissance, les lettrés européens partageaient leurs connaissances à travers des textes et des rencontres. Un réseau social numérique pour expliquer un réseau social « classique » ! Ce passage au travail en réseau s’accompagne de changements fondamentaux dans nos rapports aux connaissances. Un univers des fragments se substitue aux contributions monolithes. Les outils de recherche, les sites de corédaction encouragent cet effet, qui s’accompagne aussi de l’affaiblissement de la contribution de l’auteur individuel devant les contributions du groupe.

    Jusque-là nous avons surtout parlé d’information, évoquons maintenant les connaissances. À une petite échelle, on introduit des connaissances pour expliquer un document, des éléments qui le composent, des services Web. C’est la base du Web sémantique. Des balisages permettent par exemple de préciser le sens des mots d’un texte, de faire des ponts entre des ressources distinctes avec le linked data. Un des premiers exemples très populaire de balisage de texte est le « Text encoding initiative », initié en 1987. Le but du balisage était de permettre de trouver plus facilement de l’information dans de larges collections de textes de bibliothèques. Avec les ontologies, un pas supplémentaire est franchi pour atteindre le monde des connaissances structurées, classifiées, organisées. Par exemple, l’ontologie Yago a été construite à partir de la version anglaise de l’encyclopédie textuelle Wikipédia, en utilisant un logiciel développé à l’Institut Max Planck. En 2011, Yago avait déjà 2 millions d’entités et plus de 20 millions de relations entre ces entités.

    La machine peut aider à obtenir toujours plus de connaissances. Il est intéressant de remarquer que le calcul de connaissances « quantitatives » est à l’origine de ce qui est souvent cité comme le premier travail en humanité numérique : Roberto Busa, un jésuite italien, a imaginé dans les années quarante et réalisé ensuite, l’analyse linguistique basée sur l’informatique des œuvres complètes de Thomas d’Aquin. Les techniques d’analyse de texte qu’il a utilisées (indexation, contexte, concordance, co-occurrence, etc.) sont utilisées aujourd’hui dans de nombreuses disciplines notamment en histoire ou en littérature. Peut-être les plus paradigmatiques exemples de cette analyse de données (notamment de par leurs masses) viennent de Google trends. Google trends permet d’avoir accès à la fréquence d’un mot dans les requêtes au moteur de recherche Google (près de 10 milliards de requêtes par jour en 2014). Il a donné lieu à de nombreuses études comme la détection d’épidémie.

    Dans les sciences physiques et les sciences de la vie, la modélisation numérique tient une place considérable. En simplifiant, le chercheur propose un modèle du phénomène complexe étudié, et le simule ensuite numériquement pour voir si les comportements résultants correspondent à ceux observés dans la réalité. Parmi les plus grands challenges actuels, on notera par exemple Le « Blue brain project » lancé à l’Ecole Polytechnique Fédérale de Lausanne qui vise ni plus ni moins que de simuler numériquement le cerveau humain. La modélisation et la simulation tiennent une place grandissante en SHS. La sociologie est en particulier un candidat évident. Il est possible de s’appuyer sur la modélisation (extrêmement simplifiée) des comportements d’un très grand nombre d’acteurs (agent dans une terminologie informatique populaire) et de leurs interactions avec leur environnement.6340497bb01b04f0d7b4e00ca32ff638 La puissance de calcul de clusters d’ordinateurs permet ensuite de réaliser des simulations. La comparaison des résultats avec la réalité permet de « paramétrer » le modèle, voire de le modifier, pour mieux coller à la réalité observée. Nous retrouvons par exemple l’étude  de Paola Tubaro et Antonio Casilli sur les émeutes de Londres. Ils ont cherché à savoir si la censure des médias sociaux proposée par David Cameron avait un effet sur le développement d’émeutes. A l’aide d’une simulation numérique, ils ont montré que la censure participait à augmenter le niveau général de violence.

    Et nous conclurons ce tour d’horizon rapide des humanités numériques par l’archivage, un domaine véritablement bouleversé par le numérique. On peut mentionner par exemple Europeana , une bibliothèque numérique européenne lancée en novembre 2008 par la Commission européenne qui compte déjà plus de 26 millions d’objets numériques, textes, images, vidéos, fin 2013. Les États européens (à travers leurs bibliothèques nationales, leurs services d’archivages, leurs musées, etc.) numérisent leurs contenus pour assurer leur conservation, et les mettent en commun. De telles initiatives permettent d’imaginer par exemple que dans moins de 50 ans des historiens trouveront numériquement toutes les informations dont ils ont besoin, passant d’une archive à une autre simplement en changeant de fenêtre sur leur écran.

    Avec le numérique, nous sommes passés pour l’information disponible d’une culture de rareté, à une culture d’abondance. Devant le déluge informationnel, il n’est pas simple de choisir ce qu’il faut conserver, un vrai challenge pour les archivistes. Les institutions comme les Archives Nationales, la BNF (Bibliothèque Nationale de France) et l’INA (Institut National de l’Audiovisuel), et des outils anciens comme le dépôt légal se sont transformés. Que seront devenues les pages du Web d’aujourd’hui dans 50 ans quand des chercheurs voudront les consulter ? Des fondations comme Internet Archive  aux Etats-Unis ou Internet Memory  plus près de nous, s’attaquent au problème avec les grandes institutions d’archivage.

    Limites de la technique. Les humanités numériques ont modifié les modes de travail et de pensée dans les sciences humaines et sociales. Il faut pourtant être conscient de leurs limites. Si les opportunités sont nombreuses, tout n’est pas possible. Certains problèmes demandent des puissances de calcul dont nous ne disposons pas ou que nous n’avons pas les moyens de mobiliser pour un problème particulier. Surtout les plus grandes avancées en humanités reposent sur l’intelligence d’humains qui découvrent la bonne question, énoncent la bonne hypothèse, proposent l’approche révolutionnaire. Si les machines peuvent aider, elles ne sont pas prêtes de fournir cela. Et puis, dans le cadre des SHS, il faut aussi savoir accepter les limites de l’objectivité. Le problème de l’analyse qualitative des données reste entier. Bruno Latour écrivait en 2010 : « Numbers, numbers, numbers. Sociology has been obsessed by the goal of becoming a quantitative science. » Les humanités numériques ne peuvent se réduire à des équations ou des algorithmes (les plus beaux soient-ils) et des nombres. Le sujet principal est l’être humain bien trop complexe pour être mis dans sa globalité en équation ou même en algorithme.

    robot-poppy
    Poppy, un robot pour populariser et démystifier les sciences du numérique.

    La convergence entre sciences et humanités. Un ordinateur est une machine à tout faire (« general purpose ») ; le même système peut être utilisé que la science soit « humaine » ou « dure », et le même algorithme peut être utilisé dans les deux cas. Les méthodes, les concepts, les techniques, les outils de l’informatique rapprochent les chercheurs de toutes ces disciplines, réduisant en particulier le gouffre qui s’est créé entre les SHS et les sciences « dures ». Les principes même de la « pensée informatique » (computational thinking) sont généraux. Les convergences sont si fortes que plutôt que de parler d’humanités numériques, peut-être aurions-nous dû discourir de « sciences numériques » en général. Evidemment une telle convergence n’implique pas la confusion. Un modèle formel des sentiments dans la poésie romantique n’a rien à voir avec un modèle numérique de l’anatomie du cœur humain. Si l’informatique se met au service des sciences humaines et sociales, ce ne doit pas être pour les appauvrir mais au contraire, avec de nouveaux outils, une nouvelle pensée, pour leurs permettre de découvrir de nouveaux territoires.

    Inventer un nouvel humanisme. Avec notamment Internet et le Web, le numérique a encouragé la naissance d’une nouvelle culture basée sur le partage et l’échange. Dans des développements comme les logiciels libres ou Wikipédia, les ambitions de cette culture sont claires, l’invention d’un nouvel humanisme. Il nous semble que les humanités numériques doivent participer à ce mouvement car quelle plus grande ambition humaniste que la diffusion des connaissances et de la culture à toutes et tous ?

    Serge Abiteboul (INRIA & ENS Cachan), Florence Hachez-Leroy  (Université d’Artois & CRH-EHESS/CNRS)

  • Françoise en Israël

    Le sujet de la formation à l’informatique a été beaucoup débattu en France récemment. Mais en dehors de l’hexagone ? On se pose les mêmes questions ? D’autres pays auraient-ils eut l’audace de prendre de l’avance sur nous ? Binaire a proposé à Françoise Tort, chercheuse à l’ENS Cachan et co-responsable en France du concours CASTOR informatique, d’interroger des collègues à l’étranger. Leurs réponses apportent beaucoup à nos débats parfois trop franchouillards.

    FT_Israel

    Tour d’horizon de l’enseignement de l’informatique… Après la Bavière, Françoise nous emmène en Israël.

    photo 2

    Note sur le système scolaire Israélien : Le système scolaire Israélien est centralisé. Le ministère de l’Éducation détermine la politique de l’éducation à tous les niveaux, de la maternelle à l’enseignement supérieur, et met en œuvre cette politique, avec l’aide de comités professionnels. La scolarité est divisée en trois périodes : six années d’école élémentaire, trois années de collège et trois années de lycée. Les dix premières années d’enseignement sont obligatoires. Chaque matière est divisée en modules d’environ 90 heures ; certaines matières offrent différents niveaux de spécialisation, les plus courants sont un  programme en trois modules pour un enseignement général et en cinq modules pour un enseignement approfondi.

    judith-gal-ezer-1Entretien avec Judith Gal-Ezer, professeure au département de mathématique et d’informatique de l’Open Université d’Israël (OUI), chercheuse en didactique de l’informatique, présidente du comité des programmes pour l’informatique du ministère de l’éducation Israélien, membre du CSTA (Association internationale des enseignants d’informatique, fondée par l’ACM).

    Environ 300 heures centrées sur la résolution de problèmes algorithmiques

    Depuis 1995, l’informatique est enseignée dans les lycées israéliens, au même titre que les autres disciplines scientifiques (physique, biologie, chimie). Ce sont des enseignements optionnels, comme pour les autres disciplines.  Il existe deux programmes d’enseignement : l’un comporte 3 modules et est adapté aux élèves qui ont un intérêt général pour la matière. L’autre comporte 5 modules et est destiné aux élèves qui souhaitent avoir une connaissance plus approfondie de la matière. Un module correspond à 90 heures de cours étalé sur un semestre, soit 3 heures par semaine. Dans la mesure où la plupart des élèves suivent le programme le plus court, un effort est fait pour que ce programme couvre le plus possible toute la discipline.

    Le programme est centré sur les concepts clés et les fondements de la science informatique, il met l’accent  sur la notion de problèmes algorithmiques et leurs solutions et leur implémentation dans un langage de programmation. Un second paradigme de programmation, les structures de données et la calculabilité sont également abordés.  Ce programme a fait l’objet de mises à jour régulières depuis sa création, la plus importante ayant été l’introduction de la pensée orientée objet.

    « Semer les graines » qui aideront les jeunes dans tous les domaines.

    Je pense que l’objectif de l’enseignement de l’informatique à l’école n’est pas de « produire » de futurs professionnels qui trouveront des emplois dans l’industrie. Il s’agit plutôt de « semer des graines » en initiant les élèves aux fondements de la discipline. Une exposition dès l’école à ce domaine aide les jeunes à choisir plus tard des carrières dans l’industrie ou dans la recherche.

    La résolution de problèmes est au cœur de l’informatique. Son apprentissage et sa pratique demandent aux élèves de savoir spécifier les problèmes clairement et sans ambiguïté, de décrire une solution algorithmique qui soit « robuste » (convenant même dans des situations limites), « correcte » (qui donne le bonne solution) et efficace (dont la complexité est connue). A chaque étape de ce processus, les élèves acquièrent des compétences de base qui leur seront utiles dans tous les domaines qu’ils choisiront d’étudier.

    L’informatique a également des liens avec l’ensemble des autres domaines scientifiques et aussi humanistes.  La quasi-totalité des percées scientifiques d’aujourd’hui sont rendues possibles grâce à la puissance de l’informatique et au travail des informaticiens. Enfin, l’invention des ordinateurs au 20ème siècle a radicalement changé la façon dont nous vivons et travaillons. Il est difficile de prédire l’avenir, mais on peut dire sans se tromper que les personnes qui ne comprennent pas l’informatique seront exclues de ses avantages potentiels.

    Un centre national de formation des enseignants

    Quand le programme a été conçu, il y a maintenant 20 ans, la commission responsable de sa conception avait été très claire sur le fait que les enseignants certifiés pour enseigner l’informatique devraient être diplômés d’un premier cycle universitaire (bachelor’s degree) dans cette discipline en plus du diplôme de formation à l’enseignement. Cette exigence fut officiellement adoptée dès le début.

    De plus, un centre national de formation pour les enseignants d’informatique a été créé. Il assure la formation continue des enseignants en poste et les aide à entretenir une communauté professionnelle dynamique. Il propose une conférence annuelle, des cours et ateliers sur des questions propres au programme du lycée, des documents et du matériel pédagogiques, et une revue pour les enseignants.

    Un effort nécessaire pour encourager les jeunes

    Le nombre des élèves choisissant l’informatique a augmenté régulièrement jusqu’en 2004, il a ensuite diminué. Depuis lors, la part des élèves diplômés ayant choisi cette option se stabilise à  environ 15%.

    Dans une recherche récente, nous avons montré que les élèves qui ont été initiés à l’informatique au lycée, et en particulier ceux qui suivaient le programme long de 5 modules,  étaient plus susceptibles de poursuivre des études dans l’un des domaines de l’informatique dans l’enseignement supérieur. Ceci est d’autant plus vrai pour les jeunes filles.

    Concernant les filles justement, environ 40% des étudiants qui choisissent l’informatique au lycée sont des filles, mais elles ne représentent que 30% des étudiants ayant choisi le programme long de 5 modules. Il y a encore du travail à réaliser pour encourager les jeunes filles à se former à l’informatique.

    Un programme pour le collège en préparation

    Il y a 20 ans, alors que nous développions un programme pour le lycée, il nous apparaissait évident qu’un programme pour le collège était nécessaire. Or, depuis 2 ans, un programme pour les collèges est en cours de développement et déjà en œuvre dans plusieurs établissements. Les principales difficultés rencontrées sont liées à l’affectation et la formation des enseignants.

    4 facteurs de succès essentiels

    Je pense que la réussite de l’enseignement d’informatique en Israël repose essentiellement sur :

    • le programme bien établi et régulièrement mis à jour ;
    • l’obligation officielle d’un diplôme en informatique pour la certification des enseignants ;
    • une offre, par les universités, de programmes préparatoires pour les futurs enseignants et de formation continue pour les enseignants titulaires ;
    • une communauté de chercheurs très dynamiques ;

    Et j’ajouterai : un corps d’enseignants bien établi et motivé.

     


    Pour en savoir plus 

    – Une description du  programme de l’enseignement de l’informatique au secondaire en Israël publiée en 1995.

    – Une proposition de programme pour le collège en Israël publié en 2012, à accès restreint

     

     

  • Les tablettes de la pédagogie ?

    Binaire reprend un article signé Colin de la Higuerra, paru aujourd’hui dans Slate: Les élèves français n’ont pas besoin d’une tablette à l’école, mais de véritables cours d’informatique.

    Il y a de meilleurs moyens de dépenser les fonds alloués au «grand plan numérique» promis par François Hollande.

    Le 2 septembre dernier, le président de la République lançait un «grand plan numérique» pour l’Éducation nationale. On peut imaginer qu’un «grand plan», sur un enjeu aussi crucial que celui de préparer l’entrée de la jeunesse dans le monde de demain, sera accompagné d’un budget conséquent, sans doute plusieurs milliards d’euros.

    Se pose alors la question de la meilleure manière d’employer cet argent pour préparer les élèves à devenir demain des citoyens éclairés et à trouver un travail. Or, lors du Petit Journal du 25 septembre, la ministre de l’Éducation nationale, Najat Vallaud-Belkacem, a notamment promis que les collégiens bénéficieraient d’une tablette afin d’alléger un cartable trop lourd:

    «À partir de la rentrée 2016, tous les collégiens [3,2 millions d’élèves environ, ndlr] –en l’occurrence, on commencera par les classes de 5e– auront et travailleront sur des tablettes numériques.»

    Pourtant, les élèves n’ont pas besoin d’une tablette supplémentaire mais d’un véritable enseignement de l’informatique, qui leur donne les clés pour comprendre le monde dans lequel ils vivent et vivront, comme celui que suivent, depuis plusieurs années déjà, leurs camarades bavarois, estoniens, israéliens, suisses, lituaniens, néerlandais, etc. C’est également ce que vont suivre leurs camarades anglais, finlandais ou coréens. C’est ce que recommande l’Académie des sciences, c’est ce que recommande la Société informatique de France, c’est ce que recommande le Conseil supérieur des programmes, c’est ce que recommande le Conseil national du numérique.

    S’il faut choisir entre dépenser l’argent pour l’équipement de tablettes ludiques ou pour former les enseignants et développer les outils logiciels nécessaires, une comparaison s’impose. La première proposition n’a été proposée par aucun analyste sérieux: dans les différents endroits où pareille mesure a été expérimentée, aucune évaluation documentée n’a jamais montré que son impact était positif autrement que pour l’économie des pays producteurs de ces équipements (groupe dans lequel il est difficile d’inclure la France, même si la ministre a affirmé sur Canal+ que le gouvernement aimerait «faire travailler des Français»).

    Pour offrir aux élèves un enseignement de qualité, la décision-clé est bien plutôt celle de former les enseignants dans le primaire et de recruter des enseignants dans le secondaire. 1 milliard d’euros par an, par exemple, c’est 25.000 professeurs d’informatique. C’est aussi dix millions d’heures de cours de formation continue et donc la possibilité de former à la fois les professeurs de primaire, ceux de collège, de lycée et même des classes préparatoires! C’est beaucoup plus qu’il n’en faut pour offrir un enseignement de qualité dans toutes les écoles, tous les collèges et tous les lycées français.

    Colin de la Higuera, Président de la Société Informatique de France

     

  • Françoise en Bavière

    Le sujet de la formation à l’informatique a été beaucoup débattu en France récemment. Mais en dehors de l’hexagone ? Se pose-t-on les mêmes questions ? D’autres pays auraient-ils eut l’audace de prendre de l’avance sur nous ? Binaire a proposé à Françoise Tort, chercheuse à l’ENS Cachan et co-responsable en France du concours CASTOR informatique, d’interroger des collègues à l’étranger. Leurs réponses apportent beaucoup à nos débats parfois trop franchouillards. 

     

    Tour d’horizon de l’enseignement de l’informatique… Aujourd’hui Françoise nous emmène en Bavière.

    photo 1Note sur le système scolaire bavarois : à la fin du primaire, à l’âge de 10-11 ans, les élèves bavarois s’orientent entre trois voies différentes : la Mittelschule ou la Hauptschule (école de formation professionnelle, surtout artisanale), la Realschule (équivalent du collège qui propose un diplôme de fin d’étude moyen) et le Gymnasium (équivalent du cursus collège + lycée général ou technologique en France). Environ un tiers des élèves d’une tranche d’âge vont au Gymnasium, sélectionnés sur leurs bons résultats à l’école primaire. Pour faciliter la lecture, nous utiliserons dans le texte les niveaux français.

     

    Peter HubwieserEntretien avec Peter Hubwieser professeur à la Technische Universität München (TUM), chercheur en didactique de l’Informatique, acteur majeur dans l’introduction de l’enseignement de l’informatique en Bavière.

     

    Plus de 1/3 des jeunes bavarois apprennent l’informatique dès l’âge de 11 ans.

    Depuis 2004, l’informatique est enseignée dans tous les collèges-lycées bavarois (que nous appelons Gymnasium). Tous les élèves de 6ème, 5ème ont des cours d’informatique obligatoires deux fois par semaine. Ensuite, les élèves qui poursuivent dans la filière « science et technologique », ont aussi un cours obligatoire, 2 fois par semaine, en  3ème et en 2nde. Enfin, un cours optionnel (3 séances par semaine) est proposé en 1ère puis en terminale, et ce dans toutes les filières. Depuis 2008, des cours d’informatique sont également proposés dans les écoles professionnelles. On peut donc dire que plus d’un tiers des élèves bavarois scolarisés dans le secondaire apprennent l’informatique dès l’âge de 11 ans.

    L’objectif général de cet enseignement n’est pas de former de futurs spécialistes de l’informatique ou de convaincre les jeunes de poursuivre des études supérieures dans ce domaine. Il s’agit d’aider les élèves à devenir des citoyens responsables et autonomes dans une société dominée par les nouvelles technologies de l’information et de la communication.

    Le programme combine des méthodes pour penser et des outils pour appliquer

    J’ai contribué à l’écriture du programme d’enseignement. Ce programme vise à développer les compétences de traitement de l’information des élèves et à les aider à comprendre les structures de bases des systèmes informatiques qu’ils utilisent. L’originalité de notre approche est la place donnée à la modélisation : les élèves apprennent des technique de modélisation des objets et systèmes qu’ils utilisent, tout en mettant en œuvre leurs modèles à l’aide de logiciels et d’environnements de programmation. Par exemple, les premières années, les élèves apprennent à représenter les documents (textes, images, hypertextes, etc) qu’ils produisent avec des logiciels à l’aide des notions abstraites d’objets, attributs, méthodes et classes empruntées à la modélisation orientée objet développée dans les années 80-90 en génie logiciel. A la fin de la classe de 5ème, ils travaillent sur leurs premiers programmes, en utilisant un robot virtuel (le Robot Karel). En classe de 3ème, ils modélisent des problèmes réels, et implémentent leurs solutions avec des logiciels tableurs et des systèmes de gestion de bases de données. A partir de la 2nde, ils programment avec des langages objets (le plus souvent avec le langage Java). Enfin, en 1ère et terminale, ils abordent des concepts de domaines plus spécifiques comme le développement logiciel ou l’informatique théorique.

    Le projet, conçu dès 1994, a profité d’une importante réforme scolaire en 2004

    J’ai commencé à travailler à ce projet d’enseignement en 1994 à la faculté d’informatique de la TUM. Nous avons publié un premier projet de programme en 1997. A cette époque, le gouvernement fédéral lançait un programme expérimental de 3 ans visant à tester un projet de réforme des collèges-lycées bavarois. Un enseignement d’informatique mettant en œuvre notre proposition a été introduit dans cette expérimentation, dans une quarantaine d’établissements. Devant le succès rencontré auprès des élèves, des parents et des enseignants, le gouvernement a décidé, dès 2000, d’introduire cet enseignement dans la réforme. Ce fut effectif à la rentrée 2004 pour la classe de 6ème, puis chaque année suivante pour les autres niveaux.

    La formation a été anticipée pour avoir des enseignants diplômés dès le début

    Les enseignants bavarois ont tous deux disciplines (mathématique et physique par exemple). Ils ont une formation et un diplôme universitaire dans ces disciplines. Pour enseigner, ils passent deux certificats, l’un  disciplinaire, l’autre en pédagogie et psychologie.

    Ce qui a été exceptionnel, c’est que la formation des enseignants a été initiée bien avant que la création de l’enseignement ne soit décidée. Deux universités ont ouvert un programme de formation continue en deux ans, en 1995, suivi avec succès par une petite centaine d’étudiants. En 1997, l’enseignement universitaire a été officialisé, et a été suivi, de 2001 à 2006, d’un programme de formation, que j’ai initié et coordonné. Nous avons formé environ 300 enseignants dans 5 universités bavaroises. Depuis, un programme d’auto-formation est proposé, suivi par 80 enseignants. En parallèle, l’administration bavaroise a mis en place des actions de promotion pour inciter les détenteurs d’un Master en informatique à embrasser la profession d’enseignant. On peut estimer qu’il y a aujourd’hui, près de 1 300 enseignants d’informatique dans les collèges-lycées, et que parmi eux 800 sont diplômés en informatique.

    Les enseignant et les élèves sont plutôt satisfaits

    Nous avons réalisé une enquête auprès des enseignants en 2009. Ils se disaient plutôt motivés et satisfaits des cours et du programme. Nous leur avons demandé s’il y avait des écarts de réussite entre garçons et filles. Globalement, ils n’ont pas relevé de différence, sauf une baisse de performance des filles au niveau de la classe de 2nde. Toutefois, d’autres indicateurs sont plus faibles pour ce niveau, qui est l’année de l’introduction de la programmation objet. Il nous semble intéressant d’étudier cela d’un peu plus près.

    Une nouvelle réforme du système scolaire en perspective

    Le programme est en cours de révision.  Pour autant que je sache, il y aura des éléments supplémentaires sur la protection des données et la sécurité des données. Mais le plus important est qu’il y a, à l’heure actuelle, un débat sur le retour aux collèges-lycées en 9 ans (la réforme de 2003 avait réduit ce cursus à 8 années). Personne ne sait ce qu’il en résultera.


    Pour en savoir plus …

    1- Peter Hubwieser. 2012. Computer Science Education in Secondary Schools – The Introduction of a New Compulsory Subject. Trans. Comput. Educ. 12, 4, Article 16 (November 2012), 41 pages.

    2 – Peter Hubwieser. 2001. Didaktik der Informatik (en Allemand, Didactique de l’Informatique). Springer-Verlag, Berlin.

  • Informatique en primaire, comment faire ?

    Les ministres de l’éducation nationale changent, mais l’idée de commencer à initier à la programmation informatique en primaire, fait son bonhomme de chemin comme les questionnements qu’elle soulève. Martin Quinson, enseignant-chercheur en informatique, a proposé une analyse sur son blog : «Informatique en primaire, comment faire ?». Avec d’autres, nous avons trouvé son texte passionnant. Nous avons demandé une fiche de lecture à une enseignante, amie de Binaire.

    On parle donc de mettre en place des activités, destinées à enseigner l’informatique au plus grand nombre et au plus vite. Comment alors apporter des éléments de réponses aux nombreuses questions pratiques qui se posent, notamment sur ce qu’il convient d’enseigner, et sur la démarche à adopter ?

    Les objectifs pédagogiques

    ©letourabois.free.fr

    Il y a un terme fédérateur : celui de littératie numérique des enfants. En adaptant la définition de littératie donnée par l’OCDE, on peut parler de « l’aptitude à comprendre et à utiliser les technologies de l’information et de la communication dans la vie courante, à la maison, au travail et dans la collectivité en vue d’atteindre des buts personnels et d’étendre ses connaissances et ses capacités ».

    Comment faire alors en sorte que les enfants soient capables de faire un usage raisonné de l’informatique et des ordinateurs ? Si quelques idées sont disponibles dans ces propositions d’orientations générales pour un programme d’informatique à l’école primaire, d’autres éléments de réponse complètent cette vision :

    ©scratch.mit.edu

    Que les enfants soient capables de créer des petites choses sur ordinateur, comme ils sont capables d’écrire de petits textes ou faire des dessins à l’heure actuelle. Mais aussi qu’ils puissent créer leur propre carte de vœux animée pour la fête des mères, sans avoir à choisir parmi des cartes toutes faites sur http://www.dromadaire.com ou ailleurs, ou encore qu’ils soient capables de faire de petits dessins animés pour raconter des petites histoires, de complexité comparable aux rédactions qu’ils font déjà. Enfin, qu’ils puissent réaliser leurs propres petits jeux informatiques, qui auront le mérite d’être leurs propres créations même s’il ne s’agit pas de futurs blockbusters.

    Voilà qui est clair et proche du quotidien.

    Faut-il faire des « Coding Goûters » ?

    ©jecode.org

    Un « Coding Goûter » est une animation qui se déroule une demi-journée, où les enfants et leurs parents apprennent ensemble la programmation créative, avec des accompagnateurs, mais sans professeur. Ce format est particulièrement bien trouvé et des micro-formations pour aider les collègues qui voudraient se lancer sont proposées côté Inria. Cependant, la réponse est à nuancer, car ce format n’est pas généralisable, en l’état actuel, pour des activités récurrentes en milieu scolaire sans formation des enseignants. Voyons donc les autres possibilités d’animation.

    . . ou de la programmation créative ?

    Comme dit Claude Terosier de chez Magic Makers, il s’agit d’apprendre à coder pour apprendre à créer . Dans la même lignée, s’organise une activité pilote à la rentrée à la MJC Nomade de Vandœuvre-les-Nancy sur ce modèle. Leur club s’appelle Cod Cod Coding .

    ©codcodcoding

    L’un des points forts de l’outil le plus répandu Scratch, c’est sa communauté d’utilisateurs. De très bons pédagogues diffusent beaucoup de bonnes ressources, ce qui est pratique quand on débute. Cette communauté se réuni tous les deux ans, lors d’événements très enrichissants. On peut s’appuyer sur ce guide présentant dix séances clé en main, ou sur celui-ci, également bien fait. Et on trouve de bonnes ressources sur le wiki de http://jecode.org.

     

    Oser l’informatique débranchée

    ©csunplugged.org

    Comprendre comment est représentée l’information une fois numérique ou découvrir un algorithme ou ce que sont les algorithmes, c’est possible sans machine, sous forme de jeux, de devinette ou d’activité avec un crayon et un papier. Et c’est précieux : cela montre que c’est une façon de penser, pas que d’utiliser les machines. Cela permet aussi à ce qui ne raffolent pas de technologie de comprendre aussi. Faire à chaque séance un peu de débranché au début, un temps d’activités sur machine, avant un petit retour tous ensemble à la fin semble une excellente idée.

    Sans aller jusqu’à introduire la notion d’algorithme avant le premier passage sur machine, il est possible d’utiliser des activités débranchées pour expliquer ce que programmer veut dire. Cette activité semble particulièrement pertinente pour cela. Ensuite, si les enfants ont encore un peu de patience, vous pouvez enchaîner avec les activités débranchées mises au point avec Jean-Christophe Bach, ou d’autres activités débranchées existantes.(…)

    Mise en œuvre pédagogique.

    ©images.math.cnrs.fr

    Prenons l’exemple de l’enseignement de Scratch. On peut opter pour une approche traditionnelle avec un chapitre sur les variables, un chapitre sur les boucles, un autre sur les conditionnelles. Mais on peut aussi retourner le modèle, et commencer par faire un petit Angry Birds (en utilisant des conditionnelles sans s’en rendre compte, du moins jusqu’à la fin du chapitre où l’on verbalise la notion après usage), continuer par un casse brique (et utiliser des variables sans apprendre explicitement ce que c’est), puis un Pong (mettant du parallélisme en œuvre sans réaliser avoir besoin de le dire), etc. Voilà ce qui marche pour de vrai, avec les enfants du primaire. Et ensuite de montrer ce qu’on a découvert : les ingrédients de tous les algorithmes du monde.

    Comme support, on recommande ce livre. Il s’agit d’une bande dessinée racontant les aventures d’un chat et d’un étudiant en informatique. Au fil des 10 chapitres, on est amené à programmer des petits jeux pour « débloquer » l’aventure jusqu’au chapitre suivant. On apprend les bases de la programmation créative.

    Sinon, l’un des dix principes de « La main à la pâte » est de faire tenir un cahier de laboratoire aux enfants, où ils consignent leurs expériences et conclusions avec leurs mots à eux.

    Utilisation du matériel.

    Un ordinateur pour deux enfants suffit. La programmation en binôme est très efficace. Le plus important est de s’assurer que les rôles s’inversent régulièrement, et qu’aucun enfant ne monopolise la souris. Être deux par machine force les enfants à planifier leurs activités au lieu de se laisser porter par la souris, sans but précis.

    Et après ?

    Voilà donc l’état des réflexions. Mais on est  pas seuls: l’équipe invite à discuter tous ensemble au fur et à mesure des avancées sur ce qui fonctionne et les problèmes rencontrés. C’est aussi pour cela qu’elle a fondé http://jecode.org  : faire se rencontrer les volontaires souhaitant enseigner, informer à propos des lieux qui veulent organiser des ateliers, mettre en lien les acteurs qui désirent apprendre l’informatique. Inscrivez-vous sur la liste de diffusion pour échanger sur ces sujets.

    Alice Viéville.

     

  • Permis de vivre la ville

    logoPetite balade dans le 14e arrondissement parisien pour prendre un bain d’éducation populaire ; nous rendons visite à « Permis de Vivre la Ville ». L’association a été créée en 1987 sous le patronage de l’Abbé Pierre. Elle travaille depuis au cœur des quartiers en difficulté. Pourquoi cette association nous intéresse-t-elle tout particulièrement ? Ses projets conjuguent culture et informatique.

    L’ambiance est à la fois studieuse et détendue. Des jeunes s’activent sur leurs projets informatiques. D’habitude, c’est plus calme nous explique-t-on : les jeunes de l’autre lieu installé à Montreuil sont aussi par hasard présents. Ici, on ne se contente pas de répéter qu’il est des quartiers en grande difficulté. On retrousse ses manches et on change les choses.

    marcela Anne
    Marcela Perez, Permis de Vivre la Ville Anne Dhoquois, Banlieues créatives

    Un malstrom d’information tout en sourires est déversé par Anne Dhoquois et Marcela Perez. Banlieues créatives, Tremplin numérique… nous sommes vite perdus dans des structures, des projets, des sites Web. Cette association de terrain a longtemps été présente à Evry (Bois Sauvage) et Paris 17ème (Porte Pouchet) ; elle l’est toujours à Clichy-sous-Bois (Chêne pointu) et Antony (Noyer Doré), et vient d’ouvrir un second local à Montreuil. Ça bouge !

    tremplinDes jeunes du 92 et 93 dans les locaux parisiens © Tremplin numérique

    Au delà de la grande gentillesse qui se dégage de nos deux hôtesses, une impression forte de compétences. Ici on ne bricole pas. L’expérience, la connaissance des dossiers, un mélange détonnant avec une passion évidente pour l’ambition de participer à construire une ville plus humaine.

    lexik© Lexik des cités / collectif Permis de Vivre la Ville

    Nous pourrions raconter le Lexik des cités et le langage des jeunes du quartier (comme exercice, traduire : « Ma came a un bail et ses darons le savent pas ») mais nous allons plutôt parler d’un projet plus récent « Banlieues créatives ». Ce média web est l’occasion pour les jeunes de faire l’apprentissage du reportage, de l’interview, de la publication, de la parole publique, aux côtés d’une journaliste professionnelle. Le résultat se traduit dans un site Web. Celui-ci, truffé d’informations, d’interviews, de témoignages, est passionnant. Il décrit des expériences concrètes qui amènent à changer de regard sur les quartiers, sur le sens de la société, sur la dimension sociétale que peuvent prendre des  actions de terrain.
    Petite balade dans le 14e arrondissement parisien pour rendre visite à Permis de vivre la ville. On en ressort avec l’envie de ne plus subir le numérique, mais de le mettre au service de la société. Merci Marcela et Anne de nous avoir fait oublier quelques instants la morosité ambiante.

    Serge Abiteboul et Valérie Peugeot

    La carte de vœux numérique 2014 du 1er Ministre Jean-Marc Ayrault réalisé par les encadrants des jeunes de l’association

  • Le « grand plan numérique » du président : pour quoi faire ?

    Le numérique est déjà omniprésent dans nos maisons et au travail. On peut naturellement penser qu’il est temps que l’école en profite aussi. Mais en pratique, quels problèmes concrets pourraient être résolus par le « grand plan numérique » annoncé par François Hollande ? Claire Mathieu, Directrice de recherche CNRS, spécialiste en algorithmique, aborde le sujet. 

    D’une part, il y a les problèmes de communication dont voici quelques exemples.

    1. L’enfant n’a pas écrit quels devoirs il a à faire pour le lendemain. Les parents doivent téléphoner aux autres parents pour essayer de récupérer les informations. Solution : l’enseignant pourrait mettre la liste des devoirs à faire sur le site internet de l’école.
    2. L’enfant n’a pas rapporté son livre ou sa feuille d’exercices à la maison. Les parents doivent trouver une autre famille qui a le document nécessaire, et aller en catastrophe le leur emprunter. Solution : l’éditeur pourrait avoir une version numérique de son livre, accessible sur le site internet de l’école. L’enseignant pourrait télécharger sur le site web de l’école les documents supplémentaires.
    3. L’enfant ne fait pas signer le cahier de classe à ses parents. Solution : les résultats de l’enfant pourraient être accessibles à ses parents sur le site internet de l’école, et ceux-ci pourraient « signer » par internet.
    4. Les enseignants perdent du temps à rassembler autorisations pour les sorties, attestations d’assurance, et autres paperasses. Solution : ces attestations pourraient être téléchargées directement par les parents sur le site internet de l’école.
    5. On découvre en arrivant à l’école qu’il y a une grève ou qu’un enseignant est absent. Solution : afficher ces informations sur le site internet de l’école.
    6. Un enfant est malade. Solution : Les parents envoient la lettre prévenant qu’il est malade, directement sur le site internet de l’école. Ils se tiennent au courant de ce qui est enseigné grâce à ce site, afin que l’enfant rattrape son retard.

    D’autre part, il y a les problèmes dus à la diversité et aux limitations des uns et des autres.

    1. Certains n’apprennent pas à la même vitesse que les autres. Solution : s’il y avait au fond de la classe, dans le coin bibliothèque, quelques tablettes sécurisées avec des logiciels éducatifs associés aux manuels scolaires, l’enseignant pourrait demander aux enfants plus lents ou plus rapides de passer du temps à apprendre avec l’aide du logiciel.
    2. L’enseignant est censé apprendre aux enfants un large programme de sciences, d’histoire, d’art, etc., mais il y a des domaines auxquels il ne connaît pas grand-chose. Solution : il peut préparer son cours plus facilement avec des logiciels de cours sur internet préparés par les éditeurs de manuels scolaires.
    3. Il y a des moments dans la journée où l’attention baisse et où les enfants ont du mal à se concentrer. Solution : une activité supplémentaire pour laquelle les possibilités sont multipliées grâce à internet pourrait être de projeter un film documentaire. On n’est plus limité par la bibliothèque de films de l’école.
    4. Des enfants n’aiment pas l’école, s’ennuient, font des bêtises, dérangent la classe. Solution : les occuper à bon escient par des jeux éducatifs sur les tablettes.

    Il ne s’agit pas là de faire des changements fondamentaux, mais d’utiliser l’outil numérique pour faciliter le quotidien de manière très concrète.

    Que faut-il pour réaliser ces modestes objectifs ?

    • Du point de vue des ressources matérielles et logicielles, il faut qu’internet soit disponible, que les éditeurs aient une version numérique de leurs manuels scolaires avec logiciels associés, qu’un cadre existe pour créer des sites web scolaires faciles à consulter et à modifier, mais également sécurisés et protégeant les informations privées des élèves ; il faut aussi que les classes aient des tablettes ou portables qui soient protégés contre le vol et que leur maintenance soit assurée. Pour les familles qui n’ont pas internet chez elles, il faut absolument (c’est une question d’équité) que les parents puissent, à la mairie, à la bibliothèque municipale, ou dans un autre lieu, avoir accès au site internet de l’école.
    • Du point de vue des compétences, il faut que les enseignants sachent utiliser le site web de l’école, consulter les versions numériques des manuels, produire des contenus numériques. Il faut que les parents sachent communiquer avec l’école par l’intermédiaire du site web. Des formations sont pour cela nécessaires, pas très longues mais récurrentes puisque la question se repose chaque année.
    • Enfin, pour les réfractaires irréductibles, il faut un « pont » qui permette de continuer à recevoir les messages des parents comme avant tout en mettant à jour le dossier numérique de l’élève (grâce à un scanner par exemple), et qui permette aux parents de savoir quand même ce qui se passe à l’école par des moyens traditionnels (panneau d’affichage par exemple). Il faut donc prévoir de recruter le personnel adéquat pour ce travail supplémentaire, au moins pendant une période de transition de quelques années.

    Bien sûr, tout cela a un coût. Globalement il n’est pas clair que ce plan ferait gagner du temps aux enseignants, mais il permettrait d’améliorer la communication entre parents et enseignants, et d’améliorer l’apprentissage grâce à un enseignement plus personnalisé. Il est donc raisonnable de penser que la population est prête à ce qu’une fraction de ses impôts soit utilisée pour cela.

    Pour aller plus loin.

    L’introduction du numérique dans le quotidien de l’école ne serait qu’un premier pas. Une fois l’outil présent, on peut s’en servir avec plus d’ambition. Par exemple, les enfants pourraient écrire un journal de leur école, qui (avec une équipe motivée) pourrait être de qualité quasiment professionnelle. Pour les écoles jumelées, il y aurait des perspectives de collaborations nouvelles. Il pourrait être envisageable que les enfants malades, s’ils sont suffisamment en forme, suivent quand même la classe en même temps que les autres avec une « webcam ». Des exercices de style QCM, conçus par les éditeurs, pourraient être corrigés par ordinateur au lieu de faire intervenir l’enseignant. Pour les enfants souffrant d’un handicap, des possibilités nouvelles existeraient. Pour les enfants curieux de comprendre comment ça marche, il serait possible d’avoir un enseignement de l’informatique. Les MOOCs, FLOTs et autres cours en-ligne auraient une chance d’être intégrés à l’enseignement. Plus généralement, une fois les automatismes acquis pour exploiter l’outil informatique, il serait beaucoup plus facile ultérieurement de profiter des futures avancées, et cela permettrait à la France de participer plus pleinement à la révolution du numérique dans la société.

    Claire Mathieu, École Normale Supérieure  Paris, CNRS

  • Comment l’informatique a révolutionné l’astronomie

    Françoise Combes, astronome à l’Observatoire de Paris et membre de l’Académie des Sciences (lien Wikipédia), a un petit bureau avec un tout petit tableau blanc, des étagères pleines de livres, un sol en moquette, et deux grandes colonnes de tiroirs étiquetées de sigles mystérieux. Au mur, des photos de ciels étoilés. Elle parle avec passion de son domaine de recherche, et met en exergue le rôle fondamental qu’y joue l’informatique.
    Entretien réalisé par Serge Abiteboul et Claire Mathieu

    fc-aug02

    La naissance des galaxies…

    B : Peux-tu nous parler de tes sujets de recherche ? Vu de l’extérieur, c’est extrêmement poétique : « Naissance des galaxies », « Dynamique de la matière noire » …
    FC : La question de base, c’est la composition de l’univers. On sait maintenant que 95% est fait de matière noire, d’énergie noire, et très peu de matière ordinaire, qui ne forme que les 5% qui restent. Mais on ignore presque tout de cette matière et de cette énergie noire. Les grands accélérateurs, contrairement à ce qu’on espérait, n’ont pas encore trouvé les particules qui forment la matière noire. On a appris vers l’an 2000 grâce aux supernovae que l’expansion de l’univers était accélérée. Mais la composition de l’univers que l’on connaissait alors ne permettait pas cette accélération ! Il fallait un composant pouvant fournir une force répulsive, et c’est l’énergie noire qui n’a pas de masse, mais une pression négative qui explique l’accélération de l’expansion de l’univers. On cherche également maintenant de plus en plus en direction d’autres modèles cosmologiques qui n’auraient pas besoin de matière noire, des modèles de « gravité modifiée ».

    B : Cette partie de ton travail est surtout théorique ?
    FC : Non, pas seulement, il y a une grande part d’observation, indirecte évidemment, observation des traces des composants invisibles sur la matière ordinaire. On observe les trous noirs grâce à la matière qu’il y a autour. Les quasars, qui sont des trous noirs, sont les objets les plus brillants de l’univers. Ils sont au centre de chaque galaxie, mais la lumière piégée par le trou noir n’en sort pas ; c’est la matière dans le voisinage immédiat, qui tourne autour, et progressivement tombe vers le trou noir en spiralant, qui rayonne énormément. Ce qui est noir et invisible peut quand même être détecté et étudié par sa « signature » sur la matière ordinaire associée.
    Pour mieux étudier la matière noire et l’énergie noire, plusieurs télescopes en construction observeront pratiquement tout le ciel à partir des années 2018-2020, comme le satellite européen Euclid, ou le LSST (Large Synoptic Survey Telescope) et le SKA (Square Kilometer Array). Le LSST par exemple permettra d’observer l’univers sur un très grand champ (10 degrés carrés), avec des poses courtes de 15 secondes pendant 10 ans. Chaque portion du ciel sera vue environ 1000 fois. Même dans une nuit, les poses reviendront au même endroit toutes les 30 minutes, pour détecter les objets variables : c’est une révolution, car avec cet outil, on va avoir une vue non pas statique mais dynamique des astres. Cet instrument fantastique va détecter des milliers d’objets variables par jour, comme les supernovae, sursauts gamma, astéroides, etc. Il va regarder tout le ciel en 3 jours, puis recommencer, on pourra sommer tous les temps de pose pour avoir beaucoup plus de sensibilité.
    Chaque nuit il y aura 2 millions d’alertes d’objets variables, c’est énorme ! Ce n’est plus à taille humaine. Il faudra trier ces alertes, et le faire très rapidement, pour que d’autres télescopes dans le monde soient alertés dans la minute pour vérifier s’il s’agit d’une supernova ou d’autre chose. Il y aura environ 30 « téraoctets » de données par nuit !  Des supernovae, il y en aura environ 300 par nuit sur les 2 millions d’alertes. Pour traiter ces alertes, on utilisera des techniques d’apprentissage (« machine learning »).

    B : Qui subventionne ce matériel ?
    FC : Un consortium international dont la France fait partie et où les USA sont moteur, mais il y a aussi des sponsors privés. Le consortium est en train de construire des pipelines de traitement de données, toute une infrastructure matérielle et logicielle.

    A273

    La place de l’informatique

    B : La part du « matériel informatique » dans ce télescope est très importante ?
    FC : Le télescope lui-même, de 8m de diamètre, est assez ordinaire. L’innovation est dans l’optique et les instruments pour avoir un grand champ, qui sont une partie importante du coût ; les images seront prises simultanément avec six filtres de couleur. Le traitement des données nécessite des super ordinateurs qui forment une grande partie du coût.

    B : Alors, aujourd’hui, une équipe d’astronomes, c’est pluridisciplinaire ?
    FC : Oui, mais c’est aussi très mutualisé. Il y a des grands centres (Térapix à l’Institut d’Astrophysique de Paris par exemple) pour gérer les pipelines de données et les analyser avec des algorithmes. Ainsi, on se prépare actuellement à dépouiller les données d’Euclid, le satellite européen qui sera lancé en 2020, dont le but est de tracer la matière noire et l’énergie noire, notamment avec des lentilles gravitationnelles. Les images des millions de galaxies observées seront légèrement déformées, car leur lumière est déviée par les composants invisibles sur la ligne de visée; il faudra reconstituer la matière noire grâce cette déformation statistique.

    B : Quels sont les outils scientifiques de base ? Des mathématiques appliquées ?
    FC : Oui. La physique est simple. Les simulations numériques de formation des galaxies dans un contexte cosmologique sont gigantesques : il s’agit de problèmes à  N-corps avec 300 milliards de corps qui interagissent entre eux ! Le problème est résolu par des algorithmes basés soit sur les transformées de Fourier soit sur un code en arbre, et à chaque fois le CPU croît en N log N. On fait des approximations, des développements en multi-pôles. En physique classique, ou gravité de Newton, cela va vite. Mais pour des simulations en gravité modifiée, là, c’est plus compliqué, il y a des équations qui font plusieurs pages. Il y a aussi beaucoup de variantes de ces modèles, et il faut éviter de perdre son temps dans un modèle qui va se révéler irréaliste, ou qui va être éliminé par des observations nouvelles. Il y a donc des paris à faire.

    B : Tu avais dit que vous n’étiez pas uniquement utilisateurs d’informatique, qu’il y a des sujets de recherche, spécifiquement en informatique, qui découlent de vos besoins ?
    FC : Je pensais surtout à des algorithmes spécifiques pour résoudre nos problèmes particuliers. Par exemple, sur l’époque de ré-ionisation de l’univers. Au départ l’univers est homogène et très chaud, comme une soupe de particules chargées, qui se recombinent en atomes d’hydrogène neutre, dès que la température descend en dessous de 3000 degrés K par expansion, 400 000 ans après le Big Bang. Suit une période sombre et neutre, où le gaz s’effondre dans les galaxies de matière noire, puis les premières étoiles se forment et ré-ionisent l’univers. Ce qu’on va essayer de détecter, (mais ce n’est pas encore possible actuellement) c’est les signaux en émission et absorption de l’hydrogène neutre, pendant cette période où l’univers est constitué de poches neutres et ionisées, comme une vinaigrette avec des bulles de vinaigre entourées d’huile. C’est pour cela que les astronomes sont en train de construire le « square kilometer array » (SKA). Avec ce télescope en ondes radio, on va détecter l’hydrogène atomique qui vient du début de l’univers, tout près du Big bang ! Moins d’un milliard d’années après le Big bang, son rayonnement est tellement décalé vers le rouge (par l’expansion) qu’au lieu de 21cm, il a 2m de longueur d’onde ! Les signaux qui nous arrivent vont tous à la vitesse de la lumière, et cela met 14 milliards d’années à nous parvenir – c’est l’âge de l’univers.
    Le téléscope SKA est assez grand et sensible pour détecter ces signaux lointains en onde métrique, mais la grande difficulté vient de la confusion avec les multiples sources d’avant-plan : le signal qu’on veut détecter est environ 10000 fois inférieur aux rayonnements d’avant-plan. Il est facile d’éliminer les bruits des téléphones portables et de la ionosphère, mais il y a aussi tout le rayonnement de l’univers lui-même, celui de la Voie lactée, des galaxies et amas de galaxies. Comment pourra-t-on pêcher le signal dans tout ce bruit? Avec des algorithmes. On pense que le signal sera beaucoup plus structuré en fréquence que tous les avant-plans. On verra non pas une galaxie en formation mais un mélange qui, on l’espère, aura un comportement beaucoup plus chahuté que les avant-plans, qui eux sont relativement lisses en fréquence. Faire un filtre en fréquence pourrait a priori être une solution simple, sauf que l’observation elle-même avec l’interféromètre SKA produit des interférences qui font un mixage de mode spatial-fréquentiel qui crée de la structure sur les avant-plans. Du coup, même les avant-plans auront de la structure en fréquence. Alors, on doit concevoir des algorithmes qui n’ont jamais été développés, proches de la physique. C’est un peu comme détecter une aiguille dans une botte de foin. Il faut à la fois des informaticiens et des astronomes.

    Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.

    Arp87Le couple de galaxies en interaction Arp 87,
    image du Hubble Space Telescope (HST), Credit NASA-ESA

    B : Cela veut-il dire qu’il faut des astronomes qui connaissent l’informatique ?
    FC : Les astronomes, de toute façon, connaissent beaucoup d’informatique. C’est indispensable aujourd’hui. Rien que pour faire les observations par télescope, on a besoin d’informatique. Par exemple le télescope SKA (et  son précurseur LOFAR déjà opérationnel aujourd’hui à Nançay) est composé de « tuiles » qui ont un grand champ et les tuiles interfèrent entre elles. Le délai d’arrivée des signaux provenant de l’astre observé sur les différentes tuiles est proportionnel à l’angle que fait l’astre avec le zénith. Ce délai, on le gère de façon numérique. Ainsi, on peut regarder dans plusieurs directions à la fois, avec plusieurs détecteurs. Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.
    Un astronome va de moins en moins observer les étoiles et les galaxies directement sur place, là où sont les télescopes. Souvent les observations se font à distance, en temps réel. L’astronome contrôle la position du télescope à partir de son bureau, et envoie les ordres d’observation par internet. Les résultats, images ou spectres arrivent immédiatement, et permettent de modifier les ordres suivants d’observation. C’est avec les télescopes dans l’espace qu’on a démarré cette façon de fonctionner, et cela s’étend maintenant aux télescopes au sol.
    Ce mode d’observation à distance en temps réel nécessite de réserver le télescope pendant une journée ou plus pour un projet donné, ce qui n’optimise pas le temps de télescope. Il vaut mieux avoir quelqu’un sur place qui décide, en fonction de la météo et d’autres facteurs, de donner priorité à tel ou tel utilisateur. Du coup on fait plutôt l’observation en différé, avec des opérateurs sur place, par « queue scheduling ». Les utilisateurs prévoient toutes les lignes du programme (direction, spectre, etc.) qui sera envoyé au robot, comme pour le temps réel, mais ce sera en fait en différé. L’opérateur envoie le fichier au moment optimum et vérifie qu’il passe bien.
    Selon la complexité des données, la calibration des données brutes peut être faite dans des grands centres avec des super computers. Ensuite, l’astronome reçoit par internet les données déjà calibrées. Pour les réduire et en tirer des résultats scientifiques, il suffit alors de petits clusters d’ordinateurs locaux. Par contre, les super computers sont requis pour les simulations numériques de l’univers, qui peuvent prendre des mois de calcul.
    Que ce soit pour les observations ou les simulations, il faut énormément d’algorithmes. Leur conception se fait en parallèle de la construction des instruments. Les algorithmes sont censés être prêts lorsque les instruments voient le jour. Ainsi, lorsqu’un nouveau télescope arrive, il faut qu’il y ait déjà par exemple tous les pipelines de calibrations. Cette préparation est un projet de recherche à part entière. Tant qu’on n’a pas les algorithmes, l’instrument ne sert à rien: on ne peut pas dépouiller les données. Les progrès matériels doivent être synchronisés avec les progrès des algorithmes.

    B : Est-ce que ce sont les mêmes personnes qui font la simulation de l’univers et qui font l’analyse des images ?
    FC : Non, en général ce sont des personnes différentes. Pour la simulation de l’univers, on est encore très loin du but. Les simulations cosmologiques utilisent quelques points par galaxie, alors qu’il y a des centaines de milliards d’étoiles dans chaque galaxie. Des « recettes » avec des paramètres réalistes sont inventées pour suppléer ce manque de physique à petite-échelle, sous la grille de résolution. Si on change quelques paramètres libres, cela change toute la simulation. Pour aller plus loin, il nous faut aussi faire des progrès dans la physique des galaxies. Même dans 50 ans, nous n’aurons pas encore la résolution optimale.

    B : Comment évalue-t-on la qualité d’une simulation ?
    FC : Il y a plusieurs équipes qui ont des méthodes complètement différentes (Eulérienne ou « Adaptive Mesh Refinement » sur grille, ou Lagrangienne, code en arbre avec particules par exemple), et on compare leurs méthodes. On part des mêmes conditions initiales, on utilise à peu près les mêmes recettes de la physique, on utilise plusieurs méthodes. On les compare entre elles ainsi qu’avec les observations.

    Crab_xrayImage en rayons X du pulsar du Crabe, obtenue
    avec le satellite CHANDRA, credit NASA

    B : Y a-t-il autre chose que tu souhaiterais dire sur l’informatique en astronomie ?
    FC : J’aimerais illustrer l’utilisation du machine learning pour les pulsars. Un pulsar, c’est une étoile à neutron en rotation, la fin de vie d’une étoile massive. Par exemple, le pulsar du crabe est le résidu d’une supernova qui a explosé en l’an 1000. On a déjà détecté environ 2000 pulsars dans la Voie lactée, mais SKA pourra en détecter 20000 ! Il faut un ordinateur pour détecter un tel objet, car il émet des pulses, avec une période de 1 milliseconde à 1 seconde. Un seul pulse est trop faible pour être détecté, il faut sommer de nombreux pulses, en les synchronisant. Pour trouver sa période, il faut traiter le signal sur des millions de points, et analyser la transformée de Fourier temporelle. L’utilité de ces horloges très précises que sont les pulsars pour notre compréhension de l’univers est énorme. En effet, personne n’a encore détecté d’onde gravitationnelle, mais on sait qu’elles existent. L’espace va vibrer et on le verra dans le 15e chiffre significatif de la période des pulsars. Pour cela on a besoin de détecter un grand nombre de pulsars qui puissent échantillonner toutes les directions de l’univers. On a 2 millions de sources (des étoiles) qui sont candidates. C’est un autre exemple où il nous faut des algorithmes efficaces, des algorithmes de machine learning.

    sextet-seyfert-hstLe groupe compact de galaxies, appelé le Sextet
    de Seyfert, image du Hubble Space Telescope (HST), Credit NASA-ESA

    Hier et demain

    B : L’astronomie a-t-elle beaucoup changé pendant ta carrière ?
    FC : Énormément. Au début, nous utilisions déjà l’informatique mais c’était l’époque des cartes perforées.

    B : L’informatique tenait déjà une place ?
    FC : Ah oui. Quand j’ai commencé ma thèse en 1976 il y avait déjà des programmes pour réduire les données. Après les lectrices de cartes perforées, il y a eu les PC. Au début il n’y avait même pas de traitement de texte ! Dans les années qui suivirent, cela n’a plus trop changé du point de vue du contact avec les écrans, mais côté puissance de calcul, les progrès ont été énormes. L’astrophysique a énormément évolué en parallèle. Par exemple pour l’astrométrie et la précision des positions : il y a 20ans, le satellite Hipparcos donnait la position des étoiles à la milliseconde d’arc mais seulement dans la banlieue du soleil. Maintenant, avec le satellite GAIA lancé en 2013, on va avoir toute la Voie lactée. Qualitativement aussi, les progrès sont venus de la découverte des variations des astres dans le temps. Avant tout était fixé, statique, maintenant tout bouge. On remonte le temps aujourd’hui jusqu’à l’horizon de l’univers, lorsque celui-ci n’avait que 3% de son âge. Toutefois, près du Big bang on ne voit encore que les objets les plus brillants. Reste à voir tous les petits. Il y a énormément de progrès à faire.

    B : Peut-on attendre des avancées majeures dans un futur proche ?
    FC : C’est difficile à prévoir. Étant donné le peu que l’on sait sur la matière noire et l’énergie noire, est-ce que ces composants noirs ont la même origine ? On pourrait le savoir par l’observation ou par la simulation. La croissance des galaxies va être différente si la gravité est vraiment modifiée. C’est un grand défi. Un autre défi concerne les planètes extrasolaires. Actuellement il y en a environ 1000 détectées indirectement. On espère « imager » ces planètes. Beaucoup sont dans des zones théoriquement habitables – où l’eau est liquide, ni trop près ni trop loin de l’étoile. On peut concevoir des algorithmes d’optique (sur les longueurs d’onde) pour trouver une planète très près de l’étoile. Des instruments vont être construits, et les astronomes préparent les pipelines de traitement de données.

    Le public

    B : Il y a beaucoup de femmes en astrophysique?
    FC : 30% en France mais ce pourcentage décroît malheureusement. Après la thèse, il faut maintenant faire 3 à 6 années de post doctorat en divers instituts à l’étranger avant d’avoir un poste, et cette mobilité forcée freine encore plus les femmes.

    B : Tu as écrit récemment un livre sur la Voie lactée?
    FC : Oui, c’est pour les étudiants et astronomes amateurs. Il y a énormément d’astronomes amateurs – 60000 inscrits dans des clubs d’astronomie en France. Quand je fais des conférences grand public, je suis toujours très étonnée de voir combien les auditeurs connaissent l’astrophysique. C’est de la semi-vulgarisation. Ils ont déjà beaucoup lu par exemple sur Wikipédia.

    B : Peuvent-ils participer à la recherche, peut-être par des actions de type « crowd sourcing »?
    FC : Tout à fait. Il y a par exemple le « Galaxy zoo ». Les astronomes ont mis à disposition du public des images de galaxies. La personne qui se connecte doit, avec l’aide d’un système expert, observer une image, reconnaître si c’est une galaxie, et définir sa forme. Quand quelqu’un trouve quelque chose d’intéressant, un chercheur se penche dessus. Cela peut même conduire à un article dans une revue scientifique. L’interaction avec le public m’intéresse beaucoup. C’est le public qui finance notre travail ; le public est cultivé, et le public doit être tenu au courant de toutes les merveilles que nous découvrons.

     stephanLe groupe compact de galaxies, appelé le Quintet
    de Stepĥan, image du Hubble Space Telescope (HST), Credit NASA-ESA

  • Votre vie numérique dans un Pims

    Une personne « normale » aujourd’hui a généralement des données sur plusieurs machines et dans un grand nombre de systèmes qui fonctionnent comme des pièges à données où il est facile de rentrer de l’information et difficile de la retirer ou souvent même simplement d’y accéder. Il est également difficile, voire impossible, de faire respecter la confidentialité des données. La plupart des pays ont des règlementations pour les données personnelles, mais celles-ci ne sont pas faciles à appliquer, en particulier parce que les serveurs de données sont souvent situés dans des pays avec des lois différentes ou sans véritable réglementation.

    Nous pourrions considérer qu’il s’agit du prix inévitable à payer pour tirer pleinement avantage de la quantité toujours croissante d’information disponible. Cependant, nous n’arrivons même pas à tirer parti de toutes les informations existantes car elles résident dans des silos isolés. La situation ne fait que s’aggraver du fait de l’accroissement  du nombre de services qui contiennent nos données. Nous sommes arrivés à un stade où la plupart d’entre nous avons perdu le contrôle de nos données personnelles.

    Pouvons-nous continuer à vivre dans un monde où les données sont de plus en plus importantes, vitales, mais aussi de plus en plus difficiles à comprendre, de plus en plus complexes à gérer ? De toute évidence, non ! Alors, quelles sont les solutions pour parvenir à un monde de l’information qui puisse durablement satisfaire ses utilisateurs ?

    Une première solution serait que les utilisateurs choisissent de déléguer toutes leurs informations à une entreprise unique. (Certaines entreprises rêvent clairement d’offrir tout le spectre des services de gestion d’information.) Cela faciliterait la vie des utilisateurs, mais les rendrait aussi totalement dépendants de cette société et donc limiterait considérablement leur liberté. Nous supposerons (même si c’est discutable) que la plupart des utilisateurs préfèrerait éviter une telle solution.

    Une autre possibilité serait de demander aux utilisateurs de passer quelques années de leur vie à étudier pour devenir des génies de l’informatique. Certains d’entre eux ont peut-être le talent pour cela ; certains seraient peut-être même disposés à le faire ; mais nous allons supposer que la plus grande partie des personnes préfèreraient éviter ce genre de solution si c’est possible.

    Y a-t-il une autre option ? Nous croyons qu’il en existe une, le système de gestion des informations personnelles, que nous appellerons ici pour faire court Pims pour « Personal information management system ».

    Pour aller plus loin : Article complet

    Serge Abiteboul Benjamin André Daniel Kaplan
    INRIA & ENS Cachan Cozy Cloud Fing & MesInfos

     

  • L’informatique à l’école : un pas bien timide, mais un pas quand même

    Depuis quelques mois les appels à un enseignement de l’informatique dans les écoles et lycées se multipliaient, traduisant l’impatience tant de parents que de personnalités politiques, de scientifiques et de représentants du monde numérique. En annonçant dans le Journal du dimanche du 13 juillet 2014 qu’il favoriserait « en primaire une initiation au code informatique, de manière facultative et sur le temps périscolaire », Benoît Hamon a fait un pas – certes timide mais difficile car le sujet n’est toujours pas consensuel.

    A défaut d’être la réponse attendue, c’est un signal d’encouragement aux très nombreux enseignants qui innovent jour après jour, luttent contre le décrochage scolaire, en s’appuyant sur les pratiques numériques de leurs élèves pour motiver et former aux approches critiques, mais butent vite sur le manque de compétences informatiques, le leur et celui de leurs élèves. C’est aussi un signal d’encouragement aux très nombreuses associations et aux rares collectivités territoriales qui ont pris à leur charge la formation à l’informatique que l’école différait. Les uns et les autres ont compris que la culture numérique implique une initiation précoce à l’informatique et ne saurait se suffire des « usages ». Les uns et les autres savent que la transition numérique de notre société appelle ces savoirs et savoir-faire, pour de futurs citoyens créatifs, solidaires et lucides.

    La programmation encourage naturellement l’apprentissage par l’essai-erreur, le travail collaboratif. Elle place les élèves dans des attitudes actives, créatives, de partage et de contribution. Un projet mené à bien est un plaisir, une fierté. Cela explique ses succès auprès d’élèves décrocheurs. L’entrée du « code » à l’école doit être l’occasion de participer à la transformation de l’enseignement.
    Si la volonté d’opérer en douceur semble être de mise avec une amorce par le périscolaire, le choix du primaire comme point de départ peut aussi s’envisager comme l’opportunité d’un changement de fond, une occasion de convergence entre les professeurs des écoles et les acteurs de l’éducation populaire, de la médiation scientifique et numérique, de l’entrepreneuriat social, pour une école ouverte, reliée aux territoires. Reste à savoir l’exploiter. Cet appel au riche tissu de ressources territoriales implique une gestion de projet, qui va mobiliser les directeurs d’école. Il faudra travailler en réseau entre écoles et associations, proposer aux animateurs et éducateurs qui le souhaitent une certification ou une validation d’acquis, l’enjeu pour les élèves étant la base d’une véritable littératie numérique qui aidera les autres savoirs fondamentaux à se révéler.

    Le recours au périscolaire ne pourrait évidemment seul suffire. Un enseignement périscolaire se doit d’être créatif, expérimental, ludique, émancipateur, non-institutionnel. Il peut enrichir l’enseignement scolaire, participer à faire évoluer contenus et méthodes, à cultiver des compétences transversales. Il ne peut se substituer à l’école. Une approche basée purement sur le périscolaire ne touchera pas tous les enfants, engendrera des inégalités entre territoires ruraux et agglomérations, entre écoles « branchées » et les autres (même si de telles inégalités pourraient être atténuées par des politiques volontaristes couteuses). Enfin et surtout sans une l’implication active des professeurs des écoles eux-mêmes, l’apprentissage de l’informatique par les enfants restera isolé des autres enseignements et ne pourra pleinement réussir.

    C’est là qu’une autre mesure annoncée par Benoît Hamon prend toute son importance, et traduit une vision qui dépasse heureusement la délégation aux associations : l’entrée de son enseignement dans les ESPE (les Ecoles Supérieures du Professorat et de l’Education), dont la loi de refondation de l’école a fait le cœur de la transformation numérique de l’enseignement. Il faut avancer rapidement et résolument dans ce sens et accompagner cette mesure par un développement de la formation continue dans ce domaine pour toucher la plus grande partie des professeurs des écoles. La formation de l’ordre de 350 000 professeurs des écoles est un défi considérable, que la profession va devoir organiser. On voit bien qu’il ne s’agit pas seulement de former tous les professeurs « au code », mais de les engager dans la transformation de leurs disciplines et de leur pédagogie, reconfigurées par la « société numérique » et désormais imprégnées par les sciences et techniques informatiques.

    Il faut aussi répondre aux inquiétudes légitimes : il ne s’agit pas de former de la main-d’œuvre pour l’industrie du logiciel ; il ne s’agit pas d’appendre à coder pour coder ; il ne s’agit pas d’apprendre une nouvelle discipline abstraite ; il ne s’agit pas non plus d’une démission de l’école, d’une brèche dans laquelle s’engouffreraient les nouveaux acteurs industriels de l’éducation numérique pour se substituer à l’école.

    Il reste que la tâche est complexe. Il faudra les efforts de tous et une mobilisation très large pour que ce projet réussisse.

    Au-delà de l’école primaire, la déclaration de Benoît Hamon touche le collège et le lycée. Il choisit de s’appuyer d’abord sur les professeurs de mathématiques et de technologie. C’est à court terme une solution. Le vivier de tels professeurs volontaires pour enseigner l’informatique existe mais on atteint vite ses limites, quand cela ne participe pas à accentuer comme en mathématiques une pénurie endémique de tels enseignants. Il est urgent d’ouvrir les portes de l’éducation nationale à des enseignants dont l’informatique est la compétence principale. Le vivier naturel se trouve dans les licences et master d’informatique, et aussi dans les entreprises pour des ingénieurs qui souhaiteraient une reconversion. Sur ce sujet, nous attendons une véritable vision qui fasse bouger les lignes.

    Benoît Hamon présente un projet qu’il faut concrétiser et enrichir. Tout ne peut se résumer à une brève initiation au « code informatique ». Il ne suffit pas de savoir écrire des programmes dans un langage informatique quelconque pour, par exemple, comprendre comment fonctionne le moteur de recherche de Google, l’encryption dans un système de vote électronique, ou une base de données « dans les nuages ». Au-delà des seuls aspects scientifiques et techniques, l’enseignement de l’informatique représente le chemin de l’acquisition d’une véritable culture numérique par tous. La formation de ses enseignants en informatique et en culture numérique est la clé de la réussite.  C’est bien là une des ambitions que l’éducation nationale doit porter dans les années à venir.

    Serge Abiteboul et Sophie Pène, membres du Conseil national du numérique

    Sur le site du CNNum