Catégorie : Informatique

  • Qu’est-ce qu’un bon système de vote ?

    C’est la question que Binaire a posée à Véronique Cortier, Directrice de recherche au CNRS à Nancy. Cette spécialiste de la sécurité informatique nous répond.

    De nombreux scrutins se font désormais par voie électronique. L’actualité est très riche en la matière avec les élections au sein de l’UMP (qui finalement seront faites en version papier) ou les élections professionnelles au sein du Ministère de l’Éducation Nationale. Le vote électronique concerne également de nombreux scrutins dont le nombre d’électeurs est plus limité comme l’élection de conseils (conseil d’administration, conseil scientifique, ou simplement conseil de collège ou de lycée). L’irruption des scrutins par voie numérique (on parle de « vote électronique ») soulève de nouveaux enjeux en termes de garanties de bon fonctionnement et de sécurité informatique : comment m’assurer que mon vote sera bien pris en compte ? Est-ce qu’un tiers peut savoir comment j’ai voté ? Puis-je faire confiance au résultat annoncé ? Nous faisons ici un tour d’horizon des propriétés souhaitables pour le vote électronique en nous appuyant sur l’exemple du vote traditionnel à l’urne tel qu’il est organisé en France lors des élections municipales par exemple.

    Vote à New-York vers 1900Salle de vote à New-York en 1900 (E. Benjamin Andrews – Source Wikimedia)

    1. Confidentialité : le maître mot !

    Nul ne doit connaître le vote d’un électeur. Dans le cas d’un vote à l’urne, on parle alors d’un vote à bulletins secrets : l’électeur glisse son bulletin dans une enveloppe, à l’abri des regards dans l’isoloir. Pour des élections à enjeux importants, la confidentialité stricte ne suffit pas : un électeur ne doit pas pouvoir révéler comment il a voté, même s’il le souhaite. Pourquoi donc ? Tout simplement pour se protéger contre l’achat de vote ou la coercition. Si je peux prouver comment j’ai voté, alors il m’est possible de vendre mon vote : contre une certaine somme d’argent (ou sous la menace), je peux donner une preuve que j’ai bien voté comme un tiers l’aurait souhaité. C’est pour cette raison que, lors d’un vote à l’urne, ni l’enveloppe ni le bulletin ne doivent porter un quelconque signe permettant d’identifier l’électeur, sous peine d’être considérés comme nuls. Notons au passage que le vote traditionnel à l’urne permet donc l’abstention forcée : il est possible de forcer un électeur à voter « nul » en lui demandant d’apposer sur son bulletin un signe particulier, convenu à l’avance. La présence de signe peut être vérifiée lors du dépouillement public.

    2. Sincérité et transparence du scrutin : un contrat de confiance

    Le principe même d’une élection est que les électeurs dans leur ensemble acceptent de se conformer au résultat de l’élection. Encore faut-il avoir confiance en la sincérité du scrutin, c’est-à-dire pouvoir se convaincre que le résultat de l’élection correspond bien aux votes exprimés par les électeurs. On parle alors de vérifiabilité. Toujours dans le cas d’un vote traditionnel à l’urne, et quitte à surveiller l’urne toute la journée, il est possible de s’assurer que son bulletin est bien présent dans l’urne (vérifiabilité individuelle) et que les bulletins proviennent tous bien d’électeurs légitimes (vérifiabilité de la légitimité). Puis lors du dépouillement public, chacun peut se convaincre que le décompte des voix correspond bien aux bulletins déposés par les électeurs (vérifiabilité universelle).

    3. Disponibilité et accessibilité : le vote pour tous !

    Tous les électeurs doivent pouvoir voter. Voter ne doit pas demander de compétence technique particulière et doit rester accessible à des personnes en situation de handicap. D’autre part, il doit être possible de voter à tout moment pendant la durée du scrutin. Dans le cas du vote à l’urne, il est ainsi important que les bureaux de vote soient accessibles, en nombre suffisant et suffisamment longtemps pour éviter de longues files d’attente.

    Qu’en est-il dans le cas du vote électronique ?

    Si chaque électeur peut juger de la disponibilité et de l’accessibilité d’un système de vote, force est de constater qu’il est difficile de juger de la confidentialité et de la transparence en matière de vote électronique puisque le fonctionnement de ces systèmes est inconnu dans la grande majorité des cas. Par exemple, le fonctionnement du système mis en œuvre lors des précédentes élections au sein de l’UMP n’est pas public. On peut alors se tourner vers les recommandations de la CNIL (Commission Nationale de l’Informatique et des Libertés) en matière de vote électronique. La CNIL insiste notamment sur le fait que le bulletin doit être chiffré avant d’être envoyé : « Le bulletin de vote doit être chiffré par un algorithme public réputé « fort » dès son émission sur le poste de l’électeur et être stocké dans l’urne, en vue du dépouillement, sans avoir été déchiffré à aucun moment, même de manière transitoire. » Lors du dépouillement, il doit être impossible de faire le lien entre un bulletin et l’électeur correspondant. Ces recommandations visent à empêcher des personnes malveillantes d’avoir accès aux votes des électeurs lors du déroulé du scrutin ou du dépouillement, même s’il reste difficile de se prémunir contre des attaques menées directement sur l’ordinateur de l’électeur (un ordinateur infecté par un virus pourrait modifier le choix de l’électeur ou tout simplement l’envoyer à une personne tierce).

    La transparence, grande oubliée des systèmes électroniques actuels.

    Si la confidentialité des votes semble être au centre des préoccupations des sociétés commercialisant des systèmes de vote électronique (d’après leurs brochures commerciales), la transparence du scrutin est actuellement le parent pauvre du vote électronique. Point d’urne visible, point de dépouillement public ! Et bien sûr, toujours pas d’information sur les méthodes utilisées. Même si des précautions sont prises et que des « experts en informatique » ont pu avoir accès au système, l’électeur, lui, n’a a priori aucun moyen de s’assurer que son bulletin a bien été déposé dans l’urne, ni que le résultat annoncé correspond aux bulletins reçus. Les électeurs n’ont actuellement pas d’autre choix que de faire confiance aux autorités de l’élection et aux éventuels experts indépendants qui ont analysé le système.

    De « nouvelles » solutions existent (depuis 20 ans déjà !)

    La recherche en informatique a réalisé des progrès importants dans les 20 dernières années en matière de vote et de cryptographie. Il est désormais possible de mettre en œuvre des systèmes de vote qui ont une urne publique, sur une page web par exemple. Tout électeur peut vérifier que son bulletin est présent dans l’urne et peut vérifier le décompte des voix, sans remettre en cause la confidentialité des votes. Les lecteurs curieux pourront lire l’article « Vote par Internet » sur Interstices pour en apprendre un peu plus sur cette nouvelle génération de systèmes de vote électronique. Bien sûr, ces systèmes sont eux-mêmes loin de résoudre tous les problèmes du vote électronique, mais il est certainement possible de faire mieux que ce qui est proposé par les dispositifs actuellement déployés.

    Je vous donne rendez-vous dans un prochain article pour tenter de répondre à la question suivante : le vote papier est-il réellement plus sûr que le vote électronique ?

    Véronique Cortier CNRS – Nancy

  • Binaire, un an

    Binaire, le blog du Monde sur l’informatique, fête son premier anniversaire. Son mot d’ordre : parler d’informatique… à tous. Cet entretien avec Serge Abiteboul, créateur du blog, a été réalisé par Mathilde de Vos. Il est publié conjointement sur le site de la SIF et sur inria.fr.

    L’informatique participe aux changements profonds du monde et a joué un rôle essentiel dans les grandes innovations des dernières décennies. Pourtant bien des gens ignorent cette science et les technologies associées, de ses aspects les plus formels aux enjeux de société qui lui correspondent. Qu’est-ce que l’informatique ? Quel sont ses progrès, ses dangers, ses impacts, ses enjeux ? Quels métiers ? Comment l’enseigner ? Voilà quelques questions auxquelles le blog Binaire tente de répondre et de sensibiliser ses lecteurs. Lancé sous l’égide de la Société informatique de France (SIF) ce blog hébergé par lemonde.fr est animé par des scientifiques et des professionnels du monde de la recherche (Inria, ENS Cachan, universités), en première ligne desquels Serge Abiteboul.

    Serge Abiteboul

    « J’étais président du Conseil scientifique de la SIF, et je me demandais à quoi nous pouvions servir. Je me suis rendu compte que le grand public ne connaissait rien de l’informatique. Quand on découvre trois bouts d’os en Afrique, les journaux en parlent immédiatement. Mais quand il y a une grande découverte en informatique, comme la conception de PageRank, l’algorithme qui classe les pages web avec un impact sur la vie de chacun, vous ne verrez pas une ligne dans les médias.

    Aucune science n’a évolué autant que l’informatique durant les 50 dernières années. Les informaticiens n’ont pas l’habitude d’expliquer ce qu’ils font. Ils doivent donc apprendre, ce qu’ont appris à faire les scientifiques des autres sciences depuis plus longtemps, à raconter leurs travaux. L’objectif de Binaire, c’est de répondre à ce besoin : expliquer cette science qu’est l’informatique, répondre aux questions sur ce sujet omniprésent dans la société.

    Quand Le Monde m’a invité à ouvrir ce blog, ma seule demande a été de le faire avec une petite équipe. Il fallait publier environ 2 ou 3 articles par semaine, et je ne pouvais pas y arriver seul si je voulais continuer à faire de la recherche. La première surprise de cette expérience, c’est le plaisir que j’ai pris à travailler avec l’équipe, dans une ambiance extraordinaire. Nous publions plus d’articles que prévu en ne mettant en ligne que ce que nous avons envie. Notre seule règle : nous faire plaisir en parlant d’informatique. Nous nous amusons !

    La deuxième excellente surprise a été de nous apercevoir que quand on demande à quelqu’un d’écrire, on a presque toujours des retours positifs. Écrire un article, ça demande beaucoup de temps, c’est un vrai travail. Mais nous avons collectivement envie de parler de nos métiers, nous avons envie de raconter l’informatique. Et je trouve que d’ailleurs les contributeurs en parlent plutôt bien ! J’ai été passionné par de nombreux articles, par exemple cet entretien avec Henri Maitre, professeur à ParisTech, sur les images, ou celui avec Françoise Combes, qui est astronome.

    Nos projets pour 2015 ? Continuer à développer des rubriques récurrentes. Nous allons poursuivre une série d’entretiens avec de grands témoins, pour essayer de définir ce qu’est l’informatique. Françoise Tort, maître de conférences à l’ENS Cachan, a commencé un panorama de l’enseignement de l’informatique, pour montrer ce qui se fait en dehors de la France. Et puis il va y avoir une série d’articles sur Alan Turing, pour accompagner la sortie du film « The Imitation Game », une autre pour parler du vote électronique, une autre est à l’étude sur l’art numérique…

    Nous sommes d’ailleurs preneurs d’idées et de demandes. Des lecteurs nous proposent des articles, des informaticiens qui ont envie d’écrire ; nous pouvons leur donner cette opportunité. Un de nos buts est de faire éclore des talents de raconteurs de l’informatique. »

  • The Imitation Game : et si vous préfériez l’original ?

    2012 a été l’année du centenaire de la naissance d’Alan Turing. Cette icône de l’informatique a été célébrée dignement. A la fin du mois, sort un film biographique sur Turing, un blockbuster, « The Imitation Game ». Binaire se devait d’accompagner l’événement et a donc demandé leurs réactions à plusieurs amis. Nous démarrons avec Jean Lassègue, philosophe des sciences. Il remet en jeu quelques idées reçues. Serge Abiteboul.

    alan-turing-rayclid-binaire-blog

    J’avais eu l’occasion de passer un an à Oxford il y a presque trente ans. J’étais alors tombé par hasard sur la biographie de Turing écrite par le mathématicien Andrew Hodges, Alan Turing, The Enigma. Je fus immédiatement subjugué par ses qualités littéraires : la beauté de cette prose, les exergues du poète Walt Witman, mais aussi la culture britannique – des rites propres aux écoles secondaires à la campagne anglaise – me parlaient d’un monde que je connaissais bien mieux que la logique mathématique que j’avais commencé à étudier cette année-là. Je lus le livre d’une traite et le relus un certain nombre de fois dans les années qui suivirent, pendant lesquelles Turing fut pour moi tout à la fois une sorte d’interlocuteur, une grille d’interprétation et une source d’interrogation sur la façon dont la science s’inscrit dans le siècle.

    Me voici de retour à Oxford. Entre temps, Turing est devenu l’une des figures les plus célèbres de l’histoire de l’informatique et, ce 18 décembre, on joue, au cinéma de Walton Street où j’allais de temps en temps à l’époque, le film de Morten Tyldum « The Imitation Game » qui porte sur la biographie de Turing et qui sortira en France le 28 janvier 2015. Quoi de plus normal, vingt-huit ans après avoir quitté Oxford, que d’aller voir ce film, et de renouer, sur le mode d’une fiction, avec ce qui allait devenir l’un des thèmes majeurs de mes préoccupations pendant les années qui suivirent ? Le film allait me rappeler encore une fois, s’il le fallait, combien il est difficile de parler d’un scientifique sans tomber dans l’hagiographie ou le grand spectacle, et ce, même quand le film est basé sur le livre si réussi d’Andrew Hodges.

    TheImitationGameJe ne compte pas faire une critique détaillée du film, décidément trop « théâtral » pour moi, même s’il m’a paru bien servi par les acteurs et qu’il peut sans doute permettre à un spectateur qui ignorerait tout de la vie de Turing de se faire une première idée du rôle capital qu’il joua pendant la guerre quand, en décryptant les messages codés envoyés aux sous-marins allemands faisant le blocus de l’Angleterre, il réussit à déjouer le blocus et raccourcit de ce fait la guerre de deux ans en sauvant des milliers de vies humaines. Cependant, réussir à faire tourner l’intrigue autour du couple Alan Turing / Joan Clarke, mathématicienne avec qui il fut fiancé à l’époque où ils faisaient tous les deux partie de l’équipe de décryptage, tient pour moi d’un véritable prodige quand on sait, comme le montre d’ailleurs le film, que Turing était homosexuel et que son homosexualité lui valut condamnation pénale et contribua à son suicide. D’autres films récents, relevant plus du genre « documentaire » (voir en fin de blog) me paraissent plus proches de la vérité historique.

    Je m’en tiendrai à un aspect particulier du film de Tyldum parce qu’il témoigne d’une attitude générale : sa fidélité stricte à l’interprétation de la biographie écrite par Andrew Hodges. Or il se trouve que, malgré les qualités éminentes que je reconnais volontiers au livre de Hodges dans lequel j’ai tant appris, je suis devenu, au fil du temps, fondamentalement en désaccord avec son interprétation. Le film « The Imitation Game », par fidélité à Hodges, me semble donc fondamentalement infidèle à Turing et c’est de cela dont je voudrais parler. Il ne s’agit pas seulement d’un débat entre spécialistes sur quelques vagues points de détail de l’histoire intellectuelle de Turing qui n’intéressent qu’eux et qui n’ont aucune portée. Il s’agit au contraire d’un point fondamental qui distingue deux façons radicalement différentes de concevoir la nature de l’informatique en général et le cadre philosophique et épistémologique de ses résultats.

    L’interprétation canonique du parcours intellectuel de Turing

    Voilà comment je vois la façon dont Hodges interprète la vie et l’œuvre de Turing, appuyée en cela par toute une tradition dérivée de l’empirisme logique dont l’audience est aujourd’hui mondiale, comme les cérémonies, hommages, colloques et événements pour le centenaire de Turing l’ont montré de par le monde en 2012. La notion fondamentale à étudier serait celle d’« intelligence » et la question pertinente à se poser serait celle de savoir si elle peut être conçue de façon mécanique ou pas. La réponse de Turing à cette question serait alors conçue comme le travail consistant à faire évoluer la mécanisation du renseignement (‘intelligence’ pris au sens anglais de collecte des données par les services secrets, ce qui renvoie au travail de Turing sur le décryptage au moyen de la machine Enigma des codes allemands pendant la guerre) à l’intelligence artificielle (‘intelligence’ pris au sens de l’esprit, ce qui renvoie à la construction du premier ordinateur et l’idée que le fonctionnement du cerveau est analogue à celui d’un ordinateur) : l’originalité – immense – de Turing serait ainsi d’avoir accompli ce passage du « renseignement » à l’« esprit » en s’en tenant strictement au paradigme mécanique tel qu’il a été pleinement réalisé par l’ordinateur. Dans cette optique, le « jeu de l’imitation », rebaptisé « Test de Turing » pour les besoins de la cause, deviendrait capital parce qu’il serait un « test » – entendez un algorithme mécanisable – qui prouverait que la notion d’intelligence peut se concevoir comme détachée du support biologique de l’humanité et peut dès lors se transférer à un ordinateur, à peu près comme un logiciel peut tourner sur n’importe quel type de machine, pourvu qu’il s’agisse d’un ordinateur digital.

    C’est à cette interprétation que je m’oppose parce qu’elle reconduit la différence logiciel et matériel (en reproduisant ce faisant un dualisme de l’âme et du corps) au lieu de tenter de penser cette différence et de la concevoir comme rendant possible une dynamique de leur rapport.

    Un indice devrait tout d’abord nous mettre immédiatement la puce à l’oreille : qu’en est-il, dans cette interprétation désormais canonique, du travail de Turing en biologie théorique ? Il passe à la trappe, purement et simplement. Or je rappelle d’une part que les recherches de Turing en biologie théorique ont occupé toutes les dernières années de sa vie entre 1950 et 1954 une fois qu’il eut définitivement abandonné toute recherche fondamentale en informatique et d’autre part qu’il considérait ses résultats dans ce domaine comme aussi fondamentaux que ceux de son article de 1936 fondant la théorie de la calculabilité. S’agit-il donc seulement d’un passe-temps secondaire que l’on pourrait oublier, le temps d’un film grand public, ou minorer, comme dans l’interprétation canonique du parcours intellectuel de Turing ? C’est impossible si l’on veut rendre justice à ce que Turing disait de son propre travail en biologie théorique. Il faut donc reprendre complètement le cadre interprétatif proposé par Andrew Hodges et revenir à ce qui fait le nerf de la preuve de son argumentation, le jeu de l’imitation.

    Le jeu de l’imitation

    Contrairement à la façon dont il est présenté dans le film de Tyldum, suivant en cela la majorité des interprètes puisqu’une entrée « Turing test » se trouve depuis longtemps dans le dictionnaire anglais Collins(*), le « jeu de l’imitation » ne consiste pas à montrer qu’il n’est pas possible de distinguer les réponses d’un homme des réponses d’un ordinateur convenablement programmé à qui on poserait des questions pendant une durée de jeu de cinq minutes et en cachant à l’interrogateur tout indice tenant à l’apparence physique des joueurs, c’est-à-dire en se limitant à des réponses imprimées. Le jeu est plus complexe car il est constitué de deux étapes distinctes, indispensables pour tenter d’obtenir le résultat escompté : l’indifférence entre les réponses humaines et les réponses de la machine et, partant, la « preuve » que l’intelligence mécanique est possible. Dans la formulation du jeu décrite par Turing dans son seul article de philosophie publié en 1950 dans la revue Mind, trois joueurs participent au jeu. L’un, appelé l’interrogateur, est séparé des deux autres, un homme et une femme, et doit tenter de deviner qui est l’homme et qui est la femme – bref doit tenter de déterminer quelle est la différence physique maximale entre deux êtres humains. Une fois en position d’échec pendant un certain temps, relativement court, la seconde étape du jeu consiste à remplacer le joueur masculin par un ordinateur convenablement programmé sans prévenir l’interrogateur et à se demander si celui-ci sera capable de déceler qu’il n’a plus affaire au même joueur mais que celui-ci a été remplacé par un ordinateur, bref que la différence entre humains et ordinateurs dans la deuxième étape du jeu ne sera pas plus décelable que la différence des sexes entre les humains dans la première.

    Je soutiens que le jeu tel qu’il est décrit par Turing ne peut pas parvenir au résultat escompté pour une raison très simple : pour réussir à monter une partie du jeu, il faudrait à la fois prendre en compte la différence physique entre homme et femme dans la première étape et la différence physique entre un être humain et un ordinateur dans la seconde – car il faut avoir la capacité de choisir deux joueurs physiquement les plus opposés – et ne pas prendre en compte cette différence physique – puisqu’il s’agit de parvenir à la conclusion que la mise en échec de l’interrogateur a une portée universelle qui rend toute différence physique entre les joueurs indifférente. Bref, la conclusion à laquelle le jeu doit parvenir détruit les conditions de possibilité de sa propre construction. Autrement dit, pour que tout lecteur de l’article puisse parvenir à faire sienne la mise en échec de l’interrogateur et la conclusion que l’intelligence artificielle est bien réelle, il faudrait que tout lecteur puisse à la fois se dire que, s’il était à la place de l’interrogateur dans le jeu, il serait lui aussi mis en échec dans les deux étapes du jeu tout en se disant aussi qu’il doit cependant être toujours capable de faire physiquement la différence entre les deux joueurs (masculin et féminin dans la première étape, féminin et mécanique dans la seconde) pour monter une partie. Bref, la différence physique entre les joueurs doit en même temps être à tout jamais indécelable tout en étant pour toujours présupposée pour que le jeu puisse fonctionner. La position exigée de la part du lecteur quant à la détermination du rapport d’identité ou de différence entre humain et ordinateur est donc un indécidable au sens technique que ce terme revêt depuis l’article de Turing de 1936 puisque les condition d’accès à cette information rendent impossibles l’accès à l’information en question.

    Déterminisme prédictif ou pas

    Comment concevoir alors le jeu de l’imitation et plus globalement l’article de Turing de 1950 ? En remarquant qu’il y a une toute autre superposition dans cet article que celle existant entre les deux sens de la notion d’intelligence dont j’ai parlé plus haut. Turing remarque en effet que l’ordinateur en tant que machine physique est une machine « laplacienne » (relevant du déterminisme prédictif) mais que le monde physique ne l’est généralement pas pour des raisons ayant trait à la nature même de la matière, susceptible de comportements chaotiques (relevant du déterminisme non-prédictif). C’est donc la superposition de ces deux sens du déterminisme qui fait le fond de l’article de Turing et il faut le lire à ces deux niveaux : le niveau « grand public » (celui du film de Tyldum) dans lequel on débat (littéralement : à n’en plus finir pour des raisons ayant trait à l’indécidabilité dont j’ai parlé plus haut) pour savoir si et comment une machine peut être considérée comme « intelligente » et le niveau « de l’indécidable » dans lequel on sait pertinemment que la véritable question n’est pas là mais qu’elle se situe dans le rapport entre le calculable et l’incalculable et que ce rapport est précisément celui que Turing a exploré tout au long de sa vie et ce, jusqu’en biologie où les formes vivantes persistent – pour le temps de leur vie – à la frange du chaos qui mettra un terme à leur cohérence interne, comme l’a si profondément montré Giuseppe Longo (cf. F. Bailly & G. Longo, Mathématiques et sciences de la nature; La singularité physique du vivant, Hermann, 2007 et G. Longo & M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities, Springer, Berlin, 2014).

    Il y a donc une continuité théorique totale dans le parcours de Turing, que l’on pourrait résumer dans cet aphorisme quasi-mallarméen dans son aspect paradoxal : jamais un surcroît de programmation n’abolira le non-programmé, comme le prouve la théorie de la programmation. Turing est en effet parvenu à montrer les limitations internes à la théorie de la programmation à partir de cette théorie même. Un problème capital se pose alors : comment réussir à manifester et à explorer plus avant ce non-programmable si c’est seulement dans son rapport au programmable qu’il devient pensable ?

    Où se situe le non-programmable ?

    Turing passera le reste de sa vie, après son article de 1936, à essayer de répondre à cette question et la réponse qu’il a élaborée continue d’occuper le champ de la recherche aujourd’hui. Celle-ci me paraît être la suivante : la production de formes cohérentes que ce soit dans la pensée (l’invention du concept de machine de Turing, par exemple) ou dans la nature (l’apparition des formes vivantes, par exemple) est une manifestation de ce non-programmable.

    Je soutiens que l’article de 1950 dans lequel Turing propose à la sagacité de son lecteur le « jeu de l’imitation » est une méditation sur les deux notions de la « pensée » et de la « nature » et plus encore sur leurs rapports. Or, pour avancer plus avant sur cette question difficile, on ne peut pas envisager la « pensée » ou la « nature » comme des notions fixées une fois pour toutes dont on pourrait étudier les produits complètement constitués (telle pensée, telle forme vivante) : il faut au contraire envisager la « pensée » et la « nature » comme des processus d’individuation progressive de formes. Or Turing a proposé, dans les dernières années de sa vie, un modèle de développement des formes vivantes à partir de brisures de symétrie dans la matière physique et c’est, à mon sens, en poursuivant une idée analogue sur le mode du désir qu’il construit le jeu de l’imitation quand il s’agit de rendre compte de l’invention du concept de « machine de Turing » : il s’agit de savoir si on peut remplacer la pensée d’un homme par un ordinateur à partir d’une brisure de symétrie dans la matière, c’est-à-dire d’une différence physique.

    Vu sous cet angle, le jeu de l’imitation prend une tout autre tournure que celle de savoir si la « pensée » est un concept universel, indifféremment incarné dans l’être humain ou l’ordinateur : il consiste en la description d’un processus d’individuation d’une forme de la pensée (l’invention du concept de « machine de Turing » chez l’individu Turing) et du rapport ambivalent que cette forme entretient avec les deux modalités (programmable et non-programmable) de son incarnation possible ­– le jeu devenant alors typique d’un « double entendre » (comme on dit en anglais !). De ce point de vue, la différence physique entre les joueurs et, en tout premier lieu, comme Turing n’a pas manqué de le voir, la différence des sexes, joue un rôle capital dans la dynamique du jeu puisque c’est son possible dépassement, pour les formes vivantes que nous sommes, qui en fait le moteur. L’aphorisme quasi-mallarméen dont je parlais plus haut prend alors la forme suivante : jamais un surcroît de programmation n’abolira la différence des sexes, comme le suggère le jeu de l’imitation.

    Aussi peut-on dire que si le jeu parvenait à ses fins, la différence des sexes serait effectivement dépassée et la sexualité personnelle de Turing définitivement cachée. Turing apprit, à ses dépens, que ce n’était pas le cas et il y a presque de la prophétie dans le jeu de l’imitation, comme le film de Tyldum le laisse d’ailleurs entendre, lui qui finit par avouer la nature de sa sexualité après un interrogatoire de police et qui fut condamné à une castration chimique.

    La signification générale du parcours de Turing ne se situe donc pas, selon moi, dans le passage d’un sens de la notion d’intelligence à un autre (on en resterait à une perspective algorithmique visant à étendre indéfiniment le périmètre du calculable, ce que l’informatique n’a pas manqué de faire depuis qu’elle existe) mais dans le passage de la forme au sens du formalisme et de ses limitations internes à la forme au sens de la production des formes, idéales comme celles de la machine de Turing ou naturelles comme celles des formes biologiques, en se plaçant d’emblée du point de vue du rapport programmable / non-programmable. Et c’est évidemment dans cette production que se situe l’énigme de l’invention des formes que ce soit celle produite par Turing dans le concept de machine de Turing ou que ce soit celle produite par la nature. Il reste encore un film à faire sur le sujet, et il n’y a aucune raison de ne pas espérer le voir réalisé un jour.

    Jean Lassègue, CNRS – Institut Marcel Mauss, École des Hautes Études en Sciences Sociales.

    (*) Test de Turing : test visant la capacité de l’ordinateur à penser, requérant que la substitution cachée d’un participant par un ordinateur dans un dialogue par télétype soit indétectable pour le participant humain qui reste. » On va voir combien cette description est trompeuse.

    Filmographie

    • Le modèle Turing, de Catherine Bernstein, produit par CNRS Images
    • La drôle de guerre d’Alan Turing, de Denis van Waerebeck, récemment passé sur Arte
    • The strange Life and Death of Dr Turing, de Christopher Sykes, produit par la BBC (en ligne sur YouTube).

    Bibliographie

    • F. Bailly & G. Longo, Mathématiques et sciences de la nature; La singularité physique du vivant, Hermann, 2007
    • G. Longo & M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities, Springer, Berlin, 2014
  • Pour un joint…

    Serge et Colin nous parlent d’une opération très importante dans notre vie quotidienne, « la jointure », et nous expliquent même un algorithme pour la réaliser. Vous verrez que vous utilisez des jointures souvent sans le savoir et que si une bonne jointure peut toujours servir, une mauvaise peut porter atteinte à votre liberté.

    Prenons cette question hypothétique posée à un concours de la fonction publique. Peut-on lier par une jointure les bases de données de l’éducation nationale et de l’immigration ?

    1. Oui. Cela permet de détecter des personnes en situation irrégulière.
    2. Non. Cela pourrait décourager les personnes en situation irrégulière d’envoyer leurs enfants à l’école.

    Le choix entre (1) et (2) est un choix de société. Pour nous, c’est une obligation humaniste de décider (2). Aujourd’hui la plupart des élèves qui sortent de l’éducation nationale ne savent pas, peut-être vous ne savez pas, ce que c’est qu’une jointure. Nous pensons qu’il n’est pas possible de comprendre le monde numérique qui nous entoure sans comprendre ce que c’est que la jointure. Nous pensons qu’il n’est pas possible de faire de manière éclairée certains choix de société si on ne comprend pas ce que c’est que la jointure ? C’est pourquoi nous allons vous expliquer cette fameuse jointure…

    Vous utilisez quotidiennement des jointures

    Imaginez que vous voulez aller au cinéma ce soir. Vous demandez à Allociné « où puis-je voir Mommy ce soir près de chez moi ». L’information est probablement structurée chez Allociné dans une base de donnée de la manière suivante (très simplifiée) :

    joinL’information est répartie entre deux tables. La première dit quel cinéma passe quel film à quelle heure. La seconde donne le nom et l’adresse du cinéma. Observez l’utilisation d’identifiant pour chaque cinéma. C’est ce qui permet de faire une « jointure » (comprenez un pont) entre les deux tables et de trouver par exemple que « Imitation game » passe à 17:00 au Gaumont Opéra ».  Pour donner un autre exemple, quand vous cherchez les contacts de votre amie Alice sur Facebook, que faites vous ? Vous allez dans votre liste d’amis (une première table). Vous sélectionnez Alice et allez chercher ses contacts – dans une autre table. Une jointure ! Quand vous regardez les tweets que Twitter vous propose, que l’un d’entre eux, par exemple vient d’Inria et que vous cliquez pour voir les tweets récents d’Inria, une autre jointure ! On pourrait multiplier les exemples. Mais vous avez saisi l’importance de cette opération.

    Imaginez maintenant que la première table soit les services de l’immigration et la seconde, une base de données de l’éducation nationale. Oups ! Wikipédia nous raconte : « Le 21 mars 1974, la révélation par le quotidien Le Monde d’un projet gouvernemental tendant à identifier chaque citoyen par un numéro et d’interconnecter, via ce numéro, tous les fichiers de l’administration créa une vive émotion dans l’opinion publique. » C’est cette émotion qui a conduit à la création de la CNIL. Des jointures entre les tables de l’administration risquaient de mettre en cause des libertés fondamentales. Cet identifiant aurait joué le rôle de l’identifiant de salle de cinémas de l’exemple précédant. C’est donc bien une histoire de jointure.

    Pour conclure, nous allons vous présenter, en nous appuyant sur l’exemple du cinéma, l’algorithme le plus standard pour réaliser la jointure. Comme cela, nous espérons démystifier un peu pour vous cette opération.

    Un algorithme simple pour réaliser des jointures

    C’est peut-être ce que vous choisiriez si on vous demandait de réaliser manuellement la jointure.

    L’algorithme Tri-fusion 

    1. Tri : Vous commencez par trier la première table par ID-ciné croissant. Vous faites de même de la seconde table. Dans cet algorithme, ce qui prend le plus de temps c’est d’ailleurs typiquement ce tri des deux tables. Pour faire ce tri, vous utilisez votre algorithme de tri préféré. Voir plus loin un exemple d’algorithme de tri.
    2. Fusion : Vous inspectez ensuite les identifiants de ID-ciné par ordre croissant et pour chacun vous construisez (si c’est le cas) des résultats. C’est la partie la plus simple.

    Maintenant nous allons vous proposer un algorithme de tri – il en existe des tonnes. Interstices nous en propose une synthèse. Et on peut même le découvrir en dansant:

    Nous en donnons un qui est d’une simplicité effrayante :

    Algorithme Tri par diviser pour conquérir

    1. Coupez la relation en deux.
    2. Triez chaque morceau
      1. Si le morceau n’a qu’un élément, il est trié.
      2. Sinon réutilisez Tri par diviser pour conquérir
    3. Fusionnez les deux relations triées.

    Maintenant, heureusement que ce n’est pas l’algorithme qui est utilisé quand vous demandez un film. Le système utilise un « index » – qui ressemble dans l’idée à l’index à la fin d’un livre. On donne à l’index un identifiant de salle et il trouve directement l’enregistrement correspondant à ce cinéma en quelques millisecondes quand Tri-fusion pourrait prendre quelques secondes voire plus pour de grosses tables.

     

    La jointure n’est qu’une des opérations de l’algèbre relationnelle. Pour découvrir les autres, consultez ce Wandida.

    Voilà. Maintenant vous savez ce que c’est qu’une jointure. Et vous pouvez comprendre la question : Peut-on lier par une jointure les bases de données de l’éducation nationale et de l’immigration ? Ou pas.

    Serge Abiteboul et Colin de la Higuera

     

  • La nuit de l’info 2014

    Et voilà, la 7ème édition de la nuit de l’info s’est terminée le vendredi 5 décembre 2014 à 8h04 sur un nouveau record de participation avec plus de 2900 étudiants.

    Cette année, en lien avec l’actualité, les étudiants avaient à leur disposition toute une nuit pour inventer un système d’information a vocation humanitaire. C’était pour eux l’occasion de mettre leurs compétences au service des autres, dans un monde en crise où l’informatique pourrait être utilisée pour aider des populations en péril. Les scénarios sur lesquels ils ont travaillé permettraient d’aider les zones victimes d’épidémies ou de crise sanitaire, des réfugiés de guerre à la recherche de leurs proches, ou encore les ONG en charge des campagnes de prévention dans les zones à risques.

    Et cette année encore, les organisateurs de la nuit ont su répondre présent avec probablement l’un des plus beaux thèmes depuis le début de l’évènement : « UNE NUIT POUR INVENTER LES SYSTÈMES D’INFORMATION HUMANITAIRES DE DEMAIN »

    Les équipes, au nombre de 337, se sont affrontées dans ce challenge festif autour de l’informatique. Pendant toute la nuit, ils pouvaient répondre aux défis lancés par les nombreux partenaires industriels, pour tenter de décrocher les cadeaux associés. Défi du projet le plus surprenant, défi de la meilleure modélisation, il y en avait pour tous les gouts ! Chaque partenaire industriel, porteur de défi, amène dans la Nuit son cœur de métier, et défie les participants sur des problématiques qui lui sont chères, comme l’ergonomie ou encore la prise en compte du handicap.

    Mais la Nuit c’est plus que ça.  C’est avant tout un lieu de rencontres, d’échanges, de discussions où les entreprises partenaires viennent conseiller et soutenir les étudiants tout au long de la nuit. C’est l’occasion pour chacun de se faire remarquer, dans une ambiance festive : difficile d’imaginer dans un autre contexte de pouvoir discuter de développement logiciel avec un directeur d’agence alors que l’on est déguisé en panda ! La Nuit est aussi une formidable opportunité pour décrocher un stage ou un emploi auprès des entreprises soucieuses de faire connaitre leur nom mais aussi de repérer les petits génies de demain.  C’est une occasion unique où les étudiants de tous niveaux (DUT, Licence Pro, Master ou Ingénieur) éprouvent leurs compétences et sont confrontés à des exigences professionnelles sur une période inhabituelle.

    N’hésitez pas à consulter le site de la Nuit de l’info pour plus d’information. Qui sait, peut-être participerez-vous à l’édition 2015 ?

    Gaëtan Rey et Sébastien Mosser

  • Osons les cours d’informatique à l’école

    Tout le monde s’accorde (ou presque) pour dire que l’informatique est indispensable. En revanche, il y a un point qui fait frémir : quels cours supprimeriez-vous pour l’enseigner ? Retrouvez la tribune sur Slate.fr datée du 8 décembre 2014 de Colin de la Higuera, président de la Société Informatique de France (SIF) et Gilles Dowek, président du conseil du scientifique de cet espace de réflexion, de concertation sur les enjeux de l’informatique qu’est la SIF.

     

  • Barbie est moins conne qu’on le dit

    Barbie est moins conne* qu’on le dit.
    Barbie is ultimately not that a dummy**.

    Lorsque Casey Fiesler, Doctorante en Sciences Informatiques, a vu les fils de ces média sociaux déborder d’indignation à propos de l’incommensurable maladresse de la bande dessinée « Barbie: I Can Be a Computer Engineer » elle a fait une chose tout à fait constructive et utile pour toutes et tous nos enfants. Elle a réécrit ce qu’aurait du être une telle histoire. Et met en partage « Barbie, remixed : je peux (vraiment !) être ingénieure en informatique ». Un auteur du blog voisin bigbrowser.blog.lemonde.fr nous explique sa démarche.

    À notre tour*** d’aider parents et enfants à ne pas être victimes de tels poncifs. À réaliser que nous avons besoin des deux moitiés de l’humanité à égalité pour avancer au mieux sur tous les sujets. Voici la version française, à lire, offrir et partager sans modération ! Même la Mère ou le Père Noël pourrait glisser ces huit feuillets au pied du sapin.

    Barbie revisitée : « Je peux être ... ingénieure en informatique »

    Colin, Marie-Agnès, Pierre, Serge, Sylvie et Thierry.


    (*) Ici dans le sens de femme sotte, manquant d’intelligence et éventuellement prétentieuse.

    (**) [english traduction of this text] When Casey Fiesler, PhD student in Computer Science, discovered that her social media feeds have been full of outrage over the unboudned awkwardness of the comic « Barbie I Can Be a Computer Engineer » she simply did the constructive and useful think to do. For all small girls and boys: She rewrote what should have been such a story, i.e., « Barbie, remixed: I (really!) can be computer engineer« , as explained on bigbrowser.blog.lemonde.fr.
    It is our turn to contribute, helping parents and children not to be victims of such cliches. To help realizing that we need the two halves of humanity equaly treated to get the best on all subjects. Here is the French version of Casey’s work, to read, offer and share without moderation! Even Mother or Father Christmas can put some of them under the Christmas tree !

    (***) La traduction du travail de Casey Fiesler a été faite par Provence Traduction avec le soutien d’Inria .

  • Un algorithme : PageRank de Google

    Que se passe-t-il si on cherche Michael Jackson  sur Google ? On voit apparaître des liens vers des pages concernant le chanteur : sa vie, ses photos, ses clips, sa famille, ses fan clubs, sa mort, etc. Tout cela nous paraît bien logique a priori. Mais si l’on creuse un peu, cela devrait nous intriguer. Après tout, il y a des millions de pages avec la chaîne de caractères « Michael Jackson » sur le Web. Pourquoi Google ne nous propose rien sur Michael Jackson menuisier à Dallas ? Ou Michael Jackson professeur de chant à San Francisco ? Si vous étiez ce menuisier, vous pourriez même être outré de ne voir aucun lien vers une page qui parle de vous, alors que vous en avez publié des dizaines, en y incluant à chaque fois votre nom. Pourquoi de telles injustices ?

    En fait, Google propose des liens sur les pages du chanteur, car il suppose que c’est le chanteur qu’un internaute va chercher. Et il y a une forte probabilité que ce soit le cas… le plus souvent. Mais comment Google peut-il savoir qu’il y a une forte probabilité qu’un internaute recherche en général le chanteur plutôt que le menuisier ?

    Google ne le sait pas. Ce que Google sait, par contre, c’est que parmi toutes les pages qu’il gère et qui parlent de Michael Jackson (d’un certain Michael Jackson), celles concernant le chanteur sont les plus « importantes » (comprenez les plus « populaires »). La notion d’importance est mesurée par un algorithme, un de plus, parmi ceux qui régissent notre vie quotidienne.

    L’algorithme PageRank, inventé par Sergeï Brin et Larry Page, les deux fondateurs de Google, s’inspire des travaux de Jon Kleinberg d’IBM. PageRank était à l’origine du classement des résultats du moteur de recherche Google. Aujourd’hui, plus de deux cents autres critères sont utilisés pour classer ces résultats. La recette est secrète, ce qui ouvre la porte à toutes sortes de spéculations sur ce classement. Est-il vraiment neutre au sens de la neutralité des plateformes du Web ?

    Nous allons parler ici de l’algorithme PageRank original, dans une version très simplifiée, pour le rendre accessible à des non-informaticiens. Avant de se lancer dans sa description, il est important de savoir que PageRank travaille sur des pages indexées par des mots-clés, comme les mots « Michael » et « Jackson », des pages qui sont donc susceptibles d’être proposées à des utilisateurs comme réponses à une requête « Michael Jackson ». À l’heure actuelle, Google indexe près de 1012  pages. Il en indexait 109 en 2000. On est encore loin du 10100 : le fameux nombre « googol » qui a inspiré son nom à la société.

    En gros, PageRank calcule périodiquement l’importance relative des pages indexées sous forme d’un score. Lorsqu’on soumet une requête à Google, il nous affiche celles qui ont le score le plus élevé (id est celles du chanteur) parmi celles qui correspondent à cette requête (par exemple parmi toutes les pages connues du moteur de recherche contenant les mots  « Michael » et « Jackson »).

    Pour calculer le score des pages, PageRank se base sur les liens entre ces pages. En effet, chaque page cite un certain nombre d’autres pages : elle a des liens vers ces pages. Quelqu’un qui se trouve pendant sa navigation sur une page p peut y trouver un lien vers une page q et y aller directement. C’est ce qui se passe quand, dans une page Wikipedia sur PageRank, on rencontre un lien vers la page de Larry Page.

    L’idée de PageRank est de représenter le score d’une page p par la probabilité qu’un utilisateur qui se baladerait « au hasard » dans une bibliothèque constituée de toutes les pages du Web se retrouve sur la page p.  Cette probabilité est d’autant plus grande que :

    1. Il y a de nombreuses pages q qui ont des liens vers p ;
    2. Ces pages q ont elles-mêmes un score important (on a une forte probabilité de tomber sur elles) ;
    3. Ces pages q ont peu de liens vers d’autres pages qui pourraient distraire notre attention.

    Une manière de synthétiser (1), (2) et (3) est de faire la somme des scores des pages q ayant un lien vers p en divisant chacun par le nombre de liens sortant de q. Ainsi, en première approximation, si l’on représente par liens (q) le nombre de liens sortant d’une page q :
    Score(p) = Somme(Score(q)/liens(q))
    – pour toutes les pages q ayant un lien vers p

    Intuitivement, c’est comme si chaque page avait un certain nombre de votes, représenté par son score, et qu’elle pouvait partager ses votes entre toutes les pages qu’elle référence. Considérons le petit dessin ci-dessous représentant quatre pages : q ayant un lien vers p et p’ et q’ ayant un lien vers p’. Supposons par ailleurs que les scores de q et q’ sont 1.  On aura : Score(p) = 0.5 et Score(p’) = 1.5.

    En fait, l’algorithme PageRank prend aussi en compte le fait qu’un utilisateur qui se balade dans la bibliothèque peut aller directement d’une page à une autre sans passer par des liens, un peu comme s’il se téléportait par-dessus les murs de la bibliothèque. Plus précisément, PageRank relativise le score ci-dessus en le multipliant par un facteur d’atténuation d entre 0 et 1, auquel il rajoute (1-d) pour avoir une probabilité. Le facteur d’atténuation est pris par exemple 0.85.  Ainsi :

    PageRank(p) = 0.15 + 0.85 * Somme(PageRank(q)/liens(q))
    – pour toutes les pages q ayant un lien vers p

    Comme on calcule le score d’une page en fonction de scores d’autres pages, il est légitime de se poser la question : comment ont été calculés les scores des pages initiales q et q’ ci-dessus ? PageRank prend la même valeur pour toutes les pages du Web. Ensuite il applique les équations ci-dessus pour toutes pages. Il s’arrête quand les valeurs ne changent plus.

    On vous a caché des tas de détails. On pourrait dire pour vous effrayer qu’on calcule le « point-fixe d’une équation matricielle avec une matrice avec des milliards de lignes et de colonnes ». Plus prosaïquement, imaginez qu’il faut calculer plusieurs fois la fonction ci-dessus pour les milliards de pages indexées. C’est un gros calcul ? Non ! C’est vraiment un très, très… très gros calcul. Et il faut des tas d’ordinateurs pour le réaliser. Et ce n’est qu’une des fonctions d’un moteur de recherche…

    Rachid Guerraoui, professeur à l’Ecole polytechnique fédérale de Lausanne

    (*) Pour en savoir plus en vidéo: http://wandida.com/en/archives/571

  • Les blagues sur l’informatique #11 : parallélisme et maternité

    Après une longue pause, voici le retour des blagues (et de leurs explications, bien sûr !).
    Une blague d’informaticiens que vous ne comprenez pas ? Un Tee-shirt de geek qui n’a aucun sens pour vous ? Binaire vous explique l’humour des informaticien(ne)s!

    Neufs femmes ne peuvent pas faire un bébé en un mois.

    Cette citation attribuée à Fred Brooks montre la limite du parallélisme : si neuf femmes en travaillant pendant un mois chacune peuvent produire, par exemple, neuf mois de travaux scientifiques, et bien pour faire un bébé … difficile de paralléliser !

    En informatique aussi, le parallélisme consiste à utiliser plusieurs ordinateurs à la fois pour effectuer une tâche. Ce domaine de recherche permet d’accélérer significativement de nombreux programmes en se servant par exemple des cœurs d’un même ordinateur ou d’une grille de calcul de 5000 processeurs répartis dans des ordinateurs connectés par Internet.

    Parmi les grandes réalisations, le projet scientifique national GRID 5000 a pour objectif de ne faire qu’une seule machine avec 5000 processeurs mis en réseau sur 10 sites en France.

    Machine GRID 5000
    Machine GRID 5000
    © Inria / Photo C. Lebedinsky

    Mais on sait aussi que tout ne se parallélise pas : certains algorithmes sont tels que les calculs dépendent obligatoirement des calculs précédents, donc il faut attendre ces derniers et paralléliser ne sert à rien. On peut  essayer de changer d’algorithme, quitte à calculer plus (pour aller plus vite), mais ce n’est pas toujours possible.

    Vous voulez en savoir plus ? L’article de votre boulangerie à un système d’exploitation multiprocesseur, et ce document sur la gestion de la mémoire qui devient le goulot d’étranglement, bien plus que la puissance des machines vous aideront à aller plus loin que cette blague d’informaticien.

    Sylvie Boldo.

  • Choisis ton camp camarade !

    Mozilla, c’est un petit coin de liberté dans l’océan commercial numérique. Mais il ne faut pas se tromper : de tels havres sont indispensables pour éviter que l’écosystème ne dérive. À l’occasion de l’anniversaire de Mozilla, Binaire donne la parole à Tristan Nitot.

    nitot-rayclid-binaire@rayclid

    Tristan nous explique pourquoi, avec les téléphones intelligents, nous sommes en train de revivre la guerre des Operating Systems et pourquoi il va falloir choisir son camp. Binaire a choisi, le camp de Tristan, celui de Mozilla…

    Joyeux anniversaire Mozilla !

    annivGâteau d’anniversaire Firefox

    Il y a quelques jours, Mozilla fêtait les 10 ans de son logiciel Firefox, et un ami me demandait si développer un navigateur Web était toujours un problème d’actualité. Après tout, expliquait-il, le futur de l’informatique se joue sur les smartphones et leurs applications, pas sur les PC ni sur le Web, une technologie qui vient de fêter ses 25 ans. La vraie question aujourd’hui, est de savoir s’il faut un iPhone de chez Apple ou un Android de chez Google, souvent fabriqué par la marque Samsung.

     tnTristan Nitot © Christophe Rabinovivi – photographe@rabinovici.fr

    C’est alors que j’ai réalisé à quel point l’histoire à tendance à se répéter, dans le domaine de l’informatique comme ailleurs… En effet, dans les années 1980, l’utilisateur  d’ordinateur personnel (le fameux PC) se posait la question d’acheter une machine Windows ou un Mac. De même, les informaticiens se demandaient s’il fallait écrire des logiciels pour Windows ou pour Mac, car bien entendu, ces deux systèmes étaient incompatibles entre eux.

    Dans les années 1990, avec l’arrivée des services en ligne comme AOL ou Compuserve, on se demandait aussi lequel il fallait choisir. Ils étaient bien entendu incompatibles entre eux.

    Et puis à la fin des années 1990, une invention étrange appelée « Web » a changé toute la donne : peu importait Mac ou Windows, car si on avait un navigateur Web, on avait accès au Web. Le Web était dès le début « multi-plateforme », c’est à dire qu’il était prévu pour fonctionner sur tous les types d’ordinateurs. C’est même un de ses principes fondateurs. Son inventeur, Tim Berners-Lee était chercheur au CERN à Genève, et a inventé le Web pour que ses confrères scientifiques puissent partager des documents en s’affranchissant des incompatibilités entre ordinateurs.

    Le Web eu un effet comparable pour les services en ligne : pourquoi se limiter à un service ou à un autre, puisque le Web était universel ? Du coup, les services en ligne se sont vites transformés en fournisseurs d’accès à Internet (et donc au Web).

    Aujourd’hui, on accède aux grands services comme Facebook ou Google via un navigateur Web. Peu importe votre fournisseur d’accès à Internet ou la marque de votre PC (Mac ou Windows) ou le nom de votre navigateur Web : les développeurs écrivent des applications Web qui tournent sur tous les ordinateurs équipés d’un navigateur Web ; autrement dit, tous les ordinateurs.

    Pourtant, en 2014, on voudrait nous faire croire que pour ces petits ordinateurs tactiles qui tiennent dans la poche et qu’on appelle « smartphones », le problème est différent : il va falloir choisir son camp.

    Ne nous laissons pas succomber aux sirènes du marketing. Le Web a évolué ces dernières années, et il est capable de faire tourner des applications mobiles, des « apps », tout aussi performantes que des applications dites natives, c’est à dire spécifiques à un genre de téléphone.

    On aimerait nous faire croire le contraire, car cela pousse les consommateurs à une fidélité forcée au fabricant de leur smartphone : une fois qu’on a acheté pour des dizaines ou des centaines d’euros d’applications, et qu’on y a stocké toutes ses données personnelles, le coût de changer de système devient très élevé. Ah! Voilà un problème qu’on n’avait pas anticipé en entrant dans la boutique de téléphonie mobile et en choisissant le smartphone sur des critères souvent esthétiques ou par recommandation de proches. On pensait se faire plaisir avec une décision anodine, et nous voilà coincé, marié presque, à une marque de smartphone !

    C’est là qu’il faut avoir en mémoire les leçons de l’histoire de l’informatique… Si on n’utilise que des applications Web, il est alors facile d’utiliser ces applications sur tous types de smartphones et même d’ordinateurs, et nos données suivront.

    Tout le monde a intérêt à ce que le Web devienne l’outil de référence sur smartphone comme il l’est sur PC. Tout le monde, sauf les 2 ou 3 grosses sociétés américaines qui fabriquent des smartphones, trop contentes de coincer — pardon, de fidéliser — malgré eux des centaines de millions de clients.

    Il existe déjà un système pour smartphone qui fonctionne sur les principes du Web, il s’agit de Firefox OS. Il est pour l’instant destiné aux smartphones d’entrée de gamme car il est encore jeune, mais il monte progressivement en gamme. Malgré sa jeunesse, il pourrait bien être l’avenir du smartphone, et ceux qui ont compris les leçons de l’histoire de l’informatique le comprendront avant les autres.

    Tristan Nitot, fondateur de Mozilla Europe,
    « Principal Mozilla Evangelist », membre du Cnnum, @nitot

    5566851825_975635bdf9_bTristan sur sa Royal Enfield Bullet 500 EFI Classic
    Auteur : Fab. krohorl.free.fr/

     

  • Interstices fait peau neuve !

    Vous ne connaissez pas )i(nterstices ? C’est une revue de culture scientifique en ligne, qui vient d’avoir 10 ans ! Vous trouverez des podcasts, des jeux, des idées reçues et des articles de tous niveaux sur les sciences du numérique. Bref, des ressources pour les scolaires et pour les autres, écrites par des chercheurs pour vous !

    Vous connaissez )i(nterstices ? Eh bien, il faut y retourner car le site d’interstices vient de changer ! Pour ses 10 ans, le nouveau site est plus moderne et fait la part belle aux témoignages des lecteurs. Et en plus, les super contenus sont toujours là !

    Logo Interstices

    Mes préférés ? L’abécédaire et les podcasts. Et puis les jeux et les animations, et puis la nouvelle rubrique L’informatique – ou presque – dans les films, et puis…

    Bref, interstices nouveau est arrivé. Binaire salue sa re-naissance en lui souhaitant autant de succès pour les 10 prochaines années !

    Sylvie Boldo

  • Pixees, le monde numérique à portée de clic

    Vous en avez marre qu’on vous rabâche les oreilles avec des notions d’informatique ou de numérique, que l’on vous dise « Ah oui, mais c’est hyper important pour le monde d’aujourd’hui », alors que vous ne comprenez même pas pourquoi ? Et bien voici un moyen efficace et intéressant de comprendre ces notions.

    pixees-4Pixees, un site Inria, de la SIF (Société Informatique de France) et de Pasc@line (Association des Professionnels du Numérique) avec plus d’une vingtaine de partenaires, dédié à la médiation scientifique…

    Pixees, une solution pour décoder le monde du numérique

    La médiation… ?! D’accord ! On part déjà trop loin ? Et bien disons simplement que ce site regroupe toute sorte de supports pour nous initier aux notions d’algorithmes, à la représentation de l’information, à l’histoire de l’informatique, etc. C’est à travers des conférences, des vidéos, des interviews, des documentaires, des jeux, et on en passe, que nous pouvons nous documenter, et même apprendre à apprendre aux autres.

    pixees-2En effet ce site a été réalisé pour toute personne du niveau le plus sobre au plus élevé. Que nous soyons parent, élève ou étudiant, professeur, ou bien simplement curieux, ce site est fait pour nous. Des méthodes sont là pour vous accompagner pas à pas, par exemple pour expliquer à l’enfant comment utiliser et s’approprier ces machines omniprésentes au quotidien dans notre société : ordinateur, tablette ou smartphone… et au-delà de l’usage,apprendre également à créer grâce à elles.

    Peur de ne pas être à la hauteur ? De ne pas comprendre les articles ? Pas d’inquiétude, ils sont indexés et de multiples définitions sont là pour nous secourir en cas de problème.

    Spécial profs : profitez de la culture numérique en live.

    Cela tombe à pic, au moment où l’enseignement des fondements du numérique entre au collège et en primaire (on parle parfois de « codage », mais au delà de l’apprentissage de la programmation, il y a la construction d’une culture scientifique indispensable à la maîtrise du numérique).

    pixees-3Selon le lieu où on se trouve en France, il y a la possibilité de faire venir dans son établissement une ou un chercheur. Pixees propose différents types d’interventions, telles que des animations et/ou des conférences, consultables sur le site et répertoriées géographiquement sur la carte de France de tous les partenaires du projet.

    Vous préférez un contact direct de visu ? Cela tombe bien, car notre bureau en ligne est ouvert à partir du 8 septembre les mercredis et jeudis de 14h00 à 17h00. Vous n’aurez ensuite plus qu’à lancer la connexion en cliquant sur l’image affichée. Nous contacter par mail, téléphone, Twitter ou en remplissant un formulaire numérique est aussi possible.

    Le partage et la co-construction avant tout

    Pixees n’est évidemment pas réservé qu’aux enseignants, animateurs d’activité extra-scolaire ou parents. Le bureau en ligne est destiné à tous les futurs et bienvenus inconditionnels du site qui souhaiteront participer à cette aventure.

    En plus, Pixees peut vous répondre en anglais, espagnol, italien, allemand et en d’autres langues, grâce à notre bureau en ligne international. Certaines ressources sont mêmes déjà traduites.

    Pixees ou le mouvement perpétuel

    pixees-1Ça y est, mordu de Pixees ? N’oubliez alors pas de suivre son actualité et ses évolutions de publications et d’interventions. N’hésitez surtout pas à faire part de vos idées et remarques, afin que ce site évolue selon vos besoins.

    Un dernier argument pour vous montrer que ce site est celui de toutes et tous ? L’une de nous est une jeune prof de langues, l’autre une étudiante en communication. Aider à construire et nourrir Pixees a été notre job d’été. On en a profité pour découvrir plein de choses bien utiles dans notre vie quotidienne, dans le monde numérique. Et aussi des choses «inutiles» mais passionnantes pour avoir une meilleure vision de cet univers-là.

    Alice Viéville et Juliette Calvi

  • Comment semer quelques graines de sciences

    Graines de sciences est une Université d’automne pour les professeurs des écoles, organisée par la fondation « La main à la pâte ». On y  propose aux enseignants une formation sur des sujets scientifiques avec des ateliers qui les font participer de manière active. Depuis deux ans, cette formation inclut des ateliers sur les sciences du numérique, que l’éducation nationale aura à intégrer rapidement dans la formation des professeurs des écoles. Deux collègues du monde de la recherche en informatique témoignent.

    Les enseignants ont partagé leur expérience et les liens qu’ils peuvent tisser, entre ces grains de science et les enseignements qu’ils donnent déjà. Ils ont montrés comment ils peuvent adapter les contenus scientifiques qu’on leur propose pour les transmettre dans leurs classes. Bref, ils ont déjà ouvert la porte aux sciences du numérique dans leurs classes, mais parfois sans vraiment le savoir ! Petit retour sur ces liens qui ne demandent qu’à voir le jour…
    On parle ici de trois ateliers. Un atelier de robotique, un atelier d’informatique avec entre autres des activités débranchées et un atelier Scratch. Pour ce dernier, allons lire les retours de plus en plus nombreux que l’on peut trouver sur jecode.org (hélas encore trop limité à quelques enfants, puisque cantonné au domaine extra-scolaire). Ce billet va témoigner des ateliers « robotique » et « informatique ».

    retour_GDS_2014_DR_html_35209714
    Les enseignants, inspirés, proposent des messages autour de nos contenus

    Chaque atelier dure environ trois heures et concerne un groupe de dix enseignants. Le rôle des acteurs du monde de la recherche ? Faire de notre mieux pour leur expliquer nos sciences et discuter avec eux de ce qu’ils peuvent en retirer pour leurs classes. La limite ? Nous ne sommes pas en mesure de leur expliquer comment enseigner et comment faire passer des messages scientifiques dans les classes. Ce sont les enseignants les experts à ce niveau. Et cette démarche participative fait de Graines de sciences un enchantement.

    Les ateliers commencent par un tour de table, histoire de voir les attentes ou les appréhensions sur nos sciences et ce qui va se dérouler pendant l’atelier. Dans la majorité des cas, avec un peu d’inquiétude, la réponse est « Je suis curieux de voir comment on pourra expliquer le numérique aux élèves avec le contenu de cet atelier ». Mais vous verrez, une fois les ateliers faits : ils adorent et en redemandent. Le plus dur est donc de les amener à faire le premier pas.

    Pourtant ils ont conscience de l’ampleur que prend le numérique dans la vie des élèves et de la façon dont les enseignants peuvent les accompagner, pour que chacune et chacun ait les mêmes chances. Eh oui, ils en témoignent « Je les vois se servir de plus en plus de téléphones, ordis, tablettes, etc. mais ils sont utilisateurs et consommateurs… peut-on les aider à être acteurs et producteurs ? ». Gageons que, sans aller jusqu’à en faire des « acteurs ou producteurs », on pourra aider les enseignants à faire que les élèves deviennent des utilisateurs éclairés. Ce sera déjà pas mal. Enfin, une attente plus rare concerne la vie privée face à cette manipulation quotidienne et presque continue, sans réserve et sans précaution, d’outils qui les exposent publiquement.

    Dans ces ateliers, nous avons souvent demandé aux enseignants de jouer le rôle des élèves, histoire de reprendre des activités que nous connaissons et les appliquer directement avec eux. C’est une façon aussi de leur demander leur avis sur la façon de faire passer tel ou tel message. Nos contenus ont de nombreuses sources comme dessine moi un robot ou inirobot, la mallette « Sciences manuelles du numérique » initiée par Martin Quinson, l’ouvrage « Computer Science Unplugged » traduit en Français grâce à interstices, ou encore le site pixees qui contient une foule de ressources pour expliquer les sciences du numérique.

    Ah oui ! Nous vous avons promis de montrer des liens entre ces contenus et ce que les enseignants font déjà dans les classes. Alors allons-y !

    Les Thymio sauront-ils s’orienter dans ce labyrinthe ?

    Prenons l’exemple de la robotique avec le jeu du robot idiot. Ce petit exercice est très amusant et carrément facile à mettre en place avec un groupe d’enfants (de tous âges 🙂 ). Il s’agit de donner des instructions à un robot joué par l’animateur ou un autre enfant, et ce dernier va bien sûr oublier toute forme d’intelligence ou d’intuition pour appliquer scrupuleusement la liste d’instructions. Cette liste doit permettre d’atteindre un objectif (par exemple « sortir de la pièce ») et sera réduite à 3 instructions possibles comme « avance de X pas », « tourne d’un quart de tour à droite » et « tourne d’un quart de tour à gauche ». Cette activité, permet aussi de détendre un peu l’ambiance vu les « gamelles » que se prend le robot-animateur. Et cela montre combien on doit être précis dans ses instructions parce qu’il ne faut pas compter sur la machine pour être intelligente à la place de celui qui la programme. Nous voilà entrain de montrer le lien avec les sciences du numérique et là… Paf ! Une participante nous dit « Mais attends… moi je fais déjà un truc similaire avec ‘la carte au trésor’ ! ». Elle nous explique donc qu’il s’agit de découper un espace selon une grille, de fixer un point de départ et un objectif (le trésor) sur la grille et de trouver la séquence d’instructions qui permet d’atteindre le trésor. Tiens… un premier lien vient tranquillement de se tisser… et très facilement avec ça. A partir de là, cette enseignante sait qu’elle pourra parler d’algorithme au sens d’un enchaînement d’instructions qui permet d’atteindre un objectif. Mais elle peut aller encore plus loin sans difficulté. Par exemple, il lui est possible de modifier volontairement une instruction dans la liste… Ses élèves verront alors le résultat totalement faux sur le déplacement, et elle pourra expliquer qu’il y a un bug, avec plus ou moins de détails et d’explications, selon le niveau de la classe, et l’objectif pédagogique du moment.

    Le réglage des couleurs du Thymio

    Puisqu’on parle de robots, profitons-en pour voir quelques liens, avec la programmation de Thymio II qui faisait partie de l’atelier « robotique ». En voyant les possibilités de réglages du Thymio, comme par exemple la couleur de ses Leds, certains participants ont immédiatement réagi avec bonheur en disant que c’était un support idéal pour illustrer la palette et le mélange des couleurs. Et cette réaction se retrouve également quand il s’agit de faire jouer quelques notes à notre petit robot ludo-éducatif.

    Magic Makers et les machines de Rube Goldberg

    Puisque ces Thymio sont équipés de capteurs, les participants ont vu un lien très prometteur avec une activité qui se pratique souvent en classe. Ils ont suggéré que ces robots seraient de parfaits maillons dans la chaîne d’une machine de Rube Goldberg. Ces machines délirantes mettent en pratique la notion de réaction en chaîne et permettent d’étudier les transformations et transmissions de mouvements sur des séquences plus ou moins longues. D’après nos participants, il serait donc très intéressant d’ajouter un Thymio dans la séquence, avec une programmation adéquate de ses capteurs pour qu’il joue son rôle et permette à la séquence de continuer. D’ailleurs, cette idée des machines de Rube Goldberg est déjà employée par Magic Makers dans ses ateliers en famille grâce à des robots Légo équipés de capteurs.

    À leur grande surprise, les enseignants ont également vu des liens assez frappants entre ce qu’ils font déjà en classe et les contenus de l’atelier « informatique ». Il faut dire que le titre de l’atelier était « Informatique, algorithmique et cryptographie ». De quoi mettre la trouille à tout le monde ! En fin de compte, c’est plutôt une bonne chose. À leur entrée dans l’atelier, dans les yeux de certains participants, on pouvait voir la définition du mot « dubitatif ». Mais doucement, au bout de quelques minutes, quand l’algorithmique s’est faite avec 16 jetons, la correction d’erreur avec des cartes et un tour de magie, ou bien la cryptographie avec des boites en carton et des petits cadenas… l’’appropriation à des fins pédagogiques est devenue une évidence.

    Atelier titré ‘Informatique, algorithmique et cryptographie’ plus de peur que de mal en fin de compte..

    Cet atelier s’est tenu sous la forme d’une histoire… l’histoire de quelques uns des personnages qui ont contribué à nos sciences du numérique. Et cette histoire était régulièrement ponctuée d’activités débranchées, permettant de garder un rythme animé et de faire participer les enseignants de manière active. Voilà déjà un premier lien avec ce qui est enseigné par les participants puisqu’il s’agit d’un angle différent sur la façon d’aborder les cours d’histoire. Beaucoup sont repartis avec la ferme intention d’en savoir plus sur la vie de tel ou tel personnage. D’ailleurs, il nous semble que c’est Ada Lovelace qui a eu le plus de succès dans ce domaine.

    Les sciences du numérique : du raisonnement avant tout !

    Le jeu de Nim était la première activité de cet atelier. Très rapidement les participants ont pu faire le lien qui nous paraît le plus important avec leurs enseignements : « les sciences du numérique c’est du raisonnement ». Du raisonnement dans la mesure où il s’agit, par exemple, d’établir une stratégie gagnante pour un jeu (et on peut transposer facilement « stratégie gagnante pour un jeu » en « algorithme »). Mais aussi parce qu’il s’agit de bien étudier les conditions d’un problème avant de lui proposer une solution (« est-ce que je peux gagner si je commence ? » ou bien « est-ce que je peux gagner si le nombre de jetons au départ n’est pas un multiple de 4 ? »). Cet apprentissage et l’angle apporté par les sciences du numérique est donc capital non seulement en tant que matière, mais devrait aussi trouver son reflet dans la mise au point du programme et dans tous les domaines enseignés à l’école.

    Le nombre cible : de l’algorithmique sans le savoir.

    Après le jeu de Nim, et pour approfondir un peu la question des algorithmes, nous avons joué à trouver nos prénoms dans une liste. Une longue liste, contenant 105 prénoms, est affichée à l’écran pendant 3 secondes. Elle n’est pas triée. Après 3 secondes d’affichage, presque aucun participant ne sait dire si son prénom est dans la liste ou pas… Puis la même liste est affichée, mais triée cette fois, toujours pendant 3 secondes. Et là, par contre, presque tous les participants sont capables de dire si leur prénom est dans la liste ou pas. Ce petit jeu permet d’introduire l’algorithme de la dichotomie. On leur affiche ensuite une liste réduite dans laquelle on cherche un prénom pour illustrer le fait qu’à la première itération on enlève la moitié des données, ce qui simplifie le problème, puis on enlève encore la moitié de la moitié à la deuxième itération, puis… ainsi de suite. Et là… re-Paf ! Un participant nous dit « Mais attends, je viens de comprendre comment je devrais parler du nombre cible et de la file numérique avec mes élèves ! ». Euh… le nombre quoi, tu dis ? ? Nous demandons alors quelques détails et il nous explique le principe de ce jeu qui consiste à trouver un nombre entre 1 et 100, inscrit derrière le tableau. Bien sûr, sans stratégie, ça prend des heures. Alors on change le problème et il faut maintenant choisir un nombre X et poser la question « plus grand ou plus petit que X ? », ce qui renseigne le joueur et l’oriente dans sa recherche du nombre cible. Et là ça marche mieux mais c’est encore hésitant. On explique aux élèves qu’en prenant X au milieu de ce qui reste à explorer à chaque fois, alors c’est plus efficace. Ce participant nous dit enfin « Donc tu vois, je faisais déjà de la dichotomie sans le savoir ! ». En vérité, il faisait déjà de l’algorithmique sans le savoir. Et il est désormais mieux équipé pour expliquer pourquoi le fait de prendre le nombre « du milieu » c’est imbattable. Il n’aura pas forcément besoin de parler de complexité algorithmique, mais le terrain sera préparé pour les sciences du numérique.

    Photo @Marik. Le drap : « Après l’atelier il faut passer à la pratique ! »

    Certains participants sont même allés bien plus loin que trouver des liens avec ce qu’ils enseignent déjà. En particulier, une participante venait pour la deuxième fois et avait déjà ajouté des sciences du numérique dans sa classe après son premier Graines de science. Quel réconfort de l’écouter nous raconter comment elle a utilisé Computer Science Unplugged ou bien des activités débranchées auprès de ses élèves. Mais surtout, quel bonheur de discuter des activités présentées cette année et des modifications qu’on peut leur apporter. Par exemple, concernant le réseau de tri de Computer Science Unplugged, elle envisage de modifier le tracé de façon à le faire bugger volontairement et laisser ses élèves le réparer. Mais elle veut aller encore plus loin en utilisant cette activité au service de son enseignement existant. Comment ? Eh bien par exemple en leur demandant de trier des fractions (eh oui, comparer les fractions c’est en plein dans le programme). Et voici le drap qui va lui servir de support avec le réseau dessiné dessus. Tout est déjà prêt, et ses idées aussi !

    Voilà pourquoi et comment ces Graines de sciences sont un enchantement…

    Florent Masseglia et Didier Roy.

  • Concours Castor informatique 2014

    C’est le début du Castor Informatique ! Concours castorAfin de faire découvrir aux jeunes l’informatique et les sciences du numérique, et après le grand succès de la troisième édition 2013 (plus de 170 000 élèves dont 48% de filles et près de 1200 collèges ou lycées français ont participé), une nouvelle édition commence aujourd’hui : les épreuves 2014 se déroulent du 12 au 19 novembre 2014.

    « Le concours comporte quatre niveaux (6e-5e / 4e-3e / 2nd / 1ère-Term). Il couvre divers aspects de l’informatique : information et représentation, pensée algorithmique, utilisation des applications, structures de données, jeux de logique, informatique et société. Ce concours international est déjà organisé dans 21 pays qui partagent une banque commune d’exercices. Environ 734 000 élèves ont participé à l’épreuve 2013 dans le monde.

    Les points à retenir :

    • Entièrement gratuit,
    • Organisé en salle informatique sous la supervision d’un enseignant,
    • 45 minutes pour 15 à 18 questions,
    • Quatre niveaux : 6e-5e / 4e-3e / 2nd / 1ère-Term,
    • Du 12 au 19 novembre 2014, l’enseignant choisit le moment de la semaine qui lui convient,
    • Participation individuelle ou par binôme,
    • Aucune connaissance préalable en informatique n’est requise.

    Nouveauté 2014 : La version 2014 sera entièrement composée de sujets interactifs, pour lesquels il faut trouver une stratégie de résolution, et le score sera affiché en temps réel. Il n’y aura donc plus aucune question à choix multiple.

    Si vous n’avez plus l’âge, vous pouvez vous amuser à tester les exercices des années précédentes depuis 2010 ! Comme nous l’a expliqué Susan McGregor récemment sur Binaire : Explorez la pensée informatique. Vous pouvez le faire !

    Sylvie Boldo

  • Le grand plan numérique. Une bonne nouvelle ou pas ?

    Communiqué de la SIF du 7 novembre 2014

    Le grand plan numérique annoncé par le Président de la République semble bien être, sous réserve d’en connaître les détails, le plan que nous attendions, enfin à la hauteur des enjeux. Dans son allocution du 6 novembre, le Président de la République souligne en particulier qu’en « informatique, […] sans qu’il y ait besoin d’ordinateur, on peut apprendre », il parle bien ici de « contenu » et de science et non d’usage. Quand nos collègues britanniques, allemands, belges, néerlandais, polonais, israéliens, américains… enseignent déjà l’informatique à tous les niveaux depuis de nombreuses années, la France semblait encore se poser des questions d’un autre siècle, qui nous condamnaient à devenir de simple consommateurs de sciences et de techniques inventées ailleurs. Ce plan est susceptible de tout changer !

    L’Académie des sciences, la Société informatique de France, le Conseil national du numérique, le Conseil supérieur des programmes, et beaucoup d’autres acteurs du secteur proposent d’enseigner l’informatique à l’École primaire, au Collège et dans toutes les séries du Lycée, chaque niveau ayant, bien entendu, ses objectifs et sa pédagogie propres. Un tel plan pourrait véritablement former les futures générations d’élèves au monde qui les attend, au monde qu’ils vont pouvoir contribuer à construire. Cela dit la route est longue et il faut mobiliser toutes les énergies autour du ministère de l’Éducation nationale pour ce plan ambitieux dont deux points importants doivent dès maintenant être pris en compte :

    1. Enseigner l’informatique demande, comme pour toute matière, du savoir et de la prise de recul sur ce que l’on enseigne afin de faire émerger les concepts unificateurs et non les détails d’un algorithme, d’un langage ou d’une machine. Si dans une phase de transition il faut s’appuyer, pour des questions de moyens et d’efficacité, sur des professeurs d’autres disciplines déjà en poste, il est nécessaire, comme dans d’autres pays, de recruter très vite des enseignants en informatique.

    2. Si l’informatique est une science et une technique comme une autre, son enseignement doit être fortement basé sur la notion de projets collaboratifs, en collaboration avec les autres disciplines. Cela nous semble essentiel pour que les élèves s’engagent avec enthousiasme dans cette nouvelle discipline et ne la voient pas simplement comme un alourdissement des programmes. La mise en pratique d’un plan ambitieux passe par un effort considérable de formation des professeurs des écoles, et par la présence dans les collèges et les lycées de professeurs d’informatique avec un niveau bac plus quatre ou cinq (comme c’est le cas dans les autres disciplines) et une formation à la pédagogie de l’enseignement de l’informatique. Cela s’imposera vite comme une évidence.

    Car il constitue une chance considérable pour notre pays, le plan numérique est une excellente nouvelle.

    Pour les Conseils d’administration et scientifique de la SIF

    Colin de la Higuera, Président de la SIF

  • Journaliste et informaticienne

    Un nouvel « entretien de la SIF ». Claire Mathieu et Serge Abiteboul interviewent Susan McGregor qui est professeur à l’Université de Columbia et directeur adjoint du Centre Tow pour le journalisme numérique. En plus d’être une journaliste, Susan est aussi informaticienne. Donc, c’est vraiment la personne à interroger sur l’impact de l’informatique sur le journalisme.

    Cet entretien parait simultanément sur Binaire et sur 01net. Traduction Serge Abiteboul. Version originale.

    smgProfesseur McGregor © Susan McGregor

    B : Susan, qui êtes-vous?
    S : Je suis professeur à l’Ecole d’études supérieures de journalisme de Columbia et directeur adjoint du Centre Tow pour le journalisme numérique. Je me suis intéressée depuis longtemps à l’écriture d’essais et je me suis impliquée dans le journalisme à l’université, mais ma formation universitaire est en informatique, sur la visualisation de l’information, et les technologies de l’éducation. Avant de rejoindre Colombia, j’ai été Programmeur senior de l’équipe News Graphics au Wall Street Journal pendant quatre ans, et encore avant ça, dans une start-up spécialisée dans la photographie d’événements en temps réel. Bien que j’aie toujours travaillé comme programmeur, ça a toujours été comme programmeur dans des équipes de design. Les équipes de design peuvent être un défi si vous venez de l’informatique, car il existe une tension entre programmation et conception. Les priorités de la programmation vont vers des composants modulaires, réutilisables et des solutions générales, alors que les conceptions doivent toujours être le plus spécifiques possibles pour une situation donnée. Mon intérêt pour la visualisation et pour la facilité d’utilisation a commencé au cours d’une année de césure entre l’école secondaire et l’université, dont j’ai passé une partie à travailler sur des tâches administratives dans une grande entreprise. J’ai pu observer comment mes collègues (qui ne connaissaient rien à la technique) étaient extrêmement frustrés avec leurs ordinateurs. Grâce à un cours d’informatique suivi au lycée, je pouvais voir les endroits où la conception du logiciel reflétait juste la technologie sous-jacente. Des choix d’interface – qui étaient essentiellement des choix de communication – étaient guidés par la technologie alors qu’ils auraient dû l’être par les besoins de l’utilisateur ou dans l’intérêt des tâches réalisées.

    La littératie informatique est essentielle pour les journalistes …

    B : Selon vous, qu’est-ce qu’un journaliste devrait savoir en informatique aujourd’hui ?
    S : La culture informatique est essentielle pour les journalistes ; l’informatique est devenue tellement importante pour le journalisme pour des tas de raisons, que nous avons commencé à proposer un double diplôme en informatique et journalisme à Columbia.

    Tout d’abord, les journalistes ont besoin de comprendre la vie privée et la sécurité numérique, parce qu’ils ont l’obligation de protéger leurs sources. Il leur faut comprendre comment les métadonnées des courriels et des communications téléphoniques peuvent être utilisées pour identifier ces sources. Ensuite – et c’est sans doute l’aspect le plus connu – nous allons trouver la place dans les rédactions pour des personnes avec des compétences techniques pour construire les outils, les plates-formes et les visualisations qui sont essentiels dans le monde de l’édition numérique en pleine évolution. Et puis, des concepts de l’informatique comme les algorithmes et l’apprentissage automatique se retrouvent maintenant dans presque tous les produits, les services, les industries, et influencent de nombreux secteurs des intérêts du public. Par exemple, les offres de cartes de crédit et de prêts hypothécaires sont accordées selon des algorithmes ; la compréhension de leurs biais potentiels est donc critique pour être capable d’évaluer leurs impacts sur ​​les droits civils. Afin de rendre compte avec précision et efficacité de la technologie en général, plus de journalistes ont besoin de comprendre comment ces systèmes fonctionnent et ce qu’ils peuvent faire. À l’heure actuelle, la technologie est souvent couverte plus du point de vue des consommateurs que d’un point de vue scientifique.

    Depuis que j’ai rejoint Columbia, j’ai pris de plus en plus conscience des tensions entre les scientifiques et les journalistes. Les scientifiques veulent que leurs travaux soient racontés mais ils sont rarement satisfaits du résultat. Les journalistes ont besoin de plus en plus de faire comprendre la science, mais de leur côté, les scientifiques devraient également faire plus d’efforts pour communiquer avec les non-spécialistes. Les articles scientifiques sont écrits pour un public scientifique ; fournir des textes complémentaires orientés vers une véritable transmission des savoirs pourrait améliorer à la fois la qualité et la portée du journalisme scientifique.

    B : Comment voyez-vous l’avenir du journalisme en tenant compte de l’évolution de la place de l’informatique dans la société?
    S : Le journalisme est de plus en plus collaboratif, avec les citoyens journalistes, le crowd sourcing de l’information, et plus d’interactions en direct avec le public. On a pu observer un grand changement ces quinze dernières années ! Ça   va continuer, même si je pense que nous allons aussi  assister à un retour vers des formes plus classiques, avec des travaux journalistiques plus approfondis. Internet a généré  beaucoup plus de contenu que ce dont nous disposions avant, mais pas nécessairement plus de journalisme original. Même si vous pensez qu’il n’est pas nécessaire d’avoir de talent particulier ou de formation pour être un journaliste, vous ne pouvez pas empêcher que la réalisation d’un reportage original demande du temps. Trouver des sources prend du temps ; mener des interviews prend du temps. Et si des ordinateurs peuvent réaliser des calculs incroyables, le genre de réflexions nécessaires pour trouver et raconter des histoires qui en valent la peine est encore quelque chose que les gens font mieux que les ordinateurs.

    smg2Clip de journal, ©FBI

    B : En tant que journaliste, que pensez-vous du traitement du langage naturel pour l’extraction de connaissances à partir de texte?
    S : De ce que je comprends de ces sujets particuliers, la perspective la plus prometteuse pour les journalistes est le collationnement et la découverte de connaissances. Il y a encore quelques années seulement, les agences de presse avaient souvent des documentalistes, et vous commenciez une nouvelle histoire ou une nouvelle investigation en examinant un classeur de « clips ». Tout cela a disparu parce que la plupart des archives sont devenues numériques, et parce qu’il n’y a généralement plus de département dédié à l’indexation des articles. Mais si le TNL (traitement naturel de la langue) et la résolution d’entités pouvaient nous aider à relier de façon significative la couverture d’un sujet à travers le temps et ses aspects, ils pourraient remplacer très différemment le classeur. Beaucoup d’organes de presse disposent de dizaines d’années d’archives mais ne disposent pas de moyens réellement efficaces pour exploiter tout ça, pour avoir vraiment  accès à toute cette connaissance.

    Le volume de contenus augmente, mais le volume d’informations originales pas nécessairement.

    B : Vous utilisez souvent (dans la version anglaise) le terme « reporting » ?  Que signifie ce mot pour vous ?
    S : L’équivalent scientifique de « reporting » c’est la conduite d’une expérience ou d’observations ; il s’agit de générer de nouveaux résultats, de nouvelles observations. L’idée de « reporting » implique l’observation directe, les interviews, la collecte de données, la production de médias et l’analyse. Aujourd’hui, on trouve souvent des variantes du même élément d’information à plein d’endroits, mais ils ont tous la même origine ; le volume de contenus augmente, mais le volume d’informations originales pas nécessairement. Par exemple, quand j’ai couvert l’élection présidentielle en 2008, j’ai appris que pratiquement tous les organes de presse obtenaient leurs données électorales de l’Associated Press. Beaucoup de ces organes de presse produisent leurs propres cartes et graphiques le jour du scrutin, mais ils travaillent tous à partir des mêmes données au même moment. Il peut vous sembler que vous avez de la diversité, mais la matière brute est la même pour tous. Aujourd’hui, vous avez souvent plusieurs organes de presse couvrant un sujet quand, de façon réaliste, un ou deux suffiraient. Dans ces cas, je pense que les autres devraient concentrer leurs efforts sur des thèmes sous-représentés. Voilà ce dont nous avons vraiment besoin : des reportages plus originaux et moins de répétitions.

    B : Vous pourriez probablement dire aussi ça pour la science. Dès que quelqu’un a une idée intéressante, tout le monde se précipite et la répète. Maintenant, en tant que journaliste, que pensez-vous de l’analyse du « big data » (des data masses) ?
    S : « Big Data » est un terme assez mal défini, englobant tout, depuis des statistiques à l’apprentissage automatique, suivant la personne que vous interrogez. Les données utilisées en journalisme de données sont presque toujours de taille relativement petites. Le journalisme de données (« data journalism »), cependant, occupe une place de plus en plus importante dans notre domaine. Aux États-Unis, nous avons maintenant des entreprises fondées exclusivement sur le journalisme de données. La popularité de ce genre de journalisme provient en partie, je pense, du fait que l’idéal américain de journalisme est « l’objectivité » ; nous avons une notion profondément ancrée dans notre culture avec ses origines dans la science, que les chiffres et les données sont objectifs, qu’ils incarnent une vérité impartiale et apolitique. Mais d’où viennent  les données ? Les données sont la réponse aux questions d’une interview. Eh bien, quelles étaient les motivations de la personne qui a choisi ces questions ? Il faut être critique vis à vis de tout cela. Le scepticisme est une composante nécessaire du journalisme, une notion essentielle de cette  profession. À un certain niveau, vous ne devez jamais croire complètement quelque source que ce soit et un tel scepticisme doit s’étendre aux données. La corroboration des données et leur contexte sont des points essentiels.

    Pour moi, c’est également un point clé des données et de l’analyse des données dans le cadre du journalisme : l’analyse de données seulement n’est pas du journalisme. Vous devez d’abord comprendre, puis présenter la signification des données d’une manière qui est pertinente et significative pour votre auditoire. Prenez les prix des denrées alimentaires, par exemple. Nous avons des données de qualité sur ce sujet. Et si j’écris un article disant que les pommes Gala se vendaient 43 dollars le baril hier ? C’est un fait – et en ce sens il « est vrai ». Mais à moins que je n’inclue aussi le coût du baril la semaine dernière, le mois dernier ou l’année dernière, cette information n’a aucun sens. Est-ce que 43 dollars le baril c’est beaucoup ou c’est peu? Et si je n’inclus pas les perspectives d’un expert qui explique pourquoi les pommes Gala se sont vendues pour 43 dollars le baril hier, on ne peut rien faire de cette information. Pour bien faire, le journalisme doit fournir des informations avec lesquelles les gens puissent prendre de meilleures décisions pour ce qui est de leur vie. Sans de telles explications, c’est des statistiques, pas du journalisme.

    La communication, l’éducation et la technologie informatique

    smg3Découverte de cranes d’homo sapiens à Herto, Ethiopie, ©Bradshaw Foundation

    B : Parfois nous sommes frustrés que les journalistes parlent si peu des progrès essentiels en informatique et beaucoup, en comparaison, de ​​la découverte de quelques os en Afrique, par exemple.
    S : Les êtres humains sont des créatures visuelles. Des os en Afrique, vous pouvez prendre des photos. Mais les découvertes de la recherche en informatique sont rarement visuelles. La vision est parmi tous les sens humains, celui qui a la bande passante la plus élevée.  Nous savons que les lecteurs sont attirés par les images à l’intérieur d’un texte. J’ai cette hypothèse « jouet » que des visualisations peuvent être utilisées, essentiellement, pour transformer des concepts en mémoire épisodique – par exemple, des images iconiques, ou de la propagande politique et des caricatures peuvent être utilisées. Et parce que les visuels peuvent être absorbés en un clin d’œil et mémorisés (relativement) facilement, des idées accompagnées de visuels associés sont bien plus facilement disséminées. C’est une des raisons pour lesquelles j’utilise des visuels dans mon travail sur la sécurité numérique et ce depuis toujours.

    smg41smg42http vs. https, visualisés. © Matteo Farinella & Susan McGregor

    B : En parlant de théorie de l’éducation, que pensez-vous des Flots (*)?
    S : Je doute que les Flots persistent dans leur forme actuelle, parce qu’en ce moment on se contente essentiellement de répliquer sur le Web le modèle de l’université classique. Je pense par contre que les techniques et les technologies que l’on développe en ce moment vont influencer les méthodes d’enseignement, et qu’il y aura une augmentation de l’apprentissage informel auto-organisé. Les vidéos en ligne ont et continueront à transformer l’éducation. Des exercices interactifs avec des évaluations intégrées continueront à être importants. Les salles de classe seront moins le lieu où on donne des cours et plus des endroits où on pose des questions. Bien sûr, tout cela dépend de l’accès universel à des connexions Internet de bonne qualité, ce qui n’est pas encore une réalité, même pour de nombreuses parties des États-Unis.

    La littératie informatique est essentielle pour tous.

    B : Que pensez-vous de l’enseignement de l’informatique à l’école primaire ?
    S : La pensée informatique est une littératie indispensable pour le 21e siècle. Je ne sais pas si cette idée est très nouvelle : L’approche des «  objets à penser » de Seymour Papert avec la pédagogie constructiviste et le développement du langage de programmation Logo date de près de cinquante ans. J’ai commencé à jouer avec Logo à l’école primaire, quand j’avais huit ans. L’idée de considérer la pensée informatique comme une littératie nécessaire est incontestable pour moi. Je peux même imaginer la programmation élémentaire utilisée comme une méthode pour enseigner les maths. Parce que j’enseigne à des journalistes adultes, je fais l’inverse : j’utilise le récit pour enseigner la programmation.

    Par exemple, quand j’enseigne à mes étudiants Javascript, je l’enseigne comme une « langue », pas comme de l’ « informatique. » Voilà, je montre un parallèle entre l’écriture d’une langue naturelle et l’écriture d’un programme. Par exemple, en journalisme, nous avons cette convention sur l’introduction d’un nouveau personnage. Quand on parle de quelqu’un pour la première fois dans un article, on l’introduit, comme : « M. Smith, un plombier de l’Indiana, de 34 ans. » Eh bien, c’est ce qu’on appelle une déclaration de variable en programmation ! Sinon, si plus tard, vous parlez de Smith sans l’avoir introduit, les gens ne savent pas de qui vous parlez. La façon dont les ordinateurs « lisent » des programmes, en particulier des programmes très simples, est très semblable à la façon dont les humains lisent du texte. Vous pouvez étendre l’analogie : l’idée d’un lien hypertexte tient de la bibliothèque externe, et ainsi de suite. La grammaire de base de la plupart des langages de programmation est vraiment très simple comparée à la grammaire d’une langue naturelle : vous avez des conditionnelles, des boucles, des fonctions – c’est à peu près tout.

    smg6Exemple de diapositives d’une présentation Enseigner JavaScript comme une langue naturelle à BrooklynJS, Février 2014.

    B : Une dernière question: que pensez-vous du blog Binaire? Avez-vous des conseils à nous donner ?
    S : Le temps de chargement des pages est trop long. Pour la plupart des organes de presse, une part croissante des visiteurs vient du mobile. Le système doit savoir qu’un lecteur a une faible bande passante et s’y adapter.

    B : Et est-ce qu’il y a autre chose que vous aimeriez ajouter?
    S : En ce qui concerne la programmation et la technologie informatiques, et le public qui n’y connaît rien, je voudrais dire : vous pouvez le faire ! Douglas Rushkoff a fait un grand parallèle entre la programmation et la conduite d’une voiture : il faut probablement le même niveau d’effort pour atteindre une compétence de base dans les deux cas. Mais alors que nous voyons des gens – toute sorte de gens – conduire, tout le temps, l’informatique et la programmation sont par contre invisibles, et les personnes qui jouissent du plus de visibilité dans ces domaines ont tendance à se ressembler. Pourtant, on peut dire que programmer et conduire sont aussi essentiels l’un que l’autre dans le monde d’aujourd’hui. Si vous voulez être en mesure de choisir votre destination, vous devez apprendre à conduire une voiture. Eh bien, de nos jours, si vous voulez être en mesure de vous diriger dans le monde, vous devez apprendre la pensée informatique.

    Explorez la pensée informatique. Vous pouvez le faire !

    Susan McGregor, Université de Columbia

    (*) En anglais, Mooc, cours en ligne massifs. En français, Flot, formation en ligne ouverte.

     

  • Reduction de mémoire et d’énergie par les règles de l’harmonie musicale

    En cette période de crise où chacun se demande s’il doit vraiment remplacer son iPod et autre gadget par une version encore plus performante, nous recommandons à nos lecteurs d’avoir encore un peu de patience. Un reporteur de Binaire a eu vent du dernier  projet d’un de nos plus grands inventeurs, Albert Robida. A suivre…

    phono-operagraphe
    Un grimpeur, en récompense pour avoir réussi l’ascension du Cervin, s’offre l’écoute de Sarastro dans “La flute enchantée
    (phono-opéragraphe d’Albert Robida version bêta 1.2.)

    Un nouvel appareil révolutionnaire est sur le point d’être introduit sur le marché : le phono-opéragraphe récemment breveté (FR5775A1) par Albert Robida, chercheur visionnaire à l’université de technologie de Compiègne et auto-entrepreneur. Il est si léger que même les montagnards qui pèsent leur sac au gramme près se laisseront tenter.

    Le phono-opéragraphe est spécialisé dans la musique d’opéra et, grâce à l’usage des structures de données auto-ajustables de Sleator et Tarjan, s’adapte dynamiquement à l’enregistrement choisi par l’utilisateur. Sa méthodologie technologique permet de re-générer son et musique par une approche calculatoire utilisant les règles de l’harmonie musicale afin de reconstituer le son à partir d’un contenu mémoire minime, quasiment au niveau plancher prédit par la théorie de l’information de Shannon.  L’énergie dépensée par le processeur est minimisée grâce à une exploitation rigoureuse des bruits ambiants, avec un algorithme qui “mine” les sons alentour pour extraire et amplifier les composantes musicales du milieu naturel où elles sont habituellement inaudibles, ce qui permet de les  réutiliser en les incorporant à l’enregistrement, économisant ainsi sur la quantité de son que l’appareil doit créer ex nihilho.

    C’est dans le registre de soprano colorature que l’enregistrement audio est le plus compact, et donc le plus léger, comme il est logique. Mais même les sopranos lyriques restent très raisonnables en montagne. Ainsi, Carmen, la Traviata, et morceaux similaires le rendent d’un poids nettement inférieur à 50g : il bat largement tous ses concurrents. Les performances sont un peu moins impressionnantes avec les altos et ténors, et il faut faire attention à ne pas prendre trop de morceaux avec basse, ni surtout de basse profonde ; cela réduit l’intérêt en pratique. Heureusement, on annonce déjà que la prochaine génération, inspirée par le point de vue d’Alan Perlis (et son célèbre principe “La constante d’une personne est la variable d’une autre”), aura un poids variable en fonction du morceau qu’on est en train d’écouter, avec mises au point de l’algorithme en fonction des préférences musicales du grimpeur (à condition toutefois qu’il soit mélomane.)

    Albert Robida conjecture que la place mémoire nécessaire pour mémoriser un morceau de musique est une fonction monotone décroissante de sa beauté selon le canon classique.

    Le prix de lancement est prévu autour de 45,99 euros.

    Claire Mathieu, ENS, Paris

  • Françoise en Inde

    Le sujet de la formation à l’informatique a été beaucoup débattu en France récemment. Mais en dehors de l’hexagone ? On se pose les mêmes questions ? D’autres pays auraient-ils eut l’audace de prendre de l’avance sur nous ? Binaire a proposé à Françoise Tort, chercheuse à l’ENS Cachan et co-responsable en France du concours CASTOR informatique, d’interroger des collègues à l’étranger. Leurs réponses apportent beaucoup à nos débats parfois trop franchouillards.
    FT_Inde
    Tour d’horizon de l’enseignement de l’informatique… Après la Bavière, Israël, Françoise nous emmène en Inde.

    IMG_8908

    Note sur le système scolaire indien : L’Inde est divisée en 28 États et 7 «territoires fédéraux ». Les politiques et les programmes scolaires sont suggérés par le gouvernement central, les états provinciaux ayant une liberté dans leur application. Le système scolaire comprend quatre cycles : primaire (6 à 10 ans), primaire supérieur (11 et 12 ans), secondaire (13 à 15 ans) et secondaire supérieur (17 et 18 ans). Le cursus est commun à tous les élèves jusqu’à la fin du secondaire, ils choisissent des spécialités les deux dernières années. Les élèves apprennent trois langues (l’anglais, le hindi et leur langue maternelle). Il y a trois types d’établissements : deux sont coordonnés au niveau national, respectivement par le CBSE et par l’ICSE, qui publient des programmes pour les enseignements et les examens, le troisième correspond aux établissements d’états (locaux).


    Pradeep_Photo
    Entretien avec Pradeep Kumar Misra, professeur associé au département B.Ed / M.Ed. à la faculté de sciences de l’éducation de l’université M.J.P. Rohilkhand, à Bareilly, dans l’état de l’Uttar Pradesh. Il forme de futurs enseignants. Ses travaux de recherche portent sur les technologies éducatives, la formation des enseignants et la formation tout au long de la vie

    Depuis 10 ans, TIC et informatique sont enseignées dès le primaire

    Il semble y avoir un consensus partagé par les gouvernements indiens (central et d’états) et les organismes en charge des questions d’éducation sur la promotion de l’informatique dans l’éducation secondaire. Signalons dans ce sens l’appel du gouvernement central pour  « une Inde numérique » ou, encore, les programmes de différents gouvernements d’état pour fournir gratuitement des ordinateurs et des tablettes aux élèves. Depuis environ 10 ans, les écoles indiennes proposent des cours d’informatique : certaines l’introduisent dès la première année du primaire, d’autres, plus tard, vers la moitié du primaire. L’informatique est au programme obligatoire pour le primaire et est proposée en option pour le secondaire. Cette matière prend environ 2h30 à 3 heures par semaine, incluant pratique et théorie, et plus pour ceux qui le prennent en option à partir du lycée. Comme les autres matières, l’enseignement peut être en Hindi, en anglais ou dans la langue maternelle.

    Utiliser des applications et programmer, et plus en option…

    Alors que dans les autres matières, il y a un programme officiel et des manuels scolaires prescrits, la situation est plus ambiguë pour l’enseignement de l’informatique. Il n’y a pas de programme formel pour le primaire. Pour le secondaire, chacun des conseils éducatifs (CBSE, ICSE, et d’état), propose son propre programme sous des dénominations différentes (« computer education », « computer science », « computer application », « ICT literacy »). [note : ICT pour « Information and Communication Technologies », TIC en français)].

    Les contenus des enseignements obligatoires portent sur les utilisations d’applicatifs et sont centrés sur les savoir-faire : sur des logiciels et applications web au niveau collège et en programmation (Java, C++, Python) au niveau lycée. Dans la mesure où les établissements ont une certaine latitude dans l’application des programmes et le choix des manuels, il y a de fait une grande variété des contenus offerts.

    Une promesse de réussite future

    Il y a de nombreux arguments favorables à un enseignement de l’informatique en Inde. Un argument assez largement répandu est que les enfants sont en présence de nombreux ordinateurs dans la vie courante, qu’ils apprennent à utiliser souvent par eux-mêmes, avec leurs amis ou les membres de leur famille et que parfois cela les amènent à adopter de mauvaises pratiques et habitudes, des utilisations incorrectes et peu sûres ; autant d’écueils qu’éviterait une formation cadrée à l’école.

    Une autre opinion répandue dans notre société est que, quelles que soient les carrières choisies par les jeunes, avoir des compétences de base en informatique leur sera toujours utile sur le long terme. La réussite de professionnels de l’informatique indiens connus à travers le monde (comme Satya Nadella, directeur général de Microsoft, ou Sundar Pichai, vice-président de Google, et bien d’autres) motive très certainement les parents et les étudiants indiens à choisir les écoles qui offrent des cours d’informatique. Beaucoup d’écoles privées offrent des cours en informatique pour gagner une réputation de modernité et attirer plus d’élèves.

    Cependant, les élèves sont plutôt divisés quant à l’intérêt des cours d’informatique. Ceux qui choisissent l’option pensent que c’est amusant à apprendre, un nouveau monde à explorer et une bonne préparation pour leur poursuite d’étude. Ils y voient un outil de réussite sociale, le moyen de passer auprès de ses amis pour le « doué en informatique ». Mais la majorité des élèves y voit juste une matière obligatoire, donnant du travail supplémentaire, et un obstacle de plus à franchir pour obtenir leur diplôme.

    Un vivier d’enseignants qualifiés

    Les enseignants de l’école publique sont recrutés par les agences gouvernementales (centrale et fédérales), le recrutement dans le privé est indépendant. Les enseignants intervenant aux niveaux primaires n’ont pas forcément de diplômes dans cette discipline. En revanche, c’est bien le cas des enseignants du secondaire, qui ont un diplôme de niveau licence ou maîtrise en informatique ou en technologie de l’information (B.Tech in Computer Science/IT ; M.Sc. in Computer Science ; Masters in Computer Applications), et un diplôme professionnel en éducation, obtenu en un an.

    Pour le moment, il ne me semble pas y avoir de pénurie d’enseignants qualifiés. Un nombre important d’étudiants indiens sont diplômés en informatique et il leur suffit d’obtenir le diplôme en éducation pour prétendre à un poste d’enseignant. De plus, le gouvernement et les agences privées proposent des formations continues. Toutefois, il me semble que les diplômés en informatique sont plutôt enclins à poursuivre une carrière dans l’industrie, avec des promesses de bons salaires. Devenir enseignant me paraît être un second meilleur choix,  pour ceux qui veulent éviter de connaître le chômage.

    Les femmes restent sous-représentées en informatique

    L’engagement des filles et des femmes en informatique a évolué en Inde dans les dernières années. Il est sûr que l’informatique permet aux filles de rompre les barrières liées au genre. Une étude réalisée en 2010 suggérait que c’est « une discipline appréciée des étudiantes, parce qu’elle demande des efforts intellectuels plutôt que physiques, et leur permet de travailler en intérieur. » Mais la même étude remarquait  que « les femmes restent sous-représentées dans les domaines des technologies de l’information, probablement du fait de contraintes sociales qui réduisent leur liberté d’étudier, leur accès aux ressources et leurs opportunités ». Une autre étude suggère qu’il y a des questions spécifiques à résoudre concernant les questions de genre en éducation et qu’il faudrait étudier les voies par lesquelles les TIC conduisent à des résultats d’apprentissage égalitaire entre filles et garçons.  Un nombre significatif de jeunes filles quittent le système scolaire après la puberté, et il faudrait explorer le potentiel offert par les outils numériques pour former ces adolescentes déscolarisées.

    Ne pas en rester là et approfondir encore les contenus

    40% des indiens, soit 430 millions de personnes, ont moins de 18 ans. Cela fait de l’Inde le pays abritant la plus grande population d’enfants au monde. La promesse faite par le gouvernement que « chaque village devra être connecté par une bande passante, et l’éducation pourra être offerte aux enfants des écoles même les plus reculées » (voir par exemple) montre que dans un avenir proche les cours d’informatique à l’école seront nécessaires et souhaités. En résumé, l’informatique est apparue comme une composante vitale de l’enseignement scolaire indien mais il nous reste encore à faire de plus gros efforts pour définir et mettre en œuvre un programme et des contenus d’enseignement détaillés, offrant un bon équilibre entre connaissances théoriques et pratiques, et développant de nouvelle méthodes pédagogiques, mais par dessus tout aidant les enfants « to grow virtual but remain socially grounded ».

    Pour en savoir plus

    • Le programme proposé sur le site de l’ICSE pour l’enseignement intitulé « utilisation des ordinateurs » pour le niveau fin de collège début de lycée (computer application – classes IX and X)
    • Des documents d’accompagnement disponibles sur le site du CBSE pour les enseignements : de TIC en fin de collège début de lycée – ICT, class IX et class X) et le programme d’informatique au lycée (Computer Science class XI)
  • Coder : entre vice et plaisir

    Le phalanger volant (glider) proposé comme emblème de la communauté des hackers.

    Dans la définition (anglaise) sur Wikipedia de « Hacker » on découvre que ce mot peut désigner

    1. Celui qui cherche et exploite les faiblesses d’un système informatique,
    2. Celui qui innove dans le domaine de l’électronique ou de l’informatique, et
    3. Celui (ou celle) qui combine l’excellence, la ruse, et l’exploration dans ses activités.

     

     

    Dans la page française, c’est un brin plus sobre :

    1. Hacker, spécialiste de la sécurité informatique
      ou
    2. Hacker, personne qui aime comprendre le fonctionnement interne d’un système, en particulier des ordinateurs et réseaux informatiques.
    Le bitesize de la BBC inclut des jeux et un guide du nouveau parcours de formation des enfants au code. ©BBC

    Sur ces bases, il est possible d’imaginer que nombreux sont ceux qui pensent que le hacker développe de façon positive son imagination, code, invente, crée. Qu’il reflète le plaisir exprimé par le jeune Max, 10 ans, choisi par la BBC dans le cadre de l’effort national qui fait que depuis le 1er septembre 2014 c’est depuis l’âge de 5 ans qu’on enseigne la programmation aux jeunes Britanniques.

    Le lecteur averti de cet article aura cependant noté que parmi les 3 définitions en anglais et les 2 en français l’une pouvait permettre une interprétation malicieuse. C’est celle qu’a choisi –semble-t-il- un homologue français de la BBC, qui fait dire à un personnage « hacker, c’est un escroc du net ».

    Ou le choix entre proposer que coder soit un plaisir… ou un vice.
    Colin de la Higuera.

  • Science participative & informatique

    IMG_8603
    © @Maev59

    Par certains aspects la science informatique du XXIème siècle est participative ou du moins, elle permet à d’autres disciplines de le devenir. De quoi s’agit-il en fait ? Pour mieux comprendre cette démarche, nous vous proposons de considérer trois exemples précis.

    • La science est un bien commun accessible à tou·te·s, elle peut-être participative.
    • La recherche scientifique est un métier qui nécessite beaucoup d’années d’études.
      Il faut bien distinguer les deux

    1. Le Crowdsourcing ou comment utiliser une foule de cerveaux humains

    Des travaux scientifiques expérimentaux et ludiques permettent de confier des tâches que des machines ont du mal à réaliser, au village humain relié par Internet, au service de la recherche scientifique ou de la culture. Cela se fait à une échelle techniquement inaccessible à une équipe de recherche, même la mieux dotée du monde.

    • Ainsi, Fold.it est un jeu de puzzle sur le repliement des protéines. Les scientifiques ont su réduire à un jeu combinatoire le problème très compliqué de trouver un niveau d’énergie optimal au repliement d’une protéine. Ils profitent des capacités naturelles du cerveau humain pour aider à résoudre ce type de problème exploratoire, avec à la clé un vrai résultat scientifique. Un autre exemple dans la même veine en lien avec les maladies génétiques est par exemple Phylo.

      logo-foldit
      © http://fold.it
    • La capacité naturelle de reconnaissance des formes du cerveau humain est utilisée par exemple pour classer des galaxies dans Galaxyzoo avec la participation d’un très grand nombre d’astronomes amateurs. Ce travail collectif massif peut même prendre une forme involontaire comme avec Recaptcha quand nous devons saisir des caractères lus sur une image pour prouver que nous sommes une personne et non un algorithme sur une page web. Le micro-travail de cette multitude de personnes sert aussi à la numérisation de qualité de nos bibliothèques : la photo des textes à numériser est découpée en petites images qui sont proposées dans les formulaires de façon à ce qu’un humain lise le texte de l’image et le rentre au clavier.

      logo-recapcha
      © recapcha.net

    On est donc devant une nouvelle approche : ce n’est plus uniquement grâce à la puissance des calculs et à la création de nouveaux algorithmes qu’émergent des travaux scientifiques (ex : comme ce fut le cas pour la reconstruction des régions codantes du génome humain). C’est grâce à la capacité de faire coopérer des milliers de cerveaux humains sur certains problèmes précis (exploratoires ou de reconnaissance) qui dépassent justement la capacité des calculs numériques. L’écueil serait évidemment d’en déduire que toute la science se ferait par-la-foule. On ne va évidemment pas faire voter la foule sur la véracité d’un théorème mathématiques, par exemplr.

    Quel est le rôle du public ici ? Celui d’accepter de «prêter son intelligence » souvent dans le cadre d’un jeu. En fait-t-on pour autant un spécialiste de l’ADN ou d’astronomie ou l’aide-t-on à augmenter sa culture scientifique sur ces sujets ? Pas lors de cette activité. On lui offre simplement l’occasion de découvrir que l’expérimentation numérique de phénomènes scientifiques peut-être amusante. Cela peut simplement lui donner le goût des sciences.

    2. L’utilisateur devenant co-validateur

    view-brainTV
    © braintv.org

    Quand on mesure en situation réelle l’activité cérébrale profonde d’un patient, ou que l’on robotise un environnement quotidien pour augmenter le bien-être face à un handicap, il est juste insensé d’imaginer travailler sans associer l’utilisateur final en tant que validateur de ces volets du travail de recherche. C’est le cas des travaux exemplaires de Jean-Philippe Lachaux qui a mis au point BrainTV, un système permettant au patient d’observer lui-même son activité cérébrale ou l’équipe de David Guiraud qui affirme le rôle essentiel du patient dans ses recherches permettant de restaurer la marche chez le paralytique grâce à une puce électronique reliée à ses muscles (ceci grâce aux progrès de la simulation numérique).

    Une telle démarche se retrouve à un autre niveau dans l’Interaction Homme-Machine, quand Wendy Mackay explique que l’enjeu n’est pas de mettre « l’humain dans la boucle [de la machine] » mais bien la machine dans la boucle des activités humaines. L’utilisateur numérique devient co-validateur du progrès du numérique.

    view-apisense
    © apisense.com

    Bien entendu l’usage même que nous faisons du numérique est soigneusement étudié. Cela peut être fait en toute transparence et la plateforme Apisense, par exemple, sollicite une communauté d’utilisateurs volontaires, en les associant à la démarche et en partageant avec eux objectifs et résultats.

    Que se passe-t-il ici ? Au lieu de séparer l’objet et l’acteur des recherches, on fait le choix de profiter des interactions qu’il peut y avoir entre eux.  Là encore, sans transférer de compétences professionnelles, la science devient participative.

    3. La contribution du public aux collectes de données

    Le muséum d’histoire naturelle, cet institut de recherche qui étudie notre environnement naturel,  propose depuis des années au public de faire des mesures de comptage de populations dans la nature pour évaluer l’évolution de la biodiversité. Une démarche rigoureuse qui permet d’accorder un bon degré de confiance à la collecte de ces données. Ce sont les chercheurs qui décident ce qu’il y a lieu à mesurer et surtout comment exploiter ces données. Conçue dès le départ comme une démarche de médiation scientifique, un effet retour sur la prise de conscience des problèmes environnementaux a été obtenu grâce à cette démarche de partage de pratiques scientifiques et à la découverte de connaissances naturelles (activités scolaires générées). On fait de la science « pour de vrai » disent les enfants.

    view-Pl@ntNet
    © plantnet.net

    De même, le projet Pl@ntNet, met à disposition sur sa plateforme un logiciel interactif pour identifier les plantes que l’on rencontre sur le terrain et partager les observations effectuées. Que se passe-t-il ici ? Le public est recruté comme « un assistant du chercheur » pour démultiplier son action. Son avis est bien entendu écouté au delà de son travail de terrain. Et le fait de pouvoir le faire participer à une véritable étude expérimentale est une profonde marque de reconnaissance et de respect. La généralisation à d’autres disciplines n’est pas forcément possible. En effet, en science informatique par exemple, le fait que les élèves de France soient privés de son enseignement, empêche de proposer ce type de démarche en lien avec une science qui ne leur est pas familière.

    D’autres partenariats institution-citoyen existent. En Île de France, 1% du budget de la recherche a été consacré à voir dans quelle mesure développer des projets de recherche à deux voix : scientifique & citoyenne, avec une méthode contractuelle d’appel d’offre rigoureuse et paritaire (scientifiques/société). Les résultats sont encore à évaluer.

    Pour conclure

    Ces trois familles d’exemples de démarches ne se réduisent pas les unes aux autres, n’appartiennent pas aux mêmes paradigmes, ne positionnent pas les acteurs dans les mêmes rôles.  Bref : il n’y a pas de recherche participative, il y a des recherches participatives.

    Thierry Viéville