• Sex and the Algorithm

    « Sex truly was the original sin »
    Christos Papadimitriou

    Christos Papadimitriou.
    Christos Papadimitriou

    Ce que nous avons retenu de la sélection naturelle, c’est que les mieux adaptés, les plus forts, se reproduisent et finissent par l’emporter, et pour ce qui est de la génétique, c’est qu’on prend au hasard 50% des gènes de chacun des deux membres d’un couple pour obtenir un nouvel individu. Christos Papadimitriou, professeur à Berkeley, et ses collaborateurs étudient ces phénomènes. Christos est un des plus brillants chercheurs en informatique. Il s’est aussi intéressé, entre autre, à la finance, et la biologie. Nous allons essayer de vous présenter son point de vue, en le simplifiant à outrance tout en le prolongeant aussi. Si vous lisez l’anglais, et si le sujet vous intéresse, n’hésitez pas à aller lire un article plus technique [1].

    Si par chance, on a obtenu un individu avec des gènes d’enfer, il se reproduit et ses enfants n’héritent que de la moitié de ses gènes. Cela se dilue à chaque génération. La reproduction sexuée détruit-elle ce qui marche bien ? Est-elle débile ? Et pourtant… La reproduction sexuée est la norme dans la nature, la reproduction asexuée rare. Pourquoi ? Les chercheurs ne sont pas d’accord sur les explications. Christos et ses collègues proposent une théorie passionnante. En fait, ils montrent que c’est à cause de l’effet de dilution que la reproduction sexuée « gagne ».

    La structure d’une partie de la double hélice de l’ADN. Wikipédia.
    La structure d’une partie de la double hélice de l’ADN. Wikipédia.

    Une analogie est celle de l’investissement boursier. On pourrait imaginer qu’une bonne stratégie consiste à acheter quelques rares titres super performants. Mais en fait un bon investisseur va varier son portefeuille, achetant aussi des titres qui réussissent moins bien, pour pouvoir s’adapter à des changements de l’environnement bancaire. La reproduction asexuée serait parfaite dans une nature figée. Mais la nature change sans cesse, et la reproduction est bien plus à même de suivre ses transformations. C’est cette intuition qui conduit les investisseurs à panacher leurs portefeuilles.

    Christos et ses collègues ont démontré cette thèse dans des simulations informatiques que nous allons vous expliquer. Pour cela considérons deux algorithmes très utilisés en informatique. Dans les deux cas, on part d’une population de candidats possibles pour résoudre un problème particulier et on essaie d’aller vers des candidats de plus en plus performants pour résoudre ce problème. Très grossièrement :

    •  Les algorithmes de recuit simulé et la reproduction asexuée. On laisse chaque individu se reproduire en se modifiant aléatoirement. Pour choisir au hasard qui se reproduit, on privilège ceux qui sont le plus performants.
    • Les algorithmes génétiques et la reproduction sexuée. On choisit au hasard deux individus et on les combine pour obtenir un nouvel individu. Là aussi, on biaise le processus en laissant les « meilleurs » se reproduire plus que les autres.

    Si on donne un problème fixe aux algorithmes génétiques, qui semblent pourtant imiter la solution majoritaire dans la nature, ils marchent moins bien que les algorithmes de recuit simulé. Mais si on laisse le problème muter sans arrêt, c’est le contraire qui se passe. La reproduction sexuée est mieux adaptée dans un monde en changement perpétuel.

    Une remarque essentielle est que la reproduction sexuée favorise les systèmes dont on peut combiner efficacement deux individus. Dans la nature, cela conduit donc à des systèmes biologiques se reproduisant de manière sexuée. En informatique, on est confronté à une difficulté, celle de combiner deux individus. Que convient-il de recombiner pour retrouver dans les algorithmes sexués, l’efficacité constatée dans la nature ? Un petit détour par la fiction s’impose.

    et-sexuality-binaire-rayclid-vbIsaac Asimov a imaginé, dans la nouvelle « What is this thing called love » [2], une race extraterrestre ne connaissant que la reproduction asexuée (un parent donne naissance, tout seul, à un enfant qui lui ressemble beaucoup), et ayant appris que sur la planète Terre une race se reproduisait de manière sexuée (deux parents mélangeant leurs gènes pour donner un enfant). Pour eux, si c’est le cas, il leur faut absolument détruire cette race sans tarder, car un tel processus permettra fatalement aux humains de donner naissance un jour à une race supérieure qui dominera l’univers, du fait des possibilités infinies d’amélioration de leurs capacités, et ce de manière beaucoup plus rapide que les autres races. L’anecdote de l’histoire est qu’ils enlèvent un couple de terriens, et leur demandent naïvement de leur faire une démonstration de reproduction sexuée. La femme et l’homme, dignes représentants de la morale puritaine qu’Asimov caricature ici, refusent d’une manière telle que les extraterrestres repartent, convaincu que toutes ces histoires de reproduction sexuée ne sont qu’élucubrations de leurs savants, et qu’ils peuvent laisser cette planète tranquille. Bien entendu, quelques minutes plus tard, le couple passe à l’action, finalement…

    ordMais imaginons que ces extraterrestres, au lieu d’être horrifiés à l’idée de cette race se reproduisant de manière sexuée, se soient au contraire mis en tête de tenter de l’imiter avec une compréhension du phénomène, et des expertises en biologie, très superficielles. Ils auraient par exemple tenté d’échanger des organes entre différents individus, genre « je prend le corps d’une personne pour y mettre le cerveau exceptionnel d’une autre ». Il est clair que le résultat aurait été en deçà de leurs espérances, à supposer qu’ils aient même réussi à garder les personnes en vie. Car la reproduction sexuée se déroule dans la nature au niveau des chromosomes, et qu’un chromosome n’est pas une partie de la solution (l’organisme), mais une partie de la machinerie qui construit l’organisme via le phénomène éminemment complexe de la morphogénèse. Pour que la reproduction sexuée donne les résultats escomptés, il faut donc qu’elle s’effectue à un niveau suffisant de complexité pour que la substantifique moelle de ce qui rend un individu supérieur aux autres (dans un concours de beauté, ou en mathématiques) soit effectivement recombinée.

    Revenons aux algorithmes, et à l’autre face de l’informatique, lorsque celle-ci résout des problèmes hors de portée du mathématicien, en s’inspirant éventuellement de la nature, mais sans aucune obligation de réalisme. Ici également, ce qui rend une solution meilleure que les autres n’est pas forcément directement l’un des composants utilisés pour la représenter. Et un croisement qui se contentera d’échanger des « bouts de solutions » comme par exemple dans le modèle qu’utilise Christos, ne tirera effectivement pas partie de la puissance potentielle de la reproduction sexuée.

    Prenons un exemple que les informaticiens adorent, par sa complexité malgré la simplicité de son énoncé, la résolution du problème dit « du voyageur de commerce » : un VRP doit visiter un certain nombre de villes en faisant le minimum de kilomètres. Une solution est donc décrite par la liste des villes dans l’ordre de parcours. Il est clair qu’ici, la méthode consistant à croiser deux listes en les coupant en deux au hasard et en raboutant le début de l’une avec la fin de l’autre ne permet même pas d’obtenir des nouvelles liste valides : il manquera quasiment inévitablement des villes dans les deux nouvelles listes. C’est d’ailleurs l’exemple qu’utilise Christos pour illustrer précisément la difficulté de concevoir un croisement par recombinaison basique de parties de solution. Mais un chercheur japonais a récemment proposé [3] un processus de croisement de deux listes, plutôt complexe, qui réussit l’exploit de mélanger deux listes en extrayant de chacune ce qui fait qu’elle est peut-être un début de bonne solution au problème, tout en contenant suffisamment de hasard pour créer cette race destinée inévitablement à dominer l’univers, c’est-à-dire ici trouver la meilleure solution possible pour notre VRP. Son algorithme génétique détient aujourd’hui plusieurs records du monde … sur des problèmes de VRP classiques, c’est-à-dire statiques.

    Au fond, il existe plusieurs manières de pratiquer la sexualité, pour les algorithmes comme dans la vie, et toutes ne sont pas aussi performantes. Nous n’en sommes certainement qu’au début de cette direction de recherche mais elle est prometteuse.

    Vous aviez peut-être l’impression que le sexe domine le monde. Vous aviez raison, mais peut-être pas pour les bonnes raisons…

    Serge Abiteboul, Inria & ENS Cachan, and Marc Schoenauer, Inria & Université Paris Saclay

    Pour aller plus loin :

    [1] Algorithms, games, and evolution, Erick Chastaina, Adi Livnatb, Christos Papadimitriouc,1, and Umesh Vaziranic
    [2] Isaac Asimov. What Is This Thing Called Love? (short story). Voir l’article Wikipedia avec ce titre (en anglais, la page française correspondante étant à peu près vide).
    [3] A powerful genetic algorithm using edge assembly crossover for the traveling salesman problem. Yuichi Nagata and Shigenobu Kobayashi.  INFORMS Journal on Computing, 25(2):346-363, 2013.

  • Open Access : En avant !

    On parle beaucoup d’open access en ce moment notamment avec un article très disputé de la Loi pour une République Numérique. Nous fêtons du 19 au 25 octobre l’Open Access Week, la semaine du libre accès, « un événement annuel du monde scientifique marqué par l’organisation de multiples conférences, séminaires ou annonces sur le thème du libre accès et sur le futur de la recherche académique dans de nombreux pays. » L’open access des résultats de la recherche académique, notamment quand elle est subventionnée par l’état, semble une évidence. À l’heure du Web, c’est pourtant loin d’être la règle. Laurent Romary, chercheur chez Inria, aborde le sujet. Serge Abiteboul.

    Le libre accès (en anglais : open access) est la mise à disposition en ligne de contenus numériques, qui peuvent eux-mêmes être soit libres (Creative commons, etc.), soit sous un des régimes de propriété intellectuelle. L’open access est principalement utilisé pour les articles de revues de recherche universitaires, sélectionnés par des pairs… Wikipedia 2016.

    PASTILLE_6_Agri
    Le logo de l’open-access : une image … en accès libre !

    La semaine de l’accès libre doit être aussi celle de la pensée libérée. Alors que le sujet n’a jamais été aussi prégnant dans les agendas politiques avec la discussion sur la loi pour une République Numérique et son fameux article 9 sur le « Libre accès aux publications scientifiques de la recherche publique », on peut essayer d’identifier qui a la maîtrise conceptuelle des débats. La lecture du projet d’article laisse perplexe. On ne peut que se féliciter que l’open access soit mentionné explicitement dans la loi et que la notion de « Commun », essentielle en particulier dans l’activité scientifique, apparaisse en tant que telle. Mais tout reflète ici une vision guidée par les vieux mécanismes de l’édition privée, pour ne pas dire papier. On sourirait presque à la référence faite à une parution d’« au moins une fois par an » alors que les journaux électroniques (et libres) modernes publient de plus en plus souvent au fil de l’eau, article par article. On grince à la lecture que des contraintes peuvent peser sur le manuscrit auteur alors que le chercheur et ses confrères chargés de la relecture ont été les seuls à fournir une création de l’esprit. On se désole de voir repris la notion d’embargo (i.e. de « délai de publication ouverte  »), inventée par l’édition commerciale et qui limite la diffusion des savoirs au moment même où cette diffusion serait la plus utile : le temps de l’expression des idées. On ne doute plus avec la dernière phrase dont le seul but est qu’ « aucune exploitation commerciale » ne puisse avoir lieu, alors que l’on souhaite évidemment que les contenus scientifiques (indépendamment de leur forme écrite) soient le plus vite possible des générateurs de prospérité scientifique, sociétale et économique, comme le demande d’ailleurs explicitement la puissance publique qui, faut-il le rappeler, finance une grande partie de la recherche.

    Dans le même temps, on assiste à cette même perte de maîtrise de l’agenda au niveau européen avec des prises de position très conservatrices prises par des institutions telles que la société Max Planck en Allemagne ou exprimées dans des rapports officiels en Angleterre. On semble se précipiter dans les bras du modèle auteur-payeur là aussi inventé par l’édition privée, qui présente tous les risques de coûter au milieu académique bien plus cher que les abonnements eux-mêmes.

    Les chercheurs sont perdus. Il ne savent plus à quel modèle se vouer. Quels droits ont-ils de déposer dans des archives ouvertes telles que HAL ou arXiv alors qu’un éditeur comme Elsevier change régulièrement de politique rendant celle-ci illisible ? Doivent-ils tout aussi bien se laisser tenter par les miroirs aux alouettes que sont Mendeley, Academia ou Research Gate, dont les perspectives économiques ne sont pas nécessairement compatibles avec les besoins de la communication et de la préservation des communs de la science ? Doivent-ils simplement obtempérer quand on leur demande dans le cadre de modèles dits hybrides (*) de payer pour que leur article de revue scientifique soit en « open access » à la date de publication ?

    Que faire alors ? Probablement travailler à l’identification du modèle que l’on souhaite vraiment mettre en œuvre pour favoriser la diffusion libre des savoirs.

    http://www.episciences.org une plateforme pour réaliser des revues à moindre coût et de mettre en œuvre le libre accès aux versions électroniques des articles.

    De quoi parle-t-on ? De mécanismes de communication scientifique que les chercheurs et leurs institutions ont choisis et dont ils possèdent l’entière maîtrise, notamment pour décider des conditions de diffusion et de réutilisation des contenus. De plates-formes de publications qui dépendent de la force publique, et dont les services ne peuvent être délégués que dans un cadre réellement concurrentiel. De la possibilité de pouvoir — enfin — prendre toute la dimension du passage au tout numérique et de voir s’il est possible de communiquer les résultats de recherche autrement : nouveaux modes de qualification et de certification, impact sur les (et symétriquement, des) réseaux sociaux, prise en compte des données de recherche, nouveaux indices d’impact ou de notoriété.

    Un doux rêve ? Il semble que certaines institutions ont décidé d’agir dans ce sens. Pour preuve, Inria, forcément bien placée pour comprendre les défis du numérique, demande à tous ses chercheurs de communiquer autrement :

    • un article de recherche est pris en compte dans l’évaluation d’une équipe uniquement s’il est disponible en accès libre dans le système public HAL,
    • le modèle hybride de financement des publications doit être refusé,
    • et enfin, l’institut encourage des contributions à la définition et à la vie de nouveaux journaux qui reposent sur des plates-formes publiques telles qu’Episciences.org.

    Le message est clair : les chercheurs doivent mettre leurs productions scientifiques au service de toutes et tous !

    Ce qui est possible chez Inria l’est-il plus largement dans d’autres institutions et dans la communauté de recherche au sens large ? Cette semaine de l’open access est-elle celle du conservatisme vis-à-vis des modèles existants ou celle de la créativité et du courage ?

    Laurent Romary, Inria.

    Pour ce qui est de la Loi sur la République numérique, Binaire soutient la proposition d’Inria.

    (*) Modèle hybride : la revue est diffusée de façon traditionnelle sur abonnement, mais l’auteur d’un article peut également payer pour que celui-ci soit disponible en accès libre. Les chercheurs paient donc deux fois : pour publier et pour accéder.

    Pour aller plus loin :

     

  • Du code au langage

    Le progrès scientifique, la diffusion des sciences, reposent sur le langage. C’est pourquoi les mots ont tellement d’importance en sciences. C’est le cas aussi en informatique, une science naissante qui repose sur un vocabulaire forgé récemment et en évolution permanente. Un historien des sciences, Pierre Mounier-Kuhn revient pour Binaire sur la genèse de mots essentiels comme code ou langage. Serge Abiteboul et Gilles Dowek.

    L’historien Mathias Dörries a noté que les scientifiques, quand une métaphore leur vient à l’esprit, ne se contentent pas de l’employer comme outil expressif : ils la poussent au bout de ses implications pour explorer toute sa valeur heuristique. C’est précisément ce que l’on observe en étudiant l’émergence de la notion de langage en programmation. Je la résumerai d’abord en évoquant les étapes de cette évolution dans le petit milieu des proto-informaticiens français aux temps héroïques des ordinosaures, puis en nous portant sur la scène internationale.

    En novembre 1949, le fondateur d’une start-up abritée dans une ancienne usine automobile bombardée à Courbevoie, la Société d’électronique et d’automatisme (SEA), rédige un rapport interne qui constitue le premier projet d’ordinateur en France. En résulte aussitôt un contrat de recherche avec le bureau des missiles de l’Armée de l’Air. Cette synthèse des réflexions de François-Henri Raymond et de son équipe décrit brièvement l’architecture d’un ordinateur, donne le tableau des « codes d’ordre » de von Neumann prévus pour l’EDVAC de Princeton, et fournit un exemple d’application mathématique. Du point de vue de la programmation, il ne parle que de coding et de code, défini comme « la suite des ordres précis telle qu’elle se trouve enregistrée en mémoire. »

    L'EDVAC installé au bâtiment 328 du Ballistics Research Laboratory. Wikipedia
    L’EDVAC installé au bâtiment 328 du Ballistics Research Laboratory. Wikipedia

    Quelques années plus tard, en 1955, la SEA installe ses premiers ordinateurs chez des clients. Dans une série d’articles destinés aux ingénieurs, le chef d’entreprise explique leurs principes et leur fonctionnement, insistant sur leur nouveauté : on doit les considérer non seulement comme des calculatrices, mais comme des systèmes conçus pour traiter des programmes ; non plus comme des machines, mais comme des automates. Raymond explique que le principe même de machine universelle fonctionnant en binaire implique « une traduction entre notre langage et le sien. » Et, filant la métaphore linguistique, il décrit le symbolisme permettant d’exprimer un processus de calcul comme « une convention d’écriture, qui constitue une règle de la grammaire du langage fonctionnel de la machine ». L’année suivante, dans un congrès à Milan, il parle à nouveau de ces « conventions de langage » qui permettent la « programmation automatique », laquelle revient à « un problème de traduction automatique ».

    Tandis qu’IBM apporte Fortran à Paris en 1957, la SEA élabore son propre langage de programmation, PAF (Programmation Automatique des Formules), présenté en 1960. C’est d’emblée un langage conversationnel. La métaphore du langage et de la communication homme/ machine est poussée assez loin dans sa mise en œuvre technique, puisqu’il suffit de taper au clavier le début d’une formule pour que la machine la complète automatiquement : la « CAB 500 » donne à son utilisateur le sentiment qu’elle comprend même ses intentions !

    CAB 2022 de la SEA, installée en 1955 chez Matra (photo SEA).
    CAB 2022 de la SEA, installée en 1955 chez Matra (photo SEA).

    Simultanément, le CNRS et l’Armement créent un Centre d’études de la traduction automatique, où se croisent la programmation, la logique et le traitement automatique des langues. Tandis qu’un aventurier français de la recherche mathématique, Marcel-Paul Schützenberger, écrit avec le linguiste américain Noam Chomsky un article qui apporte un éclairage théorique à la programmation et jette les bases de la linguistique computationnelle. Ce rapprochement est manifeste avec la création, dès 1963-1964, des premiers Instituts universitaires de programmation, à Paris et à Grenoble, où les théories du langage ont d’emblée leur place dans l’enseignement.

    Comment l’informatique est-elle ainsi passée du codage au langage ? Au-delà du cas français que je viens d’évoquer, un groupe d’historiens fédérés dans un projet européen s’est plongé dans les archives et dans les mémoires des pionniers pour comprendre ce processus. Processus décisif pour la construction de l’informatique elle-même, comme discipline et comme activité professionnelle. Et qui s’observe d’abord dans les pays pionniers : l’Angleterre et les États-Unis, puis l’Allemagne.

    L’idée de machines avec lesquelles on puisse communiquer s’est répandue après la guerre. Notamment avec l’ouvrage de Norbert Wiener, Cybernetics, or Control and Communication in the Animal and the Machine (1948) et l’article d’Alan Turing, paru dans Mind en 1950, dont le fameux test décrivait un dialogue en langage naturel avec un être humain et un ordinateur. Si l’on pouvait construire des « cerveaux électroniques », le langage ne devait-il pas être un de leurs attributs ? Ces réflexions cybernétiques ouvraient des perspectives inédites, mais leur anthropomorphisme allait rapidement les éloigner des préoccupations des praticiens.

    J. et J. Poyen,                            Le Langage électronique (1963)
    J. et J. Poyen, Le Langage électronique (1963)

    Si dès 1947 apparaît aux États-Unis le terme « langage machine » pour désigner le code binaire traité par les circuits électriques des grands calculateurs, c’est le mot code ou codage qui domine. Et, pendant des années, chaque ordinateur aura son système de codage particulier, développé localement par son équipe de programmeurs. Ce qui ne présente guère d’inconvénients tant que ces machines sont peu nombreuses – il en existe au plus 200 dans le monde en 1955. Les améliorations consistent à développer des autocodes, déchargeant le programmeur de tâches routinières comme la traduction de formules algébriques en langage machine. Le résultat le plus abouti est la première version de ForTran, présentée en 1954 sur l’IBM 704.

    Les changements vont être impulsés par une convergence d’intérêts et de projets très divers. Le premier est d’ordre économique, lié à la croissance rapide du parc d’ordinateurs. Dès le milieu des années cinquante, les plus gros centres de calcul, dans l’armement ou l’aéronautique, possèdent plusieurs ordinateurs de modèles différents ou commencent à remplacer leurs premiers « cerveaux électroniques » par des machines de série. Ils découvrent le coût grandissant de la re-programmation : on doit non seulement réécrire chaque programme, mais aussi former de nouveaux programmeurs aux particularités de chaque architecture, dans une tension forte entre la rareté des compétences et la pression exercée sur la R & D par les besoins de la guerre froide.

    Ces grands utilisateurs commencent donc à imaginer des techniques de programmation communes. IBM soutient cette tendance, comprenant que l’inflation incontrôlée des charges du software dissuaderait les clients d’acheter des matériels ; la mise au point de Fortran est un élément de solution. En mai 1954, lors d’un symposium sur les techniques de programmation automatique organisé par l’Office of Naval Research, plusieurs mathématiciens (Saul Gorn, John Carr, etc.) exposent leurs expériences : élaborer un « code universel » ou un « universal computer language », appuyé sur des méthodes de conception utilisant des schémas normalisés (ordinogrammes ou flowcharts), indépendants des modèles particuliers de machines, permettrait à la fois de maîtriser les coûts, d’améliorer la lisibilité et la qualité des programmes. Et de proposer aux étudiants des cours de programmation qui ne se limiteraient pas à des « recettes de cuisine ».

    S’y ajoute une motivation politique. Ces universitaires voient dans un futur langage universel (« commun », précise-t-on souvent) un moyen d’échapper à l’emprise grandissante des constructeurs d’ordinateurs. Et de conserver la libre circulation des idées au sein des communautés de chercheurs, dans l’Université comme dans l’Armement.

    En 1955 un autre mouvement s’amorce dans le même sens : les clubs d’utilisateurs. Les utilisateurs commencent à s’organiser en groupes spécialisés par type d’ordinateurs. Leur principale activité consiste à échanger, à mettre en commun  des programmes et des techniques de programmation, à établir des standards qui transcendent les particularismes locaux. La tâche se complique d’autant que commencent à se multiplier les langages adaptés à chaque famille d’application.

    C’est dans ce contexte que sont initiés quatre projets. Inspirée par les travaux d’Alan Perlis sur la compilation, IBM s’appuie sur son groupe d’utilisateurs SHARE pour rendre Fortran utilisable sur ses différents calculateurs scientifiques. Le groupe d’utilisateurs d’Univac, USE, imagine un supra-langage qui faciliterait l’échange de bibliothèques de programmes, et qui inspire un projet similaire de l’US Army. Le Department of Defense réunit un comité pour définir un Common business-oriented language (Cobol). Enfin plusieurs organisations s’associent pour élaborer un « langage intermédiaire », entre les langages d’application et les codes machines ; ce Universal computer-oriented language (Uncol) serait plus économique, espère-t-on, que le développement d’un compilateur pour chaque langage d’application. Cette usine à gaz linguistique sera enterrée en 1961, tandis que Cobol et Fortran décolleront sur des trajectoires durables. Mais tous ces efforts installent progressivement l’idée que la programmation peut être pensée en elle-même, sans lien avec un matériel spécifique.

    Instruction Fortran ORTRAN sur une carte perforée. Wikipedia
    Instruction Fortran ORTRAN sur une carte perforée. Wikipedia

    Entre temps, des sociétés savantes se sont attaquées au problème. L’Association for computing machinery (ACM) crée en 1957 un comité des langages. Elle est contactée par la société allemande de Mécanique et Mathématiques appliquées (GAMM), en vue de définir un langage scientifique commun. Démarche bien naturelle : les mathématiciens sont habitués à une représentation traditionnelle des mathématiques en termes linguistiques, comme « langage de la Nature », comme « grammaire de la Science », puis au XXe siècle comme un système symbolique formel. Rapidement le projet emprunte donc les chemins bien balisés de l’internationale des mathématiciens.

    Ce projet Algol (Algorithmic Language) reflète aussi leurs valeurs : universalité, rigueur dans l’expression, définition in abstracto indépendamment des contingences matérielles. Il vise deux objectifs : être à la fois un langage utilisable sur tout ordinateur et un moyen rigoureux d’expression et de communication des algorithmes. Présenté en 1959 à Paris au premier congrès international de traitement de l’information, il est spécifié l’année suivante sous le nom Algol 60, et devient un véritable programme de recherches en même temps qu’un outil de programmation. Pour la première fois, un langage informatique est défini formellement : l’auteur du Fortran, John Backus, et le Norvégien Peter Naur inventent une notation qui porte leurs noms (Backus-Naur Form, BNF), permettant de décrire les règles syntaxiques des langages. La programmation devient une discipline scientifique. Cinq ans plus tard, deux des acteurs centraux de cette histoire, John Carr et Saul Gorn, décideront de créer un prix pour couronner d’éminents travaux dans cette spécialité en rendant hommage à la mémoire d’un pionnier tombé dans l’oubli : Alan Turing.

    Pierre Mounier-Kuhn, Historien, CNRS et Université Paris-Sorbonne.

    Pour aller plus loin,

    [1] Pierre Mounier-Kuhn,  « L’Informatique en France de la seconde guerre mondiale au Plan Calcul. L’Émergence d’une science », Presses de l’Université Paris-Sorbonne, 2010.
    [2] Le projet européen « Soft-EU » a rassemblé pendant quatre ans une douzaine d’historiens venus des deux côtés de l’Atlantique. Je résume ici l’article de D. Nofre, M. Priestley et G. Alberts, « When Technology Became Language: the Origins of the Linguistic Conception of Computer Programming », Technology and Culture, 55, 1 (2014):40-75.
    [3] P. Mounier-Kuhn, « Les clubs d’utilisateurs : entre syndicats de clients, instruments marketing et logiciel libre avant la lettre”, Entreprises et Histoire, décembre 2010, vol. 60, n° 3, p. 158-169. http://www.cairn.info/resume.php?ID_ARTICLE=EH_060_0158.

    [4] P. Mounier-Kuhn, « Du code au langage », article légèrement étendu,

  • C’est la fête !

    logo_fete_de_la_science_459382Depuis 24 ans maintenant, durant toute une semaine, la science est à la fête partout en France. Avec plus d’un million de visiteurs, 7000 chercheurs impliqués et un foisonnement d’animations, d’expositions, de débats et d’initiatives originales, partout en France et pour tous les publics, la Fête de la science est une occasion de découvrir le monde des sciences et de rencontrer des scientifiques. Les sciences du numérique ne sont pas en reste, avec les multiples initiatives proposées par les établissements de recherche comme par exemple celles du CNRS et ou celles d’Inria que Marie-Agnès Enard a choisi de vous inviter à découvrir.

    Bordeaux – Sud Ouest : Circuit scientifique bordelais

    Dans le cadre du Circuit scientifique bordelais, les structures d’enseignement supérieur et de recherche et leurs laboratoires ouvrent leurs portes du 5 au 9 octobre, en proposant des ateliers ludiques aux élèves du primaire à l’université. C’est l’occasion de venir découvrir le monde passionnant de la recherche et les activités des scientifiques dans de nombreuses disciplines. Au centre Inria Bordeaux – Sud-Ouest, chercheurs et ingénieurs accueilleront les élèves de tous les niveaux et de toute l’académie pour leur transmettre leur passion pour les sciences du numérique. Pour vous inscrire, suivez le lien.

    Grenoble – Rhône Alpes  : Portes ouvertes aux lycéens !

    Inria Grenoble ouvre ses portes aux lycéens les 8 et 9 octobre pour une immersion dans le monde des sciences du numérique. Au programme : parcours de visite augmentée du centre de recherche, découverte de plateformes d’expérimentations, habitat intelligent, capture et modélisation de formes en mouvement, initiation aux notions de l’informatique par des activités ludiques sans ordinateurs, cryptologie et protection de messages, dialogue avec les scientifiques sur des problématiques de société.

    Lille – Nord Europe  : Chercheurs itinérants

    Les scientifiques du centre de Lille interviendront dans les établissements scolaires (collèges et lycées) de la Métropole lilloise, du lundi 05 au vendredi 16 octobre 2015. Au programme : réalité virtuelle, programmation objet, imagerie de synthèse, intelligence artificielle… un partage de connaissances sur des sujets qui les passionnent et enrichissent d’ores et déjà notre quotidien.Une manière pour nos chercheurs de communiquer sur leur métier, leurs thématiques et d’échanger avec des élèves afin d’enrichir leur perception de la recherche. Un partage de connaissances sur des sujets passionnants qui enrichissent notre quotidien.

    Nancy – Grand Est  : Artem fête la science

    Scientifiques et médiateurs du centre vous donnent rendez-vous sur le site d’Artem les 9 et 10 octobre prochain, pour une approche plurielle de la science, où informatique rimera avec ludique !  Au programme : robots humanoïdes, informatique sans ordinateur, jeu de société, reconnaissance d’images, envolées de drones, numérique et santé,… Manifestation co-organisée par Mines Nancy, le LORIA, l’Institut Jean Lamour et GeoRessources, avec le soutien d’Inria Nancy – Grand Est.

    Paris – Rocquencourt  : L’eau, future énergie verte ?

    Le centre Paris – Rocquencourt s’associe à la fête de la science Sorbonne Universités qui souhaite mettre en avant cette année le travail des scientifiques qui étudient le climat sous tous ses aspects. Du 9 au 11 octobre, l’équipe Ange du centre vous dira tout sur la dynamique des vagues, la houle, les énergies alternatives et vous propose une conférence sur le thème : Nouvelles vagues, de la simulation numérique à la conception.

    Rennes – Bretagne Atlantique  : Programme ton robot !

    Le centre Inria Rennes – Bretagne Atlantique sera présent au Village des sciences de Rennes du vendredi 9 au dimanche 11 octobre 2015, au Diapason sur le Campus Universitaire de Beaulieu. A cette occasion, nos scientifiques vous proposeront de créer un programme sur ordinateur puis de le tester sur un robot. Plusieurs épreuves ou défis seront proposés selon trois niveaux de difficulté permettant une acquisition progressive du langage de programmation.

    Saclay – Ile de France  : Parcours ludique à la découverte des sciences du numérique

    Le centre de recherche Inria Saclay – Ile-de-France ouvre ses portes vendredi 9 et samedi 10 octobre et invite petits et grands à la découverte des sciences du numérique au travers d’animations ludiques reflétant l’interaction entre l’informatique, les mathématiques et les autres sciences. Au programme, plusieurs ateliers animés par les chercheurs du centre : découverte des secrets de la cryptographie, bio-informatique ludique, initiation aux bases de données, introduction à la programmation et aux robots, exploration du cerveau, et plongée au cœur d’un réseau.

    Sophia Antipolis – Méditerranée  : Explorez les sciences du numérique ! 

    Les scientifiques et médiateurs du centre invitent tous les publics, petits et grands  à venir découvrir les sciences du numérique au travers d’approches concrètes et ludiques. Une programmation riche et variée vous attend à Antibes Juan-Les-Pins, Montpellier et La Seyne sur Mer les 10 et 11 octobre ainsi qu’ à Vinon-sur-Verdon le 17 octobre. Au programme : Maths de la planète Terre, traitement d’images, graphes et algorithmes, manipulations, coding goûters, initiation à la robotique, jeux de société, activités débranchées, tours de magie… Du 5 au 9 octobre, les scientifiques d’Inria interviendront également dans des lycées, un moment privilégié pour dialoguer avec les jeunes et débattre sur des thématiques ciblées, mais aussi pour parler de leur métier de scientifique tel qu’ils le vivent. Enfin nos chercheurs interviendront également dans les médiathèques de la communauté d’agglomération de Sophia Antipolis.

    Nous vous souhaitons une belle semaine festive et scientifique ! Vous pouvez d’ailleurs partager vos découvertes sur Twitter en suivant le compte @FeteScience et son mot-dièse #FDS2015 ou sur Facebook.

    Marie-Agnès Enard

  • Class’Code… c’est parti !

    Former 300 000 éducateurs, animateurs, enseignants pour que ceux-ci puissent demain utiliser le code informatique dans leurs activités devant les enfants et les adolescents, c’est le défi fou de Class’Code. Faire aussi qu’apprendre à programmer ne soit pas une fin en soi mais un moyen de s’approprier vraiment le monde numérique : ils sont totalement fous !  A Binaire, nous sommes fans de Class’Code*. Nous croyons en ce projet d’une importance considérable pour la France. Nous vous tiendrons régulièrement informé de ses avancées. Serge Abiteboul.


    L’introduction du numérique à l’école doit s’accompagner pour réussir de la formation des enseignants et d’éducateurs de qualité. Cette formation est l’objectif du projet Class’Code qui a été lancé le mardi 15 septembre.  Le projet est piloté par Inria, et soutenu par le Programme d’Investissements d’Avenir.

    Class’Code s’est donné comme défi de former, dans les 5 prochaines années, 300 000 éducateurs, animateurs et enseignants, celles et ceux qui vont avoir à éduquer au numérique les prochaines générations.

    Pour y arriver, le projet a regroupé des compétences de tous types : sociétés professionnelles de l’informatique et du numérique, acteurs de l’éducation populaire et de la médiation numérique, entreprises spécialisées dans la formation des enfants ou dans la production de MOOCs, régions, organismes de recherche et de l’enseignement supérieur… Ce sont ainsi plus de 20 partenaires qui travaillent ensemble !

    Class’code en portraits (1)

    Valérie est également Madame la Maire de Villeneuve-les-Bois. Elle a été convaincue de l’intérêt d’enseigner l’informatique en périscolaire. Elle a demandé à deux employés municipaux  qui gèrent des activités périscolaires dans la commune de suivre la formation Class’Code. Devant l’intérêt des parents (et surtout des enfants), elle a également recruté une animatrice supplémentaire : le fait que celle-ci ait suivi une formation reconnue la rassure.

    Pour former à une telle échelle, Class’Code va construire ce qui sera le plus important dispositif de formation hybride jamais mis en place :

    • Un ensemble de formations en lignes dont le principal support est la vidéo, permettant à chacun de suivre gratuitement les cours.
    • Un dispositif à l’échelle nationale permettant à chacun de s’intégrer dans un groupe local d’éducateurs qui vont se rencontrer régulièrement pour s’entraider, ajouter des activités de terrain à leur apprentissage en ligne, bénéficier de l’expérience supplémentaire de certains animateurs aguerris ou de professionnels de l’informatique (techniciens, ingénieurs, chercheurs, étudiants, enseignants), faire le lien entre les connaissances et les sujets de société dans lesquels le numérique joue un rôle primordial.

    Class’code en portraits (2)

    Kevin est employé par la Mairie de Villeneuve-les-Bois. Il intervient dans les écoles, sur le temps périscolaire. L’idée d’animer un atelier sur « le code » lui semblait intéressante, mais il ne savait pas par où commencer. Il a suivi Class’Code et réussit aujourd’hui à parler de création, de technologie, d’applications et de sciences informatiques à des enfants de 10 ans… qui adorent ça !

    L’ambition de ce projet va reposer sur beaucoup de pragmatisme, énormément de volonté, et un certain nombre de principes essentiels :

    • L’équité territoriale, un enjeu majeur et difficile. Pour éviter une possible fracture numérique demain, il convient aujourd’hui d’être attentif à ce qu’équipements et compétences atteignent toutes les banlieues, toutes les campagnes.
    • Le code comme point de rencontre de la science informatique, la technique et la société. A Class’Code, nous pensons résolument que le numérique, pour être compris, et pour ne pas faire peur, doit être abordé à travers la science et la technologie et non seulement par l’étude de ses usages ou l’analyse de ses conséquences.
    • L’informatique, comme support à une éducation ouverte. Proche des préconisations du Conseil National du Numérique, Class’Code va s’appuyer sur une pédagogie participative : le jeu, le partage, la découverte, la création… autant de leviers qui doivent trouver leur place dans la formation des éducateurs avant d’atteindre celle des enfants. Le code n’a aucune raison d’être rébarbatif. Ce n’est ni un gadget ni une fin en soi ; c’est un support privilégié pour acquérir les compétences en partageant le plaisir.
    • Le soutien des informaticiens et des professionnels du numérique (étudiants, élèves, techniciens, ingénieurs). En France, énormément de personnes, d’entreprises exercent dans leur métier l’informatique ou l’étudient… Ils ont, depuis longtemps, exprimé leur envie de contribuer à la formation de la jeunesse. Leurs entreprises, les écoles, universités et laboratoires de recherche sont souvent membres de réseaux, de fédérations, de collectifs qui ont adhéré à Class’Code et sont prêts à soutenir son action.

    Class’Code en portraits (3)

    Amine est animateur depuis 2 ans auprès d’un organisme d’éducation populaire. On lui a proposé la formation Class’Code pour devenir animateur en informatique. Il a dit oui, est vite devenue opérationnel et intervient déjà plusieurs fois par semaine auprès d’enfants de 7 à 10 ans. Il bénéficie de l’aide de Paule, ingénieure en informatique, qui lui explique les choses qui lui paraissaient trop compliquées et intervient parfois auprès de lui devant les enfants.

    • La création de ressources éducatives libres. Un enjeu majeur, mis en avant à la fois par l’UNESCO et l’OCDE est de rendre les objets du savoir librement accessibles. Le projet Class’code s’y est engagé : cela permettra, au-delà du projet, au-delà de la géographie, à d’autres initiatives de réutiliser, réadapter le matériel créé et de le partager.
    • Une démarche prenant en compte les enjeux de genre. Aujourd’hui encore, l’un des deux genres a peu accès à l’informatique. Si l’on est de ce genre, il est beaucoup plus difficile de se voir proposer les enseignements qui permettent d’avoir accès aux métiers du numérique, qui sont pourtant parmi ceux qui permettent aujourd’hui, mais surtout demain, d’exercer des emplois bien rémunérés, modernes, passionnants. Les obstacles sont nombreux et il est évident que Class’Code ne les fera pas tomber tous. Mais nous nous engageons à être vigilants sur ces questions, à remettre en cause régulièrement nos actions.

    Class’code en portraits (4)

    Paule travaille dans une entreprise du numérique. Son entreprise a été convaincue de l’intérêt de l’opération et lui a libéré du temps pour qu’elle suive le MOOC de Class’Code. Elle est ainsi devenu facilitatrice : elle contribue à la formation des animateurs et enseignants en expliquant, mais aussi en ajoutant des éléments de fond dans les débats concernant l’impact du numérique. Au début, Paule pensait n’avoir rien à apprendre car elle était informaticienne… Mais elle a vite vu qu’expliquer cela aux enfants n’était pas si simple : maintenant, elle accompagne Amine quand son emploi du temps le lui permet dans les ateliers périscolaires qu’il gère.

    Les prochaines étapes

    Grâce à un coup de pouce financier de la Région des Pays de la Loire et au soutien de la région PACA, le projet a pu se mettre en marche avant sa signature institutionnelle. Cela permet aux équipes de construire les premiers MOOCs, de mettre en place les premières infrastructures pour lancer des expérimentations dès le printemps 2016 et ouvrir les inscriptions pour la première formation à l’automne 2016.

    Class’code en portraits (5)

    Najat est Ministre de l’Éducation. Elle a compris que les ressources éducatives libres produites par Class’Code étaient susceptibles d’être réutilisées, réadaptées pour la formation des enseignants de l’Éducation Nationale. En suivant Class’Code, les enseignants peuvent non seulement se former au numérique en s’appuyant sur des connaissances scientifiques et technologiques, mais également suivre un MOOC et donc expérimenter cette nouvelle forme d’apprentissage !

    L’équipe opérationnelle de Class’Code: Camila, Camille, Claude, Colin, Daniela, Florent, Guillaume, Martine, Romain, Sophie, Thierry,  …

    Pour aller plus loin

    • Le projet Class’code. Il est possible, sur le site, de s’inscrire pour être informé(e), proposer de participer, d’aider à animer un territoire, une formation, etc.
    • Les Flots ou MOOCs (massive open online course) en anglais.
    • Les ressources éducatives libres et les positions de l’UNESCO et de l’OCDE.
    • Les questions de genre dans le secteur du numérique

    Les partenaires de Class’code. Autour de la Société informatique de France, se retrouvent unis avec Magic Makers, porté par Inria, associant OpenClassrooms, La Main à la pâte, Pasc@line, Simplon.co, Les Petits Débrouillards, la fédération des Pupilles de l’Enseignement Public, Atelier Canopé des Alpes-Maritimes, les régions des Pays de la Loire et PACA, les universités de Evry, Côte d’Azur, Nantes, et Franche-Comté, le CIGREF, l’AFDEL, en lien avec le CNAM, l’université d’Orléans, la médiathèque d’Antibes, l’initiative jecode.org, France-IOI, et ce n’est pas fini…

    (*)Label PIA Class’Code est soutenu -sous le nom de MAAISoN- au titre du Programme d’Investissements d’Avenir dont la Caisse des Dépôts est opérateur.

     

     

     

     

     

  • Tous les chercheurs skient sur les pistes de tennis

    Ce n’est pas la première et probablement pas la dernière fois que les chercheurs se font insulter ou humilier dans les médias. Mais cet exemple a quelque chose de particulier : il concentre le pire en moins de 30 secondes essayons de décrypter.

    Citation vidéo de C dans l'air 25 septembre 2015
    Cliquer sur l’image pour avoir la citation vidéo de C dans l’air 25 septembre 2015

    Voici le propos: « La recherche, juste la recherche, quand … moi qui suis [de Grenoble], il y a des centres de recherche énormes et avec des gens qui étaient nommés à vie, comment voulez vous qu’on cherche et surtout qu’on trouve pendant toute une vie, quand ils arrivent à 25 ans, 28 ans. ils sont plein d’ardeur et puis après ils vont sur les pistes de ski et dans les clubs de tennis, à Grenoble c’était comme ça, c’était tous les chercheurs qui étaient là, bien évidemment, ils sont nommés à vie, c’est terrible ça n’a pas de sens, donc y’a vraiment des domaines où on peut engager des réformes. » C dans l’air, H. Pilichowski, 25 septembre 2015.

    Du journalisme du lieu commun et de la stigmatisation.

    On ne prendra même pas la peine de se demander ce que la personne qui parle faisait dans les « clubs de ski » pour pouvoir constater que «tous les chercheurs» étaient là, ni quelles sont ses sources, ou les données qui étayent ses affirmations. Nous sommes dans le journalisme du lieu commun. Et ce qui est dans l’air en l’occurrence a l’odeur d’une flatulence.
    Le chroniqueur a ceci de bien qu’il remplace le journalisme du radio-trottoir : plus besoin de prendre une caméra pour aller manipuler la parole du peuple de la rue en lui faisant dire en quelques secondes le lieu commun qui va faire de l’audience, le chroniqueur -dans cet exemple- le remplace haut la main.
    On est forcément le métèque de quelqu’un. Et on peut saluer le fait cette attaque est tellement loin de la réalité qu’elle peine à être crédible.

    Mais il y a pire.

    Voleurs ! De notre liberté d’expression.

    Nous sommes dans un pays libre, y compris de dire le faux. Et c’est bien. Puissions-nous ne jamais perdre ce droit fondamental.
    Mais disposons-nous pleinement de notre liberté d’expression ? Nous avons la liberté de dire, certes, mais moins celle d’être entendu. Cela est vrai pour les scientifiques, mais aussi pour chacune et chacun.

    Les journalistes ne se sont-ils pas accaparés notre liberté d’expression, parlant à notre place ? Le temps de parole des personnes de la société dans les médias diminuent, et des porte-parole se sont installés qui disposent de notre droit à être écouté.

    Ainsi [un certain] journalisme scientifique se sent souvent obligé de faire de l’exceptionnel, de surfer d’effet d’annonce en effet d’annonce (on a eu le dépassement de la vitesse de la lumière, les robots qui vont dominer le monde, récemment les spermatozoïdes artificiels), pour mieux démentir ensuite (ah ben oui, il ne faisait que son métier de journaliste, il a juste dit «peut-être»). Nous aimerions entendre un peu plus les scientifiques eux-mêmes parler de leur métier, de leur recherches, de leurs passions [en collaboration avec les vrais journalistes scientifiques PROPOS CORRECTIF RAJOUTÉ le 02/10/2015].

    Rendre la parole scientifique aux chercheurs.

    Ils sont un peu moins médiatiques à écouter, mais ils partagent des grains de science qui augmentera le niveau de culture scientifique de toutes et tous dans notre société.

    Au delà de http://www.scilogs.fr , il y a des sites où s’expriment des chercheuses et des chercheurs. Voici quelques suggestions pour les sciences du numérique. 

    logo-interstices Interstices ? La revue de culture scientifique en ligne qui invite à explorer les sciences du numérique, à comprendre ses notions fondamentales, à mesurer ses enjeux pour la société, à rencontrer ses acteurs.
     logo-binaire Binaire ? Le blog du monde.fr qui parle de l’informatique, de ses réussites, de son enseignement, de ses métiers, de ses risques, des cultures et des mondes numériques.
    logo-1204 1024 ? Une revue pour les professionnels du monde de l’enseignement, de la recherche et de l’industrie de l’informatique qui permet de découvrir les différentes facettes de cette science.

    Et laissons ce genre de chroniqueurs aller voir sur les « pistes de tennis » qui est vraiment en train de glander.

    Et on aime aussi beaucoup rire de nous même.

    Mais c’est un vrai métier, alors laissons le mot de la fin à un véritable artiste .

    Les Chercheurs, Patrick Timsit, citation vidéo (photo wikipédia) : cliquer sur l’image pour voir la vidéo.

    Thierry Viéville, et un précieux travail de relecture de @chtruchet.

  • Je ne suis pas informaticienne

    Il n’est jamais trop tôt pour bien faire. Et l’informatique n’y fait pas exception. Elle est arrivée au lycée, mais cela aura pris le temps. Binaire s’intéresse à des expériences de la découverte de l’informatique à l’école primaire. Isabelle Glas nous parle d’une initiation en Île-de-France sur le temps périscolaire. Sylvie Boldo

    Je ne suis pas informaticienne. Mon créneau, c’est la communication, l’événementiel et la gestion administrative. Recrutée en 2013 par le Labex DigiCosme* pour animer le réseau et mettre en œuvre ses activités, je me suis retrouvée parachutée dans l’univers parallèle et insoupçonné des chercheurs en informatique.

    Lorsque j’ai abordé ce nouveau secteur (pensez abordage, le sabre au clair et l’âme prête au au combat), il me paraissait évident que tout le monde se préoccupait d’enseigner l’informatique aux générations futures. L’omniprésence des technologies numériques, la virtualisation des échanges, l’introduction de programmes dans tous les produits issus de l’industrie (voitures, montres, télévisions…) semblaient amplement justifier qu’on se préoccupât de munir les jeunes français(e)s d’un bagage minimum en informatique. De fait, je fus stupéfaite de découvrir l’ampleur et la durée du combat mené par les chercheurs de la discipline pour imposer cette conviction et inscrire l’informatique dans les programmes depuis les classes de primaire jusqu’aux cursus des écoles d’ingénieurs (voir http://www.epi.asso.fr).

    Par « informatique » , entendez la science et, dans un premier temps, la programmation. Il ne s’agit pas de développer à tout prix le parc numérique des écoles et de remplacer les encyclopédies papier par Wikipédia, mais d’inculquer aux enfants les bases de l’algorithmique. L’objectif est de leur laisser entrevoir la complexité des programmes derrière le lissé des interfaces, mais de façon telle qu’il ne se sentent pas intimidés par cette complexité. Pour ceux qui n’ont jamais programmé, la tâche semble insurmontable, magique, comme si l’apprentissage du code nécessitait un rite initiatique assorti d’un sacrifice à quelque déité païenne. En réalité, la programmation obéit à des bases très simples que tout le monde peut s’approprier, à condition de les apprendre et de les pratiquer. Plus que toute autre discipline, l’art de la programmation est question de rigueur, d’habitude, de réflexe. C’est l’une des raisons pour lesquelles il faut s’y prendre tôt.

    Une bonne occasion a été donnée au Labex DigiCosme d’œuvrer pour l’initiation à l’informatique des plus jeunes avec la réforme des rythmes scolaires de 2013 et l’instauration des fameux Temps d’Activités Périscolaires (TAP). Un peu de pragmatisme ne faisant pas toujours de mal, pourquoi ne pas investir ces plages horaires et profiter du « temps de cerveau disponible » pour instiller un peu d’informatique dans les chères têtes blondes et brunes ?

    Le plan a très vite fonctionné. Plusieurs chercheurs et ingénieurs volontaires (souvent parents eux-même) se sont manifestés pour participer au projet, proposer des activités et se rendre dans les écoles pour encadrer des séances. Une ébauche de programme a rapidement vu le jour, faisant appel aux outils pédagogiques crées par les chercheurs de France et du monde entier (laby, ressources pixees, concours Castor, scratch). Côté institutionnel, il n’a pas été très difficile de susciter l’intérêt de Mairies et d’établissements, séduits par le concept éducatif (et peut-être le caractère bénévole de l’animation).

    Laby

    Copie d’écran du logiciel Laby

    Cela nous mène au centre de loisirs du parc de la grande maison à Bures-sur-Yvette, l’après-midi du mercredi 27 mai 2015. Nous nous étions mis d’accord avec la Mairie pour venir tester certaines activités avec des groupes d’enfants du CE2 au CM2. Nous étions trois, Mathias Hiron (président de France-IOI), Christine Paulin (professeur à l’université Paris-Sud) et moi-même, entourés par l’équipe d’animation du centre. Le programme était divisé en deux ateliers : une partie « Castor » encadrée par Mathias Hiron et une partie « découverte de la programmation » menée par Christine Paulin et moi, centrée sur l’utilisation de Scratch Junior. Nous avions dans notre besace des tablettes flambant neuves, des castors savants et autres animaux virtuels, ainsi qu’une unité centrale et un téléphone hors d’usage prêts à exhiber leurs entrailles électroniques pour satisfaire la curiosité des enfants.

    La participation des enfants à l’activité était volontaire, dans la limite du nombre de participants que nous pensions pouvoir gérer sans nous laisser déborder. 18 enfants se présentèrent, ce qui était légèrement plus que prévu mais constituait une belle victoire sur le soleil qui brillait ce jour là avec insolence. Informatique 1 – balle aux prisonnier 0 ! Si l’un des enfant pensait qu’il allait être question de fusées, je suis raisonnablement sûre que la plupart d’entre eux avaient au moins une vague idée de ce dont il allait être question.

    Neuf enfants suivirent Mathias Hiron jusqu’aux sièges colorés au fond de la salle pendant que Christine Paulin et moi prenions en main le reste de l’effectif. L’idée était de s’échanger les groupes en cours de route. Je ne ferai pas le compte-rendu de l’atelier Castor – disons simplement que les enfants en sont sortis ravis.

    De notre côté, nous commençâmes, comme il se doit, par le début, c’est-à-dire une discussion pour tester les connaissances de notre public et établir une définition de l’ « ordinateur ». Qu’est-ce qu’un ordinateur, après tout ? Qu’est-ce qui le différencie le smartphone et le PC de la machine à laver ? Les enfants se montrèrent très réactifs sur ce thème déjà familier et la conversation permit assez facilement d’identifier les caractéristiques de l’ordinateur (pluralité des tâches, etc.). En récompense, les participants eurent le plaisir de découvrir l’intérieur d’une unité centrale et d’un téléphone portable, démontés à leur intention par l’équipe du LRI. L’étape suivante eut moins de succès et le questionnaire prévu sur les entrées (saisie clavier, clics de souris…) /sorties (affichage, son…) ne suscita qu’un intérêt modéré.

    Apparemment, il est déconseillé d’aborder trop de concepts dans une même séance. Les enfants purent se reposer devant un petit film sur les algorithmes présenté par les Sépas, des extraterrestres pas très futés qui ont grand besoin de s’instruire.

    Pour la suite, nous avions prévu de jouer au « Robot idiot », grand classique des activités débranchées. Le jeu consiste à demander à un enfant de guider un camarade hors d’un labyrinthe en lui fournissant des instructions précises et exhaustives. Tel un robot exécutant un programme, l’enfant guidé doit suivre exactement les instructions, sans en corriger les insuffisances – la finalité étant de montrer que l’origine des « bugs » se trouve dans les programmes. L’activité était conçue pour que les participants construisent d’abord l’algorithme à l’aide de flèches directionnelles dessinées sur des cartons avant de passer à la mise en situation. Il fut toutefois difficile d’obtenir la dichotomie théorie / test, les enfants apparaissant nettement plus attirés par l’aspect  jeu de rôle que par la réflexion sur le processus. Nous assistâmes cependant à de mémorables interprétations de R2D2.

    Pour finir en beauté et emporter définitivement l’adhésion de notre public, nous pouvions compter sur « l’effet tablette ». La technologie a cet étrange pouvoir de transformer les enfants fatigués et agités en chérubins sages et motivés (si-si). Nous vîmes même des enfants sacrifier leur pause pour profiter plus longtemps de Scratch junior. Malgré leur empressement, les enfants se montrèrent très civils dans le partage du medium afin que chaque membre du groupe puisse en profiter.

    Scratch (et son dérivé utilisable sur tablette, Scratch junior) est l’un des outils les plus connus en matière d’initiation ludique à l’informatique. Conçu par le MIT, il permet d’élaborer des animations en programmant les actions de personnages et objets placés dans un décor au choix de l’utilisateur (plusieurs paysages sont proposés, en ville, à la campagne, sur la lune ou sous l’océan…). Les commandes de programmation sont matérialisées par des briques (avancer, tourner, agrandir …) à associer pour faire bouger chaque élément.

    Scratch Junior

    Exemple de création, © MIT et les enfants de Bures-sur-Yvette

    L’application connut un grand succès auprès des enfants qui demandèrent même le lien pour la retrouver en ligne. La prise en main étant très intuitive, notre groupe n’eut pas de mal à s’approprier les fonctions de base suite à une simple (et courte) démonstration des principaux outils. Ravis par les horizons ouverts à leur créativité (notamment les outils interactif permettant d’enregistrer sa voix, de colorier les personnages), les enfants s’emparèrent immédiatement du jeu pour proposer les scénarios les plus variés et réaliser des créations, parfois très esthétiques.

    L’expérience fut moins concluante sur l’aspect algorithmique. Peu d’élèves s’intéressèrent aux fonctions plus avancées, la majorité préférant se servir des éléments immédiatement utilisables. C’est toutefois ce qui fait l’ingéniosité de Scratch : les outils plus complexes apparaissant lorsque l’utilisateur souhaite créer des animations plus riches, c’est l’imagination qui sert de guide à l’apprentissage. Jamais bloqués dans leur élan, les enfants viennent eux-même s’informer sur les concepts lorsqu’ils deviennent nécessaires à leur création.

    Dans notre cas, la grande faiblesse du dispositif résidait dans l’impossibilité de télécharger les projets pour les stocker hors des tablettes (option possible avec Scratch sur PC). Très fiers de leur(s) projet(s), nos informaticiens en herbe auraient aimé pouvoir les retrouver pour les montrer à leurs parents. A défaut, nous eûmes le privilège d’assister à des démonstrations itératives de chauves souris en vol et d’atterrissage de fusées au fond de la mer.

    À la fin de l’après-midi, fourbus mais heureux, nous fûmes récompensés par une petite voix qui nous demanda avec espoir « mais alors, vous revenez quand ? ».

    Isabelle GLAS, chargée de projets communication et formation, Labex DigiCosme

    (*) Le Laboratoire d’Excellence Digicosme est un projet financé par les Investissements d’Avenir qui fédère les laboratoires en informatique de 11 établissements et instituts de recherche de l’Université Paris-Saclay.

  • Christine Paulin et les Logiciels Zéro Défaut

    Nous avons tous été exposés à des bugs, des programmes informatiques qui bloquent ou ne fonctionnent pas comme prévu. Des informaticiens s’attaquent à ce problème essentiel et Christine Paulin-Mohring, professeur à l’Université Paris Sud, en fait partie. Elle a reçu récemment le prestigieux prix ACM Software System, conjointement avec d’autres développeurs du logiciel Coq, et cette année le prix Monpetit de l’Académie des sciences pour ses travaux sur la vérification de logiciels. Binaire a profité de ces occasions pour demander à un spécialiste du domaine, Jean-Christophe Filliâtre, de nous parler de la recherche de Christine. Serge Abiteboul et Anne-Marie Kermarrec.

    Christine Paulin, ©Inria
    Christine Paulin-Mohring, © Inria

    Au début des années 80, Gérard Huet initie la construction d’un démonstrateur interactif de théorèmes à l’Inria Rocquencourt. Ce sera le logiciel Coq. C’est un assistant de preuve. Contrairement à un démonstrateur automatique de théorème, qui essaie de trouver par lui-même une preuve d’une proposition logique qu’on lui soumet, un assistant de preuve comme Coq s’appuie sur une coopération avec un humain qui lui propose des chemins pour arriver à une preuve. Un tel assistant de preuve est un outil incomparable, par sa capacité à vérifier les hypothèses logiques de l’humain et, quand il est aussi sophistiqué que Coq, à « remplir les trous », prouvant automatiquement des étapes parfois complexes. De tels assistants permettent de s’attaquer à des théorèmes au delà de ce qui est envisageable aujourd’hui avec des démonstrateurs purement automatiques.

    Thierry Coquand et Gérard Huet ont conçu la logique sous-jacente de Coq, le calcul des constructions. Christine Paulin, elle, a étendu cette logique avec une nouvelle construction, les types inductifs, et un mécanisme d’extraction qui permet d’obtenir automatiquement un programme zéro défaut à partir d’une preuve.

    Les types de données sont des composants essentiels des langages de programmation ; un entier ou un tableau d’entiers sont des exemples de types. La logique de Coq permettait déjà de raisonner sur un système de type assez riche. Christine Paulin l’a étendue pour pouvoir parler de « types inductifs ». Un type inductif est un type de données qui est défini en faisant référence au type que l’on est justement en train de définir. Par exemple, une liste de machins est soit une liste vide, soit un machin suivi d’une liste de machins. C’est un tour de force technique que d’avoir introduit de tels types dans le logiciel Coq et cela l’a considérablement enrichi. Grâce à cela, des résultats mathématiques majeurs ont pu être vérifiés avec Coq. Ainsi, Georges Gonthier et son équipe ont pu valider le théorème des quatre couleurs, qui dit que toute carte peut être coloriée avec quatre couleurs uniquement, en assurant que deux régions contigües reçoivent toujours deux couleurs distinctes, et plus récemment le théorème de Feit-Thompson, un résultat de théorie des groupes dont la preuve tient sur plus de deux cent cinquante pages.

    Une contribution essentielle de Christine Paulin au logiciel Coq est un mécanisme par lequel une preuve vérifiée par Coq peut être automatiquement convertie en un programme zéro défaut. Si par exemple on a fait la preuve que tout entier pair est le double d’un autre entier, alors on obtiendra automatiquement un programme qui calcule cet entier, c’est-à-dire un programme qui divise par deux. Par ce mécanisme, le logiciel Coq peut être utilisé pour vérifier des logiciels. Xavier Leroy a du reste développé avec Coq un compilateur(*)  du langage C, CompCert, qui est zéro défaut.

    Plus généralement, grâce à ces travaux et ceux de Christine en particulier, il est possible d’obtenir un programme qui résout un problème potentiellement très complexe et dont on est certain qu’il est garanti conforme à ses spécifications. Les exemples ne manquent pas pour illustrer à quel point il est important qu’un programme informatique fasse exactement ce pour quoi il a été conçu : on imagine aisément l’étendue des problèmes qui découleraient d’un Airbus, d’une banque ou d’une centrale nucléaire qui « buguent ».

    Coq est développé depuis plus de trente ans au sein d’équipes de recherche françaises, mobilisant des talents chez Inria, au CNRS, à l’École Polytechnique, à l’ENS Lyon et dans des universités comme Paris Sud et Paris Diderot. L’impact de Coq sur la communauté scientifique est immense. (Le logiciel Coq a reçu en 2013 le prix ACM SIGPLAN in Programming Languages, un prix international prestigieux.) Christine Paulin a contribué de façon essentielle au logiciel Coq et à son succès.

    Jean-Christophe Filliâtre, Université Paris Saclay

    (*) Un compilateur C est un programme informatique qui transforme un code source écrit en C, en langage machine de manière à ce qu’un ordinateur, dont la langue maternelle n’est pas le C mais le binaire (un ordinateur comprend des 0 et des 1), puisse l’exécuter.

     

  • Bientôt un commissariat à la souveraineté numérique ?

    En juin dernier, Pierre Bellanger intervenait dans le cadre du café techno de l’association Inria Alumni. L’occasion pour Binaire de discuter avec le fondateur et PDG de Skyrock autour de son ouvrage La souveraineté numérique paru l’année dernière chez Stock.

    « La mondialisation a dévasté nos classes populaires. L’Internet va dévorer nos classes moyennes. » 
    « La grande dépression que nous connaissons depuis cinq ans n’est qu’un modeste épisode en comparaison du cataclysme qui s’annonce. La France et l’Europe n’ont aucune maîtrise sur cette révolution. L’Internet et ses services sont contrôlés par les Américains. L’Internet siphonne nos emplois, nos données, nos vies privées, notre propriété intellectuelle, notre prospérité, notre fiscalité, notre souveraineté. Nous allons donc subir ce bouleversement qui mettra un terme à notre modèle social et économique. Y a-t-il pour nous une alternative ? Oui. » Pierre Bellanger

    Pierre Bellanger, Café techno Inria Alumni, juin 2015, © Marie Jung
    Pierre Bellanger, Café techno Inria Alumni, juin 2015, © Marie Jung

    Internet est né comme espace de liberté. Et puis cette liberté s’est rétrécie sous la pression d’entreprises pour lesquelles Internet est avant tout un business. Internet est en train de modifier notre société en profondeur, et est devenu en cela un sujet politique. L’analyse de Pierre Bellanger est bien documentée, brillante, très partagée sans doute.  Sa réponse autour de la « souveraineté numérique » est plus originale, plus discutable. Avec un Web par nature universel, dans un monde qu’on dit de plus en plus mondialisé, Pierre Bellanger propose des solutions qui peuvent paraître datées comme un Commissariat national ou une grande Agence nationale. Mais, il pose des questions, il propose une vraie réflexion sur des problèmes qui semblent dépasser nos décideurs. Discutons des problèmes et de ses propositions !

    Le patron de Skyrock part d’un constat simple : le numérique est en train de bouleverser de nombreux secteurs (des taxis à la grande distribution) et la société civile tout comme nos élus ont du mal à s’y adapter, voire à y répondre. « Il y a déjà eu par le passé, une révolution technique scientifique fondamentale qui a bouleversé les populations civiles : celle de l’atome. A l’époque, la position de la France était intéressante. Nous avons décidé qu’il nous fallait une souveraineté atomique et nous avons créé un commissariat à l’énergie atomique » avance le patron de Skyrock. Selon lui, un commissariat à l’économie numérique serait le bienvenu pour favoriser l’émergence d’un écosystème numérique national.

    Au delà des structures étatiques, il faudrait comprendre de quels moyens on dispose. Que fait le gouvernement actuel ? Il encourage la création d’un écosystème de startups. Selon Pierre Bellanger, les actions actuelles seraient trop sectorielles, et mettraient trop en avant ces startups. « Pour moi, les startups ne sont pas une réponse. Comme si, dans le secteur automobile, on axait sa stratégie sur la carrosserie et l’équipement au lieu de s’intéresser au moteur. Dans le numérique, on lâche petit à petit les secteurs menacés, en pensant à chaque fois, qu’on s’en sortira bien soi-même. »

    Mais c’est quoi le moteur ? On aimerait comprendre comment on crée une telle stratégie. Pierre Bellanger donne sa réponse. Il en appelle à la souveraineté numérique pour reprendre la maîtrise de notre destin sur les réseaux numérique. « Ce qui définit notre liberté, c’est le droit. Et ce qui garantit le droit, c’est la souveraineté » explique-t-il. Mais qui dit souveraineté numérique dit territoire et frontières. Des frontières sur Internet ? « Le chiffrement pourrait servir de frontière, en nous autorisant à choisir ce que les autres ne peuvent déchiffrer qu’avec notre accord. A l’heure actuelle, dès que des données de citoyens européens arrivent aux US, elles ne sont pas protégées par le droit européen ni américain. Cette absence de droit pourrait être palliée avec le chiffrement. Une donnée chiffrée serait toujours sous souveraineté européenne où qu’elle se trouve » décrit Pierre Bellanger.

    En plus du chiffrement, Pierre Bellanger avance l’idée d’un système d’exploitation souverain. Cet OS souverain aiderait à mettre de l’ordre dans le code. « Refaire Google, ce n’est pas une solution. Il faut avoir un OS qui soit un socle et que tout un écosystème se mettent en mouvement au dessus, en commençant par exemple par faire passer la carte vitale sur cet OS » explique Pierre Bellanger.

    Le cœur de toute cette industrie du numérique sur Internet, c’est la donnée personnelle que les grandes plateformes récupèrent et stockent massivement. L’un des problèmes vient donc de la définition et de la portée des données personnelles. Quand un individu donne accès à son carnet d’adresse, il fournit des informations sur lui-même, mais aussi sur d’autres sans que ces autres en soient informés et bien sûr sans qu’ils aient donné leur autorisation. Pour Pierre Bellanger, le statut juridique de ces données devrait être redéfini en prenant en compte cette particularité. On sent bien que le contrôle des données personnels est un véritable sujet, les plateformes hésitant entre deux tendances qu’elles utilisent selon leurs intérêts du moment : ces données n’appartiennent à personne et les plateformes peuvent donc s’en saisir, ou ces données appartiennent à l’utilisateur qui peut donc leur en céder la jouissance. Pierre Bellanger écarte ces deux écueils en prônant le fait que ces données appartiennent à toutes les personnes qu’elles concernent et que donc personne ne peut se les accaparer ou en céder la jouissance.

    Pierre Bellanger imagine une agence des données, proche de la Cnil, pour contrôler ce qu’on fait des données. Pour gérer chiffrement et OS, il verrait bien la création de quelques organismes chargés d’épauler le commissariat au numérique. Une cour des codes similaire à la cour des comptes. Une agence transversale pour s’occuper de l’OS souverain. Et la justice pour gérer les identités des personnes.

    Si Pierre Bellanger tente d’exploiter son statut d’homme des médias pour faire passer ces idées aux élus et dirigeants d’entreprise, il bute trop souvent contre l’absence de culture numérique de ceux-ci et contre leur « logique provinciale » selon ses mots. « Ils ont décidé de ne pas être le centre de gravité, d’être une province des Etats-Unis. Nous sommes dans la logique du « c’est fait aux Etats-Unis, donc c’est bien » ». A coup de Commissariat, et d’Agences, il propose d’organiser tout cela autour de l’ambition de la souveraineté nationale. Qui veut le suivre dans cette direction qui revient peut être au goût du jour ?

    Serge Abiteboul et Marie Jung

    Pour aller plus loin avec Pierre Bellanger

    • Pierre Bellanger, Principes et pratiques des données personnelles, Contribution à l’étude 2014 du Conseil d’État : Technologies numériques et libertés et droits fondamentaux.
    • Pierre Bellanger, La souveraineté numérique, Stock, 2014.

     

  • Bravo Véronique !

    Le prix Jeune Chercheu-r-se Inria – Académie des Sciences, a été décerné cette année à Véronique Cortier, Directrice de Recherche du CNRS à Nancy. Véronique est une amie de Binaire qui a déjà écrit plusieurs articles pour nous. Ses recherches portent sur la vérification automatique de programmes, notamment l’analyse des protocoles de sécurité. Nous avons demandé à une autre spécialiste de ce domaine, Stéphanie Delaune, de nous parler du parcours de cette chercheuse brillante qui, partie des mathématiques, et, malgré quelques réticences, a fini par être séduite par l’informatique. Serge Abiteboul.

    ©
    Véronique Cortier

    Les protocoles cryptographiques sont des petits programmes destinés à sécuriser nos communications. Sans même nous en apercevoir, nous les utilisons tous les jours pour effectuer des tâches plus ou moins critiques. Ils sont utilisés par exemple pour garantir la confidentialité de nos données bancaires lors d’un achat en ligne, ou encore le respect de notre anonymat lors d’une procédure de vote électronique. J’en profite d’ailleurs pour vous inviter à consulter sur ce blog la série d’articles rédigés par Véronique autour du vote électronique (voir en fin d’article).

    L’utilisation de ces protocoles est en général indolore, mais un protocole mal conçu peut avoir des conséquences désastreuses. Une faille dans un protocole peut permettre à un agent malveillant d’effectuer des opérations frauduleuses sur votre compte bancaire ou de truquer les résultats d’une élection. Indolore… pas tant que ça !

    Afin de pouvoir garantir en amont qu’un protocole particulier satisfait les propriétés de sécurité souhaitées, il est important de les vérifier. Le but des recherches menées par Véronique, et par les chercheurs de son équipe, consiste à développer des techniques d’analyse rigoureuses, et si possible automatiques, pour assurer le bon fonctionnement de ces protocoles de sécurité. Pour cela, il faut traduire protocoles et propriétés de sécurité en formules mathématiques, et développer des méthodes permettant de les analyser.

    Véronique Cortier s’est intéressée, dès son plus jeune âge, aux mathématiques. Elle rejoint l’École Normale Supérieure de Cachan en 1997. Elle avait alors une piètre opinion de l’informatique, qui consistait pour elle principalement à modifier les fichiers de configuration de Windows. Grâce à des professeurs comme Antoine Petit et Hubert Comon-Lundh, elle découvre une discipline fascinante, pleine de problèmes d’actualité, et où les mathématiques jouent un rôle beaucoup plus grand qu’elle ne l’imaginait, un terrain de jeu idéal pour cette passionnée de sciences !

    L’informatique se conjugue aussi brillamment au féminin !

    Stéphanie Delaune CNRS, ENS Cachan

    Pour aller plus loin, relire les articles de Véronique Cortier sur Binaire :

    Et un article de Stéphanie Delaune :

    Retrouvez tous les lauréats 2015 des Prix Inria – Académie des sciences

  • Code Week 2015, ça roule !

    Plusieurs initiatives aident à comprendre les fondements de l’informatique. Le Castor Informatique pour les élèves, l’heure du code pour les jeunes de tous âges, et l’initiative européenne de la semaine du code, juste après la Fête de la Science qui fêtera aussi la Science Informatique.

    logo-codeweekOn repart donc pour une semaine de festivités autour de l’initiation à la programmation, de concert avec tous les autres pays européens, du 10 au 18 octobre 2015. C’est l’occasion de permettre à chacune et chacun, de ma garagiste à mon fleuriste, de comprendre cette informatique qui a généré notre monde numérique. Le comprendre ? Oui, de manière concrète : on s’amuse a créer un petit objet numérique en le programmant pour expérimenter et s’approprier les notions plus abstraites de cette nouvelle science. Et on devient ainsi une personne éclairée sur ces sujets.

    Bienvenue à toutes les bonnes volontés en lien avec Rendez-vous sur le site Code Week France et sur la mailing-liste grâce à ce formulaire. Les hashtags à suivre serontles suivants : #codeweek2015 #codeFR.

    Thierry Viéville.

  • Libérez les logiciels !

    Des traitements informatiques sont réalisés sur une grande variété de matériel, des senseurs, des cartes à puces, des téléphones, des tablettes, des ordinateurs personnels, des systèmes de contrôle, de gros serveurs.  Tous ces traitements sont décrits par des séquences d’instructions qui composent des « logiciels ». Parmi ces logiciels, les « logiciels libres » jouent aujourd’hui un rôle essentiel. Pour comprendre de quoi il s’agit, nous avons demandé à un des meilleurs spécialistes du domaine, Roberto Di Cosmo, de  rappeler quelques notions techniques, et quelques principes de droit. Liberez les logiciels  !  Serge Abiteboul.

    Roberto Di Cosmo, Wikipédia
    Roberto Di Cosmo, Wikipédia

    Logiciel, code source et code exécutable

    Derrière le mot « logiciel » se cache une réalité d’une grande complexité : les concepteurs de logiciels doivent décrire les traitements informatiques souhaités dans une forme accessible à un être humain, le code source, qui est ensuite transformé par des outils avancés en une série d’instructions élémentaires optimisées, directement exploitables par un microprocesseur, le code exécutable. Entre ces deux niveaux, la distance est grande, et à partir d’un code exécutable il est en général difficile de reconstruire un code source utilisable pour comprendre ce que le logiciel fait vraiment.  Pour s’en faire une idée, il suffit de regarder la figure suivante, qui montre un exemple de code source très simple, et un extrait du code exécutable correspondant

    codeÉvidemment, ces deux formes d’un logiciel ont des finalités différentes. Un développeur sera essentiellement intéressé au code source, pour le comprendre, le corriger, le modifier et l’adapter à ses besoins. De son coté, un utilisateur sera seulement intéressé à ce que l’exécutable tourne bien sur une machine pour lui permettre de lire ce blog, de regarder une vidéo, etc.

    Qui peut faire quoi avec un logiciel ?

    Le logiciel étant un objet relativement récent, il s’est retrouvé assimilé aux livres, les pièces de théâtre ou les autres « créations de l’esprit » qui sont couvertes par le « droit d’auteur ». Mais un logiciel et un livre n’étant pas du tout de même nature, on a dû rapidement introduire un bon nombre d’exceptions particulières pour répondre aux besoins de l’industrie du logiciel, qui l’a utilisé pour construire un modèle économique resté en usage pendant des longues décennies.

    Un exemple amusant de la confusion induite par l’application du droit d’auteur à un objet technique comme le logiciel se trouve dans le jugement rendu lors d’un procès [1] opposant deux entreprises américaines en 1979 : le juge considérait que le code source était bien une œuvre de l’esprit, mais pas le code exécutable. En bref, copier du logiciel exécutable aurait été parfaitement légal ! Bien évidemment, cela n’était pas du tout du goût de l’industrie, et le nécessaire fut vite fait pour corriger le tir.

    Aujourd’hui, il est communément admis qu’on ne peut exécuter, copier, modifier, diffuser, réaliser de la rétro ingénierie, ou faire quoi que ce soit d’utile avec un logiciel sans l’autorisation du détenteur des droits sur ce logiciel.  Cette autorisation prend la forme bien connue d’une « licence d’utilisation » (techniquement, un contrat de mise à disposition d’un logiciel) qui précise ce que le détenteur des droits autorise. Le plus souvent, cela concerne uniquement le droit d’exécuter une copie de la version exécutable du logiciel sur une seule machine, et cela ne donne pas de droit de lecture sur le code source, ou a fortiori, de droit de modification, par exemple pour enlever des mouchards électroniques. L’industrie du logiciel traditionnelle a vécu longtemps en vendant ces licences, par ailleurs pleines de conditions restrictives que la plupart d’entre nous ne prennent malheureusement pas la peine de lire.

    La révolution copernicienne du logiciel libre

    Au début de l’informatique, les informaticiens avaient l’habitude de s’échanger librement leurs logiciels, en particulier le code source, pour pouvoir améliorer les logiciels, en ajoutant des fonctionnalités ou en retirant des erreurs, avant que l’utilisation du droit d’auteur ne vienne imposer l’usage des licences des logiciels. Petit à petit, en parallèle de l’utilisation massive de licences dans l’industrie visant à créer de la valeur économique, on a vu depuis les années 1970 apparaître des licences qui avaient exactement la vocation contraire : permettre à tous d’utiliser et partager du logiciel, dans le but de créer autrement de la valeur, plus universellement. C’était le cas de TeX, d’Unix, et bien d’autres logiciels majeurs.

    Richard Stallman, Fête de l'Humanité, 2014
    Richard Stallman, Fête de l’Humanité, 2014. Wikipédia.

    Au milieu des années 1980, cette révolution copernicienne, qui consistait à utiliser le droit d’auteur et ses licences non pas pour restreindre, mais pour faciliter et garantir la diffusion du logiciel, trouva son théoricien dans la personne de Richard Stallman. C’est lui qui définit formellement le « logiciel libre » (free software), comme un logiciel diffusé avec une licence qui donne à son utilisateur quatre droits (libertés) fondamentaux:

    • le droit d’utiliser le logiciel ;
    • le droit d’étudier et modifier le logiciel (et pour cela, d’obtenir son code source) ;
    • le droit de distribuer le logiciel originel ; et
    • le droit de distribuer le logiciel modifié, y compris le code source modifié.

    Initialement limitée à un cercle restreint de développeurs et d’utilisateurs, cette notion de logiciel libre, ainsi que les licences logicielles et les pratiques de développement collaboratif associées, ont connu une diffusion spectaculaire, au point qu’aujourd’hui pratiquement tout logiciel existant contient au moins quelques composants en logiciel libre, et on a inventé un autre terme, « logiciel propriétaire » pour designer les logiciels qui ne sont pas des logiciels libres.

    office apache mysql gnu latex linux

    Pourquoi est-ce si important ?

    Il serait trop long de considérer ici toutes les raisons qui font du logiciel libre un pilier du développement technologique moderne, au point que même les industries qui lui étaient les plus hostiles lui ouvrent aujourd’hui largement leurs portes. Mais il en est une dont il est essentiel d’avoir conscience : dans un monde moderne où pratiquement toute activité passe par des systèmes informatiques, chaque individu doit être en condition de pouvoir savoir ce que ces systèmes font avec les informations qui le concernent et cette responsabilisation nécessite de s’appuyer sur des logiciels libres.

    Chacun d’entre nous, informaticien ou non, doit pouvoir être en condition de trouver une réponse satisfaisante à des questions comme :

    • Est-ce que le logiciel qui fait tourner mon téléphone protège bien la confidentialité de mes informations personnelles ?
    • Est-ce que le logiciel embarqué dans mon pace maker est bien conçu ?
    • Si ce n’est pas le cas, puis-je faire modifier ou réparer ces logiciels par des personnes de mon choix ?

    Si les logiciels en questions sont des logiciels libres, il est tout à fait possible de répondre à de telles questions. Si je ne comprends rien à l’informatique, je peux faire confiance à des experts de mon choix, aux experts d’associations en qui j’ai confiance. S’il s’agit de logiciels propriétaires, cela sera excessivement plus difficile.

    En fait, vous avez déjà rencontré une situation très semblable, dans le cadre de la justice.  Vous êtes sûrement très attachés au fait que le code source du droit, les lois, soit publique et accessible a tous. Si vous êtes dépassés par la complexité des lois, des experts sont là pour vous aider. Maintenant, de la même façon que vous n’accepteriez pas des boites noires qui délivreraient des jugements obscurs dans des tribunaux à huit-clos, vous ne devez pas accepter des logiciels qui traitent vos données dans l’opacité du code propriétaire.

    En ce XXIème siècle, «toutes les libertés dépendent des libertés informatiques» [2].

    Roberto Di Cosmo, Professeur, Université Paris-Diderot

    [1] Datacash vs. JSA, 79 C 591, 26 Septembre 1979, Illinois District Court.

    [2] Toutes les libertés dépendent des libertés informatiques, propos de Richard Stallman recueuillis par Marie Lechner, Juin 2006, Liberation.fr/Écrans.

  • La révolution informatique dans les sciences

    Quand Gérard Berry nous expliquait «pourquoi et comment le monde était devenu numérique» [1] il réfléchissait déjà au fait que nos sciences aussi sont devenues numériques. Quelques années plus tard, venons partager sa pensée sur ces sujets.

    Café techno : Inria Alumni, en partenariat avec NUMA et le blog binaire, vous invite à débattre avec Gérard Berry, professeur au Collège de France le 24 septembre 2015 de 18:30 – 20:30. Plutôt pour les parisiens.

    NUMA Sentier, 39 rue du Caire, 75002 Paris
    NUMA Sentier, 39 rue du Caire, 75002 Paris

    Après avoir utilisé l’informatique comme simple moyen de calcul, les sciences les plus variées découvrent maintenant qu’elle offre une nouvelle façon de raisonner et d’agir. Quelques exemples en astronomie et physique, mais aussi dans des sciences traditionnellement peu mathématisées comme la biologie et la médecine.

    Pour vous inscrire : numa

    Serge Abiteboul.

    [1] Pourquoi et comment le monde est devenu numérique, Gérard Berry, leçon inaugurale au collège de France, 2007

  • L’isoloir : un jeu numérique, sérieux mais pas rasoir

    Expliquer le numérique : vaste programme. Évidemment, le numérique peut aider. Tralalère, Inria, Universcience, Les Atomes Crochus et Traces ont unis leurs forces pour proposer un jeu numérique sérieux, l’Isoloir. Ils le racontent à Binaire. Serge Abiteboul.

    L’Isoloir se présente sous la forme d’une machine à voter qui permet « d’exprimer une opinion », puis de se documenter afin « d’approfondir des choix » et « de formuler des propositions » de lois éclairées. L’isoloir propose aussi un document pédagogique permettant de préparer avec la classe des sujets de réflexion citoyenne, en utilisant des documents préparés à cet effet. L’Isoloir considère 5 grands enjeux de la citoyenneté numérique:  liberté d’expression, identité numérique, éducation au numérique, gouvernance d’internet, géolocalisation.

    L’exemple de l’identité numérique.

    Commençons par …voter. Quelle est notre opinion initiale sur ce sujet ? C’est en découvrant les options possibles que nous entrons dans le sujet :

    isoloir-1Une fois ce choix exprimé, comment aller plus loin ? Il faut se documenter sur le sujet :

    isoloir-2Qu’était la notion d’identité avant Internet ? Qu’est-ce qu’Internet a changé ? La prise recul va enrichir notre opinion :

    isoloir-4Nous sommes alors en mesure de faire évoluer notre opinion initiale ou au contraire de mieux l’argumenter, de discuter avec les autres joueurs sur ces sujets, voire de proposer des choix de société :

    isoloir-3Voici comment, en jouant collectivement en présentiel ou en ligne, nous pouvons enrichir notre vision citoyenne sur des sujets, ici des sujets liés au numérique.

    Charlotte Barrois de Sarigny, Fabienne Baudin, Marie-Hélène Comte, Pascale Garreau, Ronan James, Sophie De Quatrebarbes, François Rigaud, Thierry Viéville.

    Contenu repris de pixees.fr
    En savoir plus :

     


  • Femmes et numérique, y a-t-il un bug ?

    @Maev59
    @Maev59

    « Le numérique a connu et provoqué des mutations majeures dans notre société, mais l’évolution des mentalités à l’égard des femmes se fait attendre ».

    Pour en débattre, la Cité des Sciences organise, en partenariat avec le magazine Pour la Science et le Centre Hubertine Auclert, une table ronde le vendredi 16 octobre 2015 à 18h00 à la Cité des Sciences.

     

    Des personnalités d’horizons divers sont attendues pour évoquer ce sujet :

    • Fanny Lignon, maîtresse de conférences, cinéma audiovisuel à l’université Claude Bernard Lyon 1 ;
    • Antoine Petit, informaticien, président-directeur général de l’Institut national de recherche en informatique et en automatique (Inria) ;
    • Pascale Vicat-Blanc, informaticienne, directrice senior Cloud Architecture chez F5 Networks, prix Irène Joliot-Curie en 2011 ;
    • Angela Washko, artiste et activiste américaine.

    Pour en savoir plus : Femmes et numérique, y a-t-il un bug ?

    Marie-Agnès Enard

  • Des consensus tout sauf mous

    Michel Raynal
    Michel Raynal

    Michel Raynal, Professeur à l’Université de Rennes 1  et membre senior de l’Institut Universitaire de France est un passionné. Il aime les voyages, adore la littérature, ne se lasse pas des côtes bretonnes (malgré ses origines du Sud-Ouest), encore moins du rugby (probablement en raison de ces mêmes origines).  Michel aurait pu devenir un grand scientifique dans bien des domaines. C’est dans l’informatique qu’il est tombé, et plus particulièrement dans cette même région de l’Ouest où d’autres se sont retrouvés dans une marmite de potion magique. Michel Raynal est le lauréat du SIROCCO Innovation Award 2015 pour ses travaux en informatique distribuée. C’est l’occasion de découvrir ce domaine passionnant.

    Un système distribué est un système composé de plusieurs entités (téléphone, capteur, ordinateur par exemple), connectées par un réseau de communication, c’est-à-dire qui peuvent communiquer  (en filaire, par wifi, etc.) et qui, ensemble,  s’attaquent à un problème comme de réaliser un calcul ou chercher de l’information. Nous vivons aujourd’hui dans un monde où la majorité des systèmes est distribuée. Par exemple, les données relatives aux comptes Facebook d’un ensemble d’amis sont dispersées aux quatre coins du monde ; pourtant lorsqu’un utilisateur met à jour son statut, tous ses amis doivent être notifiés, qu’ils soient connectés depuis le Maroc ou la Chine et que leurs données soient hébergées en Inde ou dans la Silicon Valley.  Nos données, comme celles des entreprises, sont distribuées sur des serveurs ; on parle du cloud. La même donnée peut être répliquée sur plusieurs serveurs pour des raisons de fiabilité notamment.

    Turing s’est un jour posé la question de ce que sa machine universelle était capable de calculer. Malheureusement, son formalisme ne s’applique pas aux systèmes distribués. Évidemment, les experts se sont posés la question de savoir ce qu’il est possible de calculer dans un système distribué, notamment le problème du consensus qui a été particulièrement étudié. Le problème est le suivant : chaque entité propose une valeur et à la fin du calcul toutes doivent s’être mises d’accord sur l’une de ces valeurs. C’est le type de fonctionnalité dont on a besoin, par exemple, pour assurer la cohérence de données répliquées dans le Cloud. Pour illustrer le besoin de consensus, prenons l’exemple de données bancaires répliquées sur les machines A en France et B aux États-Unis. Ces données sont répliquées pour des raisons de tolérance aux pannes, de sorte que si une machine contenant ces données tombe en panne, l’autre continue de fonctionner. Ceci permet en outre aussi aux utilisateurs des États-Unis d’avoir un accès rapide depuis la machine B et aux utilisateurs européens d’avoir un accès rapide depuis la machine A. Considérons maintenant la situation suivante : Alice effectue un débit de 100$ depuis la France (sur la machine A) de son compte, dont le solde est de 1000$. L’ordre de débit est envoyé à la machine A mais aussi à la machine B pour assurer que les comptes soient cohérents. Le banquier, depuis la machine B, lui décide de verser des intérêts de 10% sur ce compte. Cet ordre de calcul d’intérêt est aussi envoyé aux deux machines. La communication prend du temps pour traverser l’Atlantique, si bien que la machine A reçoit d’abord l’ordre de débit puis celui des intérêts, appliquant donc 10% à un solde de 900$, le solde résultant est alors 990$, alors que la machine B, applique les intérêts, puis le débit, le solde étant alors de 1000$. Pour assurer un bon fonctionnement il est essentiel que les deux machines exécutent les instructions dans le même ordre et pour ce faire doivent atteindre un consensus.

    Fisher, Lynch et Patterson [FLP85] ont montré en 1985 que le consensus était impossible dans un système réparti asynchrone* dans lequel les machines peuvent tomber en panne. La preuve est longue et intriquée et il faudrait demander à Michel Raynal de nous l’expliquer. Pour faire court, dans un système asynchrone, si une entité ne répond pas, on ne sait pas différencier si c’est une question de lenteur, ou si c’est une défaillance de l’entité. Et on peut soit attendre éternellement  le message alors que l’entité est défaillante ou alors prendre une décision et voir le message arriver trop tard et contredire notre décision. Michel Raynal a reçu le Sirocco Innovation Award en particulier pour ses travaux relatifs à ce problème de consensus, développant de nouveaux résultats à partir du théorème d’impossibilité de Fisher, Lynch et Patterson.

    Que peut faire un chercheur en algorithmique distribuée quand un problème est impossible à résoudre ? Il étudie les hypothèses à relâcher pour que le problème devienne résoluble. Par exemple, pour le problème du consensus, on peut décider de prendre l’hypothèse que les messages entre les entités prennent un temps borné. Le consensus devient alors possible. Que peut-il faire quand on sait résoudre le problème ? Il peut chercher un algorithme plus efficace, par exemple plus rapide, demandant moins de messages, moins de calcul. Afin de  contourner l’impossibilité du consensus en asynchrone, Michel Raynal  avec ses collègues Achour Mostéfaoui et Sergio Rajsbaum ont par exemple proposé une nouvelle méthode à base de conditions [2]. L’idée est de dénombrer les « conditions », c’est à dire les configurations pour lesquelles on sait comment obtenir un consensus. Michel a alors conçu des algorithmes qui permettaient de s’adapter à ces conditions, rendant ainsi l’obtention d’un consensus possible [3].

    Le prix de Michel Raynal reconnait ses contributions scientifiques. Pour conclure, on pourrait souligner que Michel assure la relève formant des jeunes chercheurs, et en leur  transmettant son enthousiasme et sa passion.

    Anne-Marie Kermarrec, Inria Rennes

    (*) Dans un système synchrone, les opérations sont coordonnées sous un contrôle centralisé basé sur les signaux d’une horloge. Par opposition, un système asynchrone, en revanche, n’a pas d’horloge globale. Les différentes entités doivent utiliser des communications pour coordonner leurs tâches.

    Références

    [1] Michael J. Fisher, Nancy A. Lynch, and Michael S. Paterson. Impossibility of distributed consensus with one faulty process. Journal of the Association for Computing Machinery, 32(2) :374–382, april 1985.

    [2] Achour Mostéfaoui, Sergio Rajsbaum, Michel Raynal: Conditions on input vectors for consensus solvability in asynchronous distributed systems. J. ACM 50(6): 922-954 (2003)

    [3] Achour Mostéfaoui, Sergio Rajsbaum, Michel Raynal. Efficient Condition-Based Consensus. SIROCCO 2001.

  • L’informatique privée d’ordinateur

    « L’informatique sans ordinateur », c’est le titre d’un article de Baptiste Mélès que je vous encourage à lire, dans Images des Mathématiques, une revue du CNRS. Et Baptiste d’enfoncer le clou dès l’incipit : « L’informatique a la fâcheuse réputation d’être la science des ordinateurs. » Il y aurait une informatique sans ordinateur ? Pire, les ordinateurs lui feraient-ils de l’ombre ?

    Baptiste raconte l’informatique sans ordinateur à travers trois exemples :

    • Internet par pigeons voyageurs. Baptiste nous explique comment Internet fonctionne. Surtout, il nous explique que ce fonctionnement est indépendant de l’ordinateur et pourrait être réalisé… avec un dispositif de papier, d’encre et de pigeons.
    • La recherche d’un mot dans un dictionnaire. Il nous présente un algorithme « diviser pour conquérir », qu’un humain peut réaliser tout autant qu’un ordinateur.
    • La programmation sur papier. Il nous montre comment écrire des programmes en UML, un langage qui n’exige aucun ordinateur, qui permet à des êtres humains de spécifier des algorithmes, de collaborer entre eux, d’échanger des idées, même s’ils vont utiliser au final des logiciels très différents.

    L’article de Baptiste est important parce qu’il s’attaque à la confusion que beaucoup font entre ordinateur et informatique.

    Le mot « informatique » est tellement plus juste que computer science – la science des ordinateurs ! Reprenons la définition du texte de la Société Informatique de France :

    L’informatique est la science et la technique de la représentation de l’information d’origine artificielle ou naturelle, ainsi que des processus algorithmiques de collecte, stockage, analyse, transformation, communication et exploitation de cette information, exprimés dans des langages formels ou des langues naturelles et effectués par des machines ou des êtres humains, seuls ou collectivement. L’informatique : la science au cœur du numérique

    L’informatique n’est pas juste la science des ordinateurs. Depuis Turing, des chercheurs en informatique le montrent dans des résultats éblouissants aux frontières des mathématiques. Les enseignants le découvrent également aussi, notamment en primaire, à travers « l’informatique débranchée » (CS unplugged) Les élèves apprennent loin de tout ordinateur, autour de jeux, les notions au cœur de l’informatique, comme l’information et sa communication, les algorithmes et les ressources qu’ils demandent.

    Et pour conclure, j’emprunterai une phrase de Baptiste : « Si l’ordinateur est l’objet informatique par excellence, c’est simplement parce que les concepts et méthodes informatiques y sont mobilisés de façon massive — mais non de façon exclusive. »

    Serge Abiteboul Inria

    En savoir plus ? Beaucoup d’activités débranchées sont présentées sur pixees.fr :

    Introduire la notion de complexité pour classer les problèmes, et la recherche de solution optimale ou approchée ? Il suffit de trouver le plus court chemin avec une … planche à clou ! En savoir plus.
    ©Inria et pixees.fr
    Faire découvrir la cryptographie sous forme de jeux aux plus petits ? Il suffit de deviner comment passer un message secret avec une clé secrète alors que … tout le monde voit tout ! Essayer de trouver vous aussi. En savoir plus.
    ©Image des maths. Le vidéo est une coproduction Tralalère, XD Production et Universcience.
  • Attaque à l’italienne

    Cet article fait suite à la série de billets sur le vote (Qu’est ce qu’un bon système de vote,  Le vote papier est il plus sûr que l’électroniqueLes bonnes propriétés d’un système de vote électronique). Cette fois, il ne s’agit pas de discuter des différents systèmes propres à assurer la sécurité et la vérifiabilité d’une élection mais de relever des faiblesses propres à tous les systèmes.

    Parmi ces faiblesses, une attaque amusante mais peu connue est « l’attaque à l’italienne ». Cette attaque est possible dès que l’espace des votes est important. Qu’est-ce que l’espace des votes ? En France, les élections sont en général « simples »: il s’agit de choisir un candidat (ou une liste) parmi une dizaine tout au plus. La situation est très différente dans d’autres pays. Prenons le cas de l’Allemagne. Lors de l’élection de la chambre d’un Lander (par exemple celui de la Hesse), les électeurs ont la liberté de composer la chambre de leur choix. Chaque parti politique propose une liste composée des candidats, dont le nombre est variable selon les partis. Un électeur peut choisir une liste et sélectionner ainsi tous les candidats de cette liste. Mais il peut également ajouter des voix à certains candidats, rayer certains candidats et ajouter des candidats d’autres listes. Un règlement complexe a été mis en place pour lever les éventuelles ambiguïtés et éviter un trop grand nombre de bulletins invalides. J’invite le lecteur curieux à lire l’article wikipedia (en allemand) pour une explication détaillée et illustrée des différentes règles, ou bien à utiliser l’interface mise en place pour explorer les différentes manières de remplir correctement un bulletin.

    En quoi ce type d’élections peut-il être exploité pour mener une attaque ? La clef de l’attaque est la taille de l’espace des votes. Considérons ainsi le cas extrême du bulletin de vote utilisé lors d’une élection au sein de la commune de Francfort en 2011, où plus de 861 candidats étaient proposés pour un total de 93 sièges. Sans même calculer toutes les possibilités, un rapide calcul indique qu’il y a plus 93 choix parmi 861 soit plus de 10^126 façons différentes de remplir un bulletin. Si, de plus, on tient compte de la position des croix (1ère, 2ème ou 3ème colonne), on arrive alors à plus de 10^172 possibilités.
    Un attaquant peut utiliser ce large choix pour « signer » un bulletin. Considérons le cas simplifié où les électeurs disposent de seulement 15 voix chacun et supposons que Charlie souhaite forcer Alice à voter pour le parti politique C sur le bulletin affiché ci-dessous. Il exige alors qu’elle remplisse le bulletin de la manière suivante:

    • 2 croix devant chaque candidat de la liste C (soit 8 voix au total)
    • 7 croix placées selon une combinaison particulière choisie par Charlie.
    Bulletin rempli d'après une image de Sven Teschke (Licence : CC-BY-SA-2.0-DE)
    Bulletin rempli d’après une image de Sven Teschke (Licence : CC-BY-SA-2.0-DE)

    Lors du dépouillement, Charlie s’assurera qu’un tel bulletin est bien présent dans l’urne. Comme il est très improbable qu’un autre électeur ait choisi exactement la même combinaison des votes (notamment pour la partie affichée en rouge sur la figure), Alice est obligée d’obéir à Charlie sous peine de représailles après le dépouillement.

    En France, ce type de scénarios est improbable car le nombre de choix est très limité. Cependant, c’est exactement pour cette raison qu’il est interdit d’apposer un signe distinctif sur un bulletin, que ce soit un symbole ou un mot particulier, ou bien un pliage original (un bulletin en forme de girafe par exemple). Notons tout de même que malgré cette interdiction, Charlie a encore la possibilité de forcer Alice à s’abstenir, ou plus précisément, de la forcer à voter nul. Il suffit en effet que Charlie demande à Alice de plier son bulletin en forme de girafe (ou tout autre signe distinctif convenu à l’avance). Un tel bulletin sera comptabilisé comme un vote nul et Charlie pourra s’assurer qu’Alice a bien suivi sa consigne en assistant au dépouillement.

    Véronique Cortier, CNRS – Nancy

    À la suite de la publication de ce billet, Roberto Di Cosmo m’a signalé que les attaques à l’italienne sont encore très vivaces dans la mémoire des Italiens. Ainsi, un film, « Le porteur de Serviette » avec Nanni Moretti, de 1991, fait de ce type d’attaque un élément de son histoire (voir l’extrait en italien). Une pétition (en italien) rappelle l’usage massif fait dans le passé de l’attaque à l’italienne sur les élections à choix multiples, qui ont été remplacées par d’autres schéma de votes. Cette pétition dévoile de nouvelles méthodes utilisées par la Mafia, signale qu’un vote peut se vendre 50 Euros au marché noir, et demande de nouveaux changements des règles électorales.

  • La fable de l’écolier, de l’hôtelier et de l’informaticien,

    GillesDowekUne interview de Gilles Dowek, auteur de la rubrique Homo sapiens informaticus dans Pour la Science.

    Dans le numéro de Pour la Science de septembre, qui sort ce 19 août, la chronique Homo sapiens informaticus nous parle d’écoliers, d’hôteliers et d’informaticiens. Quelle est l’origine de cette chronique ?

    G.D. L’idée de cette chronique m’est venue en lisant, dans la presse, à la fois des articles hostiles à l’enseignement de l’informatique, selon lesquels il est aussi utile de savoir programmer que de savoir changer les segments de pistons du moteur de sa voiture, et d’autres consacrés à l’inquiétude des chefs d’entreprises français, qui commencent à prendre conscience du risque d’être pris de vitesse par les plateformes de commerce en ligne, telles booking, airbnb, amazon, uber, … La relation entre les deux est frappante : d’un côté on continue de penser que les tâches techniques peuvent être déléguées à des techniciens, de l’autre on prend conscience que ces techniciens sont en train de prendre le pouvoir. Je voulais souligner que c’est précisément parce que les hôteliers, les libraires, les taxis, … ne comprennent pas ce qu’est un programme, qu’ils se laissent déposséder.

    … oui de la presse quotidienne [1] au rapport du CNNum [2, page 87] le constat est unanime !

    Comme les hôteliers auraient-ils pu se prémunir de ces informaticiens ?

    G.D. C’est une fausse bonne idée de penser que le développement de logiciels peut se sous-traiter. Car contrairement aux mécaniciens qui, en général, changent les segments de pistons des moteurs des voitures de leurs clients, puis leur rendent ces voitures, les informaticiens exploitent souvent eux-même les objets qu’ils construisent. Les hôteliers auraient donc dû apprendre suffisamment d’informatique, sinon pour construire eux-même un site de réservation en ligne, au moins pour comprendre comment un tel site est construit et comment il permet d’échanger des informations avec ses clients. Ils auraient ainsi pu être les premiers à développer de tels sites et être les acteurs de la transformation de leur métier, au lieu d’en être les victimes.

    oui oui c’est justement ce que la chronique explique plus en détails !

    Et au delà de cette fable, que trouve-t-on au fil des numéros dans la chronique Homo sapiens informaticus ?

    J’essaie de montrer comment l’informatique change différents aspects de nos vies : le savoir, la pensée, l’écriture, l’école, le travail, l’économie, le corps, la mort, les institutions, …

    Et pourquoi ce nom de Homo sapiens informaticus ?

    Les historiens attirent notre attention sur le fait que chacune des révolutions techniques de la préhistoire – la pierre taillée, la pierre polie, l’agriculture, la céramique, la métallurgie, l’écriture, … – a complètement transformé l’humanité. Certains philosophes contemporains – notamment Michel Serres et, après lui, Michel Puech – nous montrent que cela s’applique aussi aux révolutions techniques plus récentes. En partant d’exemples concrets, j’essaie de comprendre, chronique après chronique, qui est homo sapiens informaticus et en quoi il diffère de son lointain ancêtre : l’homme du XXe siècle.

  • Vous savez quoi ? « Girls Can Code! »

    ÉducationTu ne seras pas forcément informaticienne, ma fille, mais la programmation informatique sera un sujet que tu maîtriseras dans ce monde devenu numérique : vazy !

    C’est un stage gratuit pour apprendre à coder, comprendre les bases de l’informatique, et rencontrer d’autres personnes motivées à ne pas uniquement consommer, mais aussi co-construire le monde numérique. Un stage de programmation entre collégiennes et lycéennes du 24 au 29 août à Paris. Grâce à France-IOI et Prologin.

    Et quelqu’un (un mec, sûrement) va dire «mais pourquoi devraient-« elles´´ avoir un traitement particulier ?» … n’est ce pas l’aveu d’une dissymétrie ? Oui : une dissymétrie de la société [1].  Et dès qu’on se donne les moyens de ne pas créer cette dissymétrie, comme dans le cadre du concours Castor Informatique (avec 46% de filles), ou d’aider à la corriger [2] comme le fait cette initiative, alors les choses bougent.

    Concrètement: Il est encore temps de s’inscrire: il suffit de remplir le formulaire sur gcc.prologin.org avant le 1er août. Le stage est entièrement gratuit et ouvert à toute fille née en 1995 ou après et qui n’est pas encore détentrice du baccalauréat.L’organisation prend en charge la restauration et l’hébergement à l’hôtel, mais pas les frais de transport jusqu’au lieu de stage. D’ici le stage, il est utile de se créer un compte sur France-ioi et se laisser guider par les exercices.

    Serge Abiteboul et Thierry Viéville.

    [1] Collet, Isabelle (2011). Effet de genre, le paradoxe des études d’informatique, TIC & Société, [En ligne], 5(1)

    [2] Le MOOC Égalité Femmes-Hommes pour aider à comprendre et faire changer les choses à ce sujet

    Note: Binaire essaie de ne pas sombrer dans le monde très masculin des sciences en ouvrant ses articles à un grand nombre d’amies. Au delà la journée des droits de la femme (Bonne fête des Meufes !, L’informatique: pour nous, les femmes!), on s’y interroge sur ce sujet (Où sont les femmes ?, Barbie est moins conne qu’on le dit) et parle bien volontiers de (Et un, et deux, et trois femmes Prix Turing !La pétulante Grace HopperLa visionnaire Ada Lovelace).