Catégorie : Numérique

  • Class’Code… c’est parti !

    Former 300 000 éducateurs, animateurs, enseignants pour que ceux-ci puissent demain utiliser le code informatique dans leurs activités devant les enfants et les adolescents, c’est le défi fou de Class’Code. Faire aussi qu’apprendre à programmer ne soit pas une fin en soi mais un moyen de s’approprier vraiment le monde numérique : ils sont totalement fous !  A Binaire, nous sommes fans de Class’Code*. Nous croyons en ce projet d’une importance considérable pour la France. Nous vous tiendrons régulièrement informé de ses avancées. Serge Abiteboul.


    L’introduction du numérique à l’école doit s’accompagner pour réussir de la formation des enseignants et d’éducateurs de qualité. Cette formation est l’objectif du projet Class’Code qui a été lancé le mardi 15 septembre.  Le projet est piloté par Inria, et soutenu par le Programme d’Investissements d’Avenir.

    Class’Code s’est donné comme défi de former, dans les 5 prochaines années, 300 000 éducateurs, animateurs et enseignants, celles et ceux qui vont avoir à éduquer au numérique les prochaines générations.

    Pour y arriver, le projet a regroupé des compétences de tous types : sociétés professionnelles de l’informatique et du numérique, acteurs de l’éducation populaire et de la médiation numérique, entreprises spécialisées dans la formation des enfants ou dans la production de MOOCs, régions, organismes de recherche et de l’enseignement supérieur… Ce sont ainsi plus de 20 partenaires qui travaillent ensemble !

    Class’code en portraits (1)

    Valérie est également Madame la Maire de Villeneuve-les-Bois. Elle a été convaincue de l’intérêt d’enseigner l’informatique en périscolaire. Elle a demandé à deux employés municipaux  qui gèrent des activités périscolaires dans la commune de suivre la formation Class’Code. Devant l’intérêt des parents (et surtout des enfants), elle a également recruté une animatrice supplémentaire : le fait que celle-ci ait suivi une formation reconnue la rassure.

    Pour former à une telle échelle, Class’Code va construire ce qui sera le plus important dispositif de formation hybride jamais mis en place :

    • Un ensemble de formations en lignes dont le principal support est la vidéo, permettant à chacun de suivre gratuitement les cours.
    • Un dispositif à l’échelle nationale permettant à chacun de s’intégrer dans un groupe local d’éducateurs qui vont se rencontrer régulièrement pour s’entraider, ajouter des activités de terrain à leur apprentissage en ligne, bénéficier de l’expérience supplémentaire de certains animateurs aguerris ou de professionnels de l’informatique (techniciens, ingénieurs, chercheurs, étudiants, enseignants), faire le lien entre les connaissances et les sujets de société dans lesquels le numérique joue un rôle primordial.

    Class’code en portraits (2)

    Kevin est employé par la Mairie de Villeneuve-les-Bois. Il intervient dans les écoles, sur le temps périscolaire. L’idée d’animer un atelier sur « le code » lui semblait intéressante, mais il ne savait pas par où commencer. Il a suivi Class’Code et réussit aujourd’hui à parler de création, de technologie, d’applications et de sciences informatiques à des enfants de 10 ans… qui adorent ça !

    L’ambition de ce projet va reposer sur beaucoup de pragmatisme, énormément de volonté, et un certain nombre de principes essentiels :

    • L’équité territoriale, un enjeu majeur et difficile. Pour éviter une possible fracture numérique demain, il convient aujourd’hui d’être attentif à ce qu’équipements et compétences atteignent toutes les banlieues, toutes les campagnes.
    • Le code comme point de rencontre de la science informatique, la technique et la société. A Class’Code, nous pensons résolument que le numérique, pour être compris, et pour ne pas faire peur, doit être abordé à travers la science et la technologie et non seulement par l’étude de ses usages ou l’analyse de ses conséquences.
    • L’informatique, comme support à une éducation ouverte. Proche des préconisations du Conseil National du Numérique, Class’Code va s’appuyer sur une pédagogie participative : le jeu, le partage, la découverte, la création… autant de leviers qui doivent trouver leur place dans la formation des éducateurs avant d’atteindre celle des enfants. Le code n’a aucune raison d’être rébarbatif. Ce n’est ni un gadget ni une fin en soi ; c’est un support privilégié pour acquérir les compétences en partageant le plaisir.
    • Le soutien des informaticiens et des professionnels du numérique (étudiants, élèves, techniciens, ingénieurs). En France, énormément de personnes, d’entreprises exercent dans leur métier l’informatique ou l’étudient… Ils ont, depuis longtemps, exprimé leur envie de contribuer à la formation de la jeunesse. Leurs entreprises, les écoles, universités et laboratoires de recherche sont souvent membres de réseaux, de fédérations, de collectifs qui ont adhéré à Class’Code et sont prêts à soutenir son action.

    Class’Code en portraits (3)

    Amine est animateur depuis 2 ans auprès d’un organisme d’éducation populaire. On lui a proposé la formation Class’Code pour devenir animateur en informatique. Il a dit oui, est vite devenue opérationnel et intervient déjà plusieurs fois par semaine auprès d’enfants de 7 à 10 ans. Il bénéficie de l’aide de Paule, ingénieure en informatique, qui lui explique les choses qui lui paraissaient trop compliquées et intervient parfois auprès de lui devant les enfants.

    • La création de ressources éducatives libres. Un enjeu majeur, mis en avant à la fois par l’UNESCO et l’OCDE est de rendre les objets du savoir librement accessibles. Le projet Class’code s’y est engagé : cela permettra, au-delà du projet, au-delà de la géographie, à d’autres initiatives de réutiliser, réadapter le matériel créé et de le partager.
    • Une démarche prenant en compte les enjeux de genre. Aujourd’hui encore, l’un des deux genres a peu accès à l’informatique. Si l’on est de ce genre, il est beaucoup plus difficile de se voir proposer les enseignements qui permettent d’avoir accès aux métiers du numérique, qui sont pourtant parmi ceux qui permettent aujourd’hui, mais surtout demain, d’exercer des emplois bien rémunérés, modernes, passionnants. Les obstacles sont nombreux et il est évident que Class’Code ne les fera pas tomber tous. Mais nous nous engageons à être vigilants sur ces questions, à remettre en cause régulièrement nos actions.

    Class’code en portraits (4)

    Paule travaille dans une entreprise du numérique. Son entreprise a été convaincue de l’intérêt de l’opération et lui a libéré du temps pour qu’elle suive le MOOC de Class’Code. Elle est ainsi devenu facilitatrice : elle contribue à la formation des animateurs et enseignants en expliquant, mais aussi en ajoutant des éléments de fond dans les débats concernant l’impact du numérique. Au début, Paule pensait n’avoir rien à apprendre car elle était informaticienne… Mais elle a vite vu qu’expliquer cela aux enfants n’était pas si simple : maintenant, elle accompagne Amine quand son emploi du temps le lui permet dans les ateliers périscolaires qu’il gère.

    Les prochaines étapes

    Grâce à un coup de pouce financier de la Région des Pays de la Loire et au soutien de la région PACA, le projet a pu se mettre en marche avant sa signature institutionnelle. Cela permet aux équipes de construire les premiers MOOCs, de mettre en place les premières infrastructures pour lancer des expérimentations dès le printemps 2016 et ouvrir les inscriptions pour la première formation à l’automne 2016.

    Class’code en portraits (5)

    Najat est Ministre de l’Éducation. Elle a compris que les ressources éducatives libres produites par Class’Code étaient susceptibles d’être réutilisées, réadaptées pour la formation des enseignants de l’Éducation Nationale. En suivant Class’Code, les enseignants peuvent non seulement se former au numérique en s’appuyant sur des connaissances scientifiques et technologiques, mais également suivre un MOOC et donc expérimenter cette nouvelle forme d’apprentissage !

    L’équipe opérationnelle de Class’Code: Camila, Camille, Claude, Colin, Daniela, Florent, Guillaume, Martine, Romain, Sophie, Thierry,  …

    Pour aller plus loin

    • Le projet Class’code. Il est possible, sur le site, de s’inscrire pour être informé(e), proposer de participer, d’aider à animer un territoire, une formation, etc.
    • Les Flots ou MOOCs (massive open online course) en anglais.
    • Les ressources éducatives libres et les positions de l’UNESCO et de l’OCDE.
    • Les questions de genre dans le secteur du numérique

    Les partenaires de Class’code. Autour de la Société informatique de France, se retrouvent unis avec Magic Makers, porté par Inria, associant OpenClassrooms, La Main à la pâte, Pasc@line, Simplon.co, Les Petits Débrouillards, la fédération des Pupilles de l’Enseignement Public, Atelier Canopé des Alpes-Maritimes, les régions des Pays de la Loire et PACA, les universités de Evry, Côte d’Azur, Nantes, et Franche-Comté, le CIGREF, l’AFDEL, en lien avec le CNAM, l’université d’Orléans, la médiathèque d’Antibes, l’initiative jecode.org, France-IOI, et ce n’est pas fini…

    (*)Label PIA Class’Code est soutenu -sous le nom de MAAISoN- au titre du Programme d’Investissements d’Avenir dont la Caisse des Dépôts est opérateur.

     

     

     

     

     

  • Bientôt un commissariat à la souveraineté numérique ?

    En juin dernier, Pierre Bellanger intervenait dans le cadre du café techno de l’association Inria Alumni. L’occasion pour Binaire de discuter avec le fondateur et PDG de Skyrock autour de son ouvrage La souveraineté numérique paru l’année dernière chez Stock.

    « La mondialisation a dévasté nos classes populaires. L’Internet va dévorer nos classes moyennes. » 
    « La grande dépression que nous connaissons depuis cinq ans n’est qu’un modeste épisode en comparaison du cataclysme qui s’annonce. La France et l’Europe n’ont aucune maîtrise sur cette révolution. L’Internet et ses services sont contrôlés par les Américains. L’Internet siphonne nos emplois, nos données, nos vies privées, notre propriété intellectuelle, notre prospérité, notre fiscalité, notre souveraineté. Nous allons donc subir ce bouleversement qui mettra un terme à notre modèle social et économique. Y a-t-il pour nous une alternative ? Oui. » Pierre Bellanger

    Pierre Bellanger, Café techno Inria Alumni, juin 2015, © Marie Jung
    Pierre Bellanger, Café techno Inria Alumni, juin 2015, © Marie Jung

    Internet est né comme espace de liberté. Et puis cette liberté s’est rétrécie sous la pression d’entreprises pour lesquelles Internet est avant tout un business. Internet est en train de modifier notre société en profondeur, et est devenu en cela un sujet politique. L’analyse de Pierre Bellanger est bien documentée, brillante, très partagée sans doute.  Sa réponse autour de la « souveraineté numérique » est plus originale, plus discutable. Avec un Web par nature universel, dans un monde qu’on dit de plus en plus mondialisé, Pierre Bellanger propose des solutions qui peuvent paraître datées comme un Commissariat national ou une grande Agence nationale. Mais, il pose des questions, il propose une vraie réflexion sur des problèmes qui semblent dépasser nos décideurs. Discutons des problèmes et de ses propositions !

    Le patron de Skyrock part d’un constat simple : le numérique est en train de bouleverser de nombreux secteurs (des taxis à la grande distribution) et la société civile tout comme nos élus ont du mal à s’y adapter, voire à y répondre. « Il y a déjà eu par le passé, une révolution technique scientifique fondamentale qui a bouleversé les populations civiles : celle de l’atome. A l’époque, la position de la France était intéressante. Nous avons décidé qu’il nous fallait une souveraineté atomique et nous avons créé un commissariat à l’énergie atomique » avance le patron de Skyrock. Selon lui, un commissariat à l’économie numérique serait le bienvenu pour favoriser l’émergence d’un écosystème numérique national.

    Au delà des structures étatiques, il faudrait comprendre de quels moyens on dispose. Que fait le gouvernement actuel ? Il encourage la création d’un écosystème de startups. Selon Pierre Bellanger, les actions actuelles seraient trop sectorielles, et mettraient trop en avant ces startups. « Pour moi, les startups ne sont pas une réponse. Comme si, dans le secteur automobile, on axait sa stratégie sur la carrosserie et l’équipement au lieu de s’intéresser au moteur. Dans le numérique, on lâche petit à petit les secteurs menacés, en pensant à chaque fois, qu’on s’en sortira bien soi-même. »

    Mais c’est quoi le moteur ? On aimerait comprendre comment on crée une telle stratégie. Pierre Bellanger donne sa réponse. Il en appelle à la souveraineté numérique pour reprendre la maîtrise de notre destin sur les réseaux numérique. « Ce qui définit notre liberté, c’est le droit. Et ce qui garantit le droit, c’est la souveraineté » explique-t-il. Mais qui dit souveraineté numérique dit territoire et frontières. Des frontières sur Internet ? « Le chiffrement pourrait servir de frontière, en nous autorisant à choisir ce que les autres ne peuvent déchiffrer qu’avec notre accord. A l’heure actuelle, dès que des données de citoyens européens arrivent aux US, elles ne sont pas protégées par le droit européen ni américain. Cette absence de droit pourrait être palliée avec le chiffrement. Une donnée chiffrée serait toujours sous souveraineté européenne où qu’elle se trouve » décrit Pierre Bellanger.

    En plus du chiffrement, Pierre Bellanger avance l’idée d’un système d’exploitation souverain. Cet OS souverain aiderait à mettre de l’ordre dans le code. « Refaire Google, ce n’est pas une solution. Il faut avoir un OS qui soit un socle et que tout un écosystème se mettent en mouvement au dessus, en commençant par exemple par faire passer la carte vitale sur cet OS » explique Pierre Bellanger.

    Le cœur de toute cette industrie du numérique sur Internet, c’est la donnée personnelle que les grandes plateformes récupèrent et stockent massivement. L’un des problèmes vient donc de la définition et de la portée des données personnelles. Quand un individu donne accès à son carnet d’adresse, il fournit des informations sur lui-même, mais aussi sur d’autres sans que ces autres en soient informés et bien sûr sans qu’ils aient donné leur autorisation. Pour Pierre Bellanger, le statut juridique de ces données devrait être redéfini en prenant en compte cette particularité. On sent bien que le contrôle des données personnels est un véritable sujet, les plateformes hésitant entre deux tendances qu’elles utilisent selon leurs intérêts du moment : ces données n’appartiennent à personne et les plateformes peuvent donc s’en saisir, ou ces données appartiennent à l’utilisateur qui peut donc leur en céder la jouissance. Pierre Bellanger écarte ces deux écueils en prônant le fait que ces données appartiennent à toutes les personnes qu’elles concernent et que donc personne ne peut se les accaparer ou en céder la jouissance.

    Pierre Bellanger imagine une agence des données, proche de la Cnil, pour contrôler ce qu’on fait des données. Pour gérer chiffrement et OS, il verrait bien la création de quelques organismes chargés d’épauler le commissariat au numérique. Une cour des codes similaire à la cour des comptes. Une agence transversale pour s’occuper de l’OS souverain. Et la justice pour gérer les identités des personnes.

    Si Pierre Bellanger tente d’exploiter son statut d’homme des médias pour faire passer ces idées aux élus et dirigeants d’entreprise, il bute trop souvent contre l’absence de culture numérique de ceux-ci et contre leur « logique provinciale » selon ses mots. « Ils ont décidé de ne pas être le centre de gravité, d’être une province des Etats-Unis. Nous sommes dans la logique du « c’est fait aux Etats-Unis, donc c’est bien » ». A coup de Commissariat, et d’Agences, il propose d’organiser tout cela autour de l’ambition de la souveraineté nationale. Qui veut le suivre dans cette direction qui revient peut être au goût du jour ?

    Serge Abiteboul et Marie Jung

    Pour aller plus loin avec Pierre Bellanger

    • Pierre Bellanger, Principes et pratiques des données personnelles, Contribution à l’étude 2014 du Conseil d’État : Technologies numériques et libertés et droits fondamentaux.
    • Pierre Bellanger, La souveraineté numérique, Stock, 2014.

     

  • Attaque à l’italienne

    Cet article fait suite à la série de billets sur le vote (Qu’est ce qu’un bon système de vote,  Le vote papier est il plus sûr que l’électroniqueLes bonnes propriétés d’un système de vote électronique). Cette fois, il ne s’agit pas de discuter des différents systèmes propres à assurer la sécurité et la vérifiabilité d’une élection mais de relever des faiblesses propres à tous les systèmes.

    Parmi ces faiblesses, une attaque amusante mais peu connue est « l’attaque à l’italienne ». Cette attaque est possible dès que l’espace des votes est important. Qu’est-ce que l’espace des votes ? En France, les élections sont en général « simples »: il s’agit de choisir un candidat (ou une liste) parmi une dizaine tout au plus. La situation est très différente dans d’autres pays. Prenons le cas de l’Allemagne. Lors de l’élection de la chambre d’un Lander (par exemple celui de la Hesse), les électeurs ont la liberté de composer la chambre de leur choix. Chaque parti politique propose une liste composée des candidats, dont le nombre est variable selon les partis. Un électeur peut choisir une liste et sélectionner ainsi tous les candidats de cette liste. Mais il peut également ajouter des voix à certains candidats, rayer certains candidats et ajouter des candidats d’autres listes. Un règlement complexe a été mis en place pour lever les éventuelles ambiguïtés et éviter un trop grand nombre de bulletins invalides. J’invite le lecteur curieux à lire l’article wikipedia (en allemand) pour une explication détaillée et illustrée des différentes règles, ou bien à utiliser l’interface mise en place pour explorer les différentes manières de remplir correctement un bulletin.

    En quoi ce type d’élections peut-il être exploité pour mener une attaque ? La clef de l’attaque est la taille de l’espace des votes. Considérons ainsi le cas extrême du bulletin de vote utilisé lors d’une élection au sein de la commune de Francfort en 2011, où plus de 861 candidats étaient proposés pour un total de 93 sièges. Sans même calculer toutes les possibilités, un rapide calcul indique qu’il y a plus 93 choix parmi 861 soit plus de 10^126 façons différentes de remplir un bulletin. Si, de plus, on tient compte de la position des croix (1ère, 2ème ou 3ème colonne), on arrive alors à plus de 10^172 possibilités.
    Un attaquant peut utiliser ce large choix pour « signer » un bulletin. Considérons le cas simplifié où les électeurs disposent de seulement 15 voix chacun et supposons que Charlie souhaite forcer Alice à voter pour le parti politique C sur le bulletin affiché ci-dessous. Il exige alors qu’elle remplisse le bulletin de la manière suivante:

    • 2 croix devant chaque candidat de la liste C (soit 8 voix au total)
    • 7 croix placées selon une combinaison particulière choisie par Charlie.
    Bulletin rempli d'après une image de Sven Teschke (Licence : CC-BY-SA-2.0-DE)
    Bulletin rempli d’après une image de Sven Teschke (Licence : CC-BY-SA-2.0-DE)

    Lors du dépouillement, Charlie s’assurera qu’un tel bulletin est bien présent dans l’urne. Comme il est très improbable qu’un autre électeur ait choisi exactement la même combinaison des votes (notamment pour la partie affichée en rouge sur la figure), Alice est obligée d’obéir à Charlie sous peine de représailles après le dépouillement.

    En France, ce type de scénarios est improbable car le nombre de choix est très limité. Cependant, c’est exactement pour cette raison qu’il est interdit d’apposer un signe distinctif sur un bulletin, que ce soit un symbole ou un mot particulier, ou bien un pliage original (un bulletin en forme de girafe par exemple). Notons tout de même que malgré cette interdiction, Charlie a encore la possibilité de forcer Alice à s’abstenir, ou plus précisément, de la forcer à voter nul. Il suffit en effet que Charlie demande à Alice de plier son bulletin en forme de girafe (ou tout autre signe distinctif convenu à l’avance). Un tel bulletin sera comptabilisé comme un vote nul et Charlie pourra s’assurer qu’Alice a bien suivi sa consigne en assistant au dépouillement.

    Véronique Cortier, CNRS – Nancy

    À la suite de la publication de ce billet, Roberto Di Cosmo m’a signalé que les attaques à l’italienne sont encore très vivaces dans la mémoire des Italiens. Ainsi, un film, « Le porteur de Serviette » avec Nanni Moretti, de 1991, fait de ce type d’attaque un élément de son histoire (voir l’extrait en italien). Une pétition (en italien) rappelle l’usage massif fait dans le passé de l’attaque à l’italienne sur les élections à choix multiples, qui ont été remplacées par d’autres schéma de votes. Cette pétition dévoile de nouvelles méthodes utilisées par la Mafia, signale qu’un vote peut se vendre 50 Euros au marché noir, et demande de nouveaux changements des règles électorales.

  • Contre les robots tueurs

    Les progrès de la robotique et de l’intelligence artificielle sont sur le point de permettre la construction d’armes autonomes pour chercher et éliminer des cibles humaines. Ce serait une révolution dans l’industrie de l’armement : actuellement, même les drones sont commandés à distance. Jusqu’à présent, les robots sont des exécutants mais les décisions restent entre les mains d’un être humain qui prend, ou non, la décision de tuer. Cela pourrait changer, car la technologie va désormais donner la capacité de déployer des armes entièrement autonomes, et il ne faut pas beaucoup d’imagination pour s’inquiéter de la course aux armements qui s’en suivra et des risques afférents.

    À l’occasion du grand congrès annuel de l’intelligence artificielle, IJCAI, les chercheurs en robotique et intelligence artificielle du monde entier se mobilisent contre ce développement et ont lancé une pétition réclamant l’interdiction d’armes autonomes.

    Même en vacances, binaire soutient cette pétition, qui est accessible à
    http://futureoflife.org/AI/open_letter_autonomous_weapons

    Claire Mathieu

     

  • Binaire prend ses quartiers d’été

    À l’heure d’une pause estivale bien méritée et en attendant de vous retrouver le 19 août pour la rentrée de binaire, nous avons envie de partager avec vous un bilan de l’activité de notre blog :

    • 170 articles publiés depuis sa création en janvier 2014,
    • un comité de rédaction qui a monté en puissance (6 femmes et 4 hommes),
    • 660 abonnés au compte twitter @Blog_Binaire (rejoignez-les !),
    • des statistiques en croissance constante avec 10 à 15 000 visites par mois, pour 75% d’entre eux des visiteurs qui « reviennent » sur le blog, de France, du Canada, de Belgique, de Suisse, du Maroc, d’Algérie mais aussi des US, d’Angleterre, d’Allemagne…

    Un grand merci à tous nos lecteurs, à ceux qui contribuent, à ceux qui commentent et à ceux qui nous encouragent chaque jour à proposer de nouveaux sujets. Et pourquoi pas vous ? Si un sujet sur l’informatique, le numérique, l’innovation technologique vous questionne, ou vous parait incompréhensible, demandez nous des explications ! Nous sommes là pour vous aider à découvrir ce qui se cache derrière les concepts et les lignes de code qui vous entourent.

    En attendant, la rédaction de binaire vous souhaite de belles vacances.

    FullSizeRender
    Photo @Mae59
  • Carte à puce. Une histoire à rebonds

    Expo, Musée des Arts et Métiers
    Exposition, Musée des Arts et Métiers

    C’est une expo, petite mais sympathique, qui raconte 40 ans de la carte à puce, de la carte de téléphone, à la carte SIM, à la carte de paiement, à la carte santé. Des milliards de telles cartes sont fabriquées chaque année.

    Le commissaire scientifique de l’exposition est Pierre Paradinas, un des éditeurs de Binaire. Il est professeur titulaire de la chaire « Systèmes Embarqués » au Cnam. Il a notamment dirigé le laboratoire de recherche de Gemplus, un des industriels clés de l’histoire de la carte à puce.

    Surtout ne pas rater le film de 5mn « Michel et la cryptographie » des Chevreaux Suprématistes. Un petit bonheur de drôlerie.

    Serge Abiteboul

    Maquette de terminal de paiement, Roland Moreno, vers 1975. (Les filles de R.M. s'en sont servies pour jouer à la marchande.)
    Maquette de terminal de paiement, Roland Moreno, vers 1975. (Les filles de R.M. s’en sont servies pour jouer à la marchande.)
  • Belles histoires du numérique à la française

    « Chercheurs et entrepreneurs : c’est possible ! Belles histoires du numérique à la française ».  Dialogue à partir du livre de Antoine Petit (président d’Inria, l’institut national de recherche français dédié aux sciences du numérique) et Laurent Kott (président d’IT Translation, investisseur et cofondateur de startups techno-numériques issues de la recherche publique ou privée), chez Manitoba / Les Belles Lettres. 2015.

    Petit-Kott-2015Serge Abiteboul : C’est clair, les auteurs savent de quoi ils parlent. Le livre raconte des startups technologiques, de très belles histoires comme celles d’Ilog, Vulog, ou O2-technology. Il fourmille d’informations sur la création de ces entreprises, sur leur croissance. Mais…

    Thierry Viéville : Mais tu n’as pas l’air très enthousiaste ?

    Serge : C’est un sujet passionnant. Alors, pourquoi je boude mon plaisir ? Pour moi, une telle entreprise est  la rencontre entre un rêve de chercheur, et un projet d’entreprise. Le livre dit beaucoup sur le projet et pas grand chose sur le rêve. On en apprend finalement assez peu sur les développements techniques et scientifiques qui ont conduit à des produits qu’on a vendu.

    Thierry : Tu en demandes peut-être trop. C’est juste un livre qui donne plein d’informations sur la création de startups Inria. Je suis plutôt fier quand les travaux de recherche fondamentale des collègues participent au développement de l’économie, à la création d’emplois.

    Un métier à tisser de Joseph-Marie Jacquard. Cette machine du début du 19ème héritera des innovations mentionnées ici. ©wikipédia

    Voici un exemple que j’aime bien ; c’est en France, à Lyon, c’est au milieu du 18ème siècle, et c’est déjà de l’informatique. Des inventeurs ont apporté la prospérité à tout un éco-système  [ref1] avec l’idée de la « technologie ouverte » comme levier. Pour son invention d’une machine à tisser les fils de soie, Michel Berthet a reçu une récompense qui impliquait de transférer cette technologie aux autres fabricants. La « gestion publique de l’innovation, fondée sur la négociation partagée de l’utilité technique et la diffusion rapide des techniques nouvelles » va permettre de devancer les concurrents européens en proposant plus de 200 propositions d’améliorations [ref2].

    Cette avancée collective va conduire à implémenter une notion rudimentaire de programme avec un système de cartes perforées portées par un prisme dû à  Jean-Baptiste Falcon , et à une première tentative de machine pour robotiser les métiers à tisser, grâce à Jacques Vaucanson. Les concepts fondateurs de la science informatique sont déjà là. On retrouve  l’idée fondamentale du codage de l’information. Ici l’information, ce sont les motifs à tisser devenus trop complexes pour être créés manuellement. On trouve même le traitement automatisé ; on parlera plus tard d’algorithme. 

    Serge : C’est un bel exemple. Les histoires d’entreprises de chercheur-e-s/entrepreneur-e-s peuvent être très belles.

    Thierry : Et ta conclusion sur le livre d’Antoine Petit et Laurent Kott ?

    Serge : De belles histoires de startups Inria restent à mon avis encore à écrire. Faire partager l’aventure de ces créations et mettre en lumière ces hommes et femmes qui innovent, c’est aussi ce que nous avons envie de partager, à Binaire, avec le récit de startups d’aujourd’hui. Et pour finir, juste un détail : pourquoi un tel livre n’existe-t-il pas en version numérique ?

    [ref1]: The economics of open technology: collective organization and individual claims in the “ fabrique lyonnaise ” during the old regime. Dominique Foray and Liliane Hilaire Perez, Conference in honor of Paul A.David, Turin (Italy), 2000, voir aussi wikipédia.

    [ref2] : Liliane Hilaire-Pérez, L’invention technique au siècle des Lumières, Albin Michel, 2000

     

  • La clé de données

    En informatique, des mots de la vie courante prennent un sens particulier, précis, peut-être inattendu. Nous allons expliquer ici l’expression « clé de données ».

    Les clés en informatique

    Vous savez sûrement ce qu’est une clé. Rappelez-vous ces petits objets métalliques dans votre poche ou votre sac. Bon c’est vrai que dans certains hôtels, ils sont devenus cartes plastiques. Mais quand même vous voyez bien ce que c’est. Une clé ? Pour ouvrir la porte ? L’informatique va évidemment essayer de vous embrouiller. En informatique, une clé peut être suivant les besoins :

    • Une clé de chiffrement : un paramètre utilisé pour des opérations cryptographiques comme le chiffrement/déchiffrement de message, ou une signature numérique. La clé vous permet d’ « entrer » dans un espace virtuel privé.
    • Une clé USB : Une clé USB est un support de stockage informatique amovible à base mémoire flash. Là, le nom provient de la ressemblance avec une clé classique.
    • Une clé de données. Nous allons parler ici de ce type de clé.
    Photos d’objets du Musée du Quai de Branly. Wikipédia
    Photos d’objets du Musée du Quai de Branly. Wikipédia

    La clé de données

    Une structure de données essentielle en informatique est la relation, un tableau avec des lignes et des colonnes. Dans la figure précédente, la première colonne, qui se nomme IDB pour identifiant de Branly, est une « clé ». C’est à dire que deux enregistrements distincts doivent avoir des valeurs distinctes dans cette colonne. C’est extrêmement utile. Si je veux vous parler d’un objet de la collection, il me suffit d’utiliser sa clé et il n’y aura pas de confusion possible. Dans la base de données du musée, je peux aussi utiliser ces clés, par exemple pour lister les objets dans une salle particulière.

    On retrouve des clés partout. On peut utiliser, comme dans la bible, le prénom de la personne et celui de son père comme clé :

    Seth Adam 131 AM
    Enosch Seth 236 AM
    Kénan Enosch 326 AM
    Mahalaleel Kénan 395 AM

    Seulement quand la population devient trop importante, cela crée des ambiguïtés. Alors on cherche d’autres clés, (nom, prénom, date de naissance). On finit par inventer des identifiants pour garantir l’unicité. Un numéro de sécurité sociale identifie une personne, un URL (pour Universal Ressource Locator) une page du Web, et un ISBN (pour International Standard Book Number) une édition d’un livre publié.

    Il n’est pas toujours simple d’identifier un objet. Vous pouvez installer un livre sur plusieurs supports, liseuse, ordinateur, téléphone, tablette. Pour identifier l’objet livre dans votre bibliothèque numérique personnelle, l’ISBN ne suffit plus. Vous pouvez par exemple utiliser comme clé (ISBN, modèle, numéro de série). Un bref détour dans le fabuleux musée du Quai de Branly va nous permettre d’illustrer un autre aspect du lien complexe qui peut exister entre un objet et la clé qui l’identifie.

    Identifiants orphelins et objets sous X

    Le musée regroupe des objets venus d’horizons divers, de différentes collections. À sa création, peut-être même avant, des liens qui reliaient des objets à leurs identifiants se sont brisés :

    • Identifiant orphelin : Un identifiant s’est retrouvé « orphelin » de l’objet qui avait conduit à sa création. On aimerait imaginer cet objet poursuivant sa vie dans le bureau d’un ethnologue professionnel ou amateur qui le chérit, qui lui peaufine une histoire, plutôt que sur une étagère de magasin.
    • Objet sous X : À l’inverse, un objet a pu perdre (par exemple dans le déménagement vers le Quai de Branly) l’étiquette qui le reliait à son identifiant et ainsi à sa description dans la base de données. Le pauvre objet a perdu son histoire. Il s’est vu attribuer un numéro débutant par un « X ». Il renaissait « sous X ».
      Des milliers d’identifiants orphelins.

    Et pour conclure, une pensée émue pour ces milliers d’objets sous X entre les mains d’X-ologues chargés de leur construire une nouvelle histoire.

    Serge Abiteboul

    Pour en savoir plus sur les objets sous X : Tiziana Nicoletta Beltrame, Classer les inclassables, dans Penser, Classer, Administrer, Pour une Histoire Croisée des Collections Scientifiques, Musée d’Histoire Naturelle, 2014

  • Podcast : L’apprentissage automatique : quand les machines apprennent

    Toujours dans le cadre de ICML (International Conference on Machine Learning) qui se passe à Lille du 6 au 11 juillet, Binaire a réuni à Nantes trois chercheurs pour qu’ils nous parlent d’apprentissage automatique :

    • Colin de la Higuera, professeur en informatique, directeur adjoint du Lina, Laboratoire d’Informatique Nantes Atlantique. éditeur du blog binaire,
    • Yannick Aoustin, chercheur en robotique à l’IRCCyN, l’Institut de Recherche en Communication et Cybernétique de Nantes, et
    • Jeff Abrahamson, ancien de Google Londres, co-fondateur de Jellybooks.
    Podcast : Binaire et le labo des savoirs
    Podcast : Quand les machines apprennent

    bandeau-playerUne émission organisée par binaire en partenariat avec le Labo des savoirs, et animée par Guillaume Mézières, avec à la technique, Claire Sizorn.

  • Que la force soit dans la boite !

    Cécile Morel, Mobi rider, © Marie Jung
    Cécile Morel, Mobi rider, © Marie Jung

    Quand Cécile Morel, co-fondatrice de la startup Mobi rider, nous propose de « mettre notre téléphone dans sa boite ! », nous imaginons le pire. Notre téléphone va-t-il disparaître ? Etre transformé en lapin ? Après quelques secondes d’attente, nous voilà rassuré : le téléphone est toujours là. La boite, appelée Mobi one (les fans de Star Wars apprécieront), est en fait une « cage de Faraday* ». Elle bloque toutes les communications, 3G, E, tout. Tout ? Presque, il reste les communications qui viennent de l’intérieur de la Mobi one elle-même. C’est comme quand vous passez une frontière. Votre téléphone perd le réseau, puis s’ouvre très largement aux communications pour retrouver une nouvelle compagnie de téléphone disponible. Avec cette boîte, vous passez de France au monde de Mobi one.

    Nous sentons alors une nouvelle panique nous assaillir : vont-ils nous dérober toutes nos données ? Nous installer des logiciels espions ? On se calme. Mobi one se contente de profiter de l’ouverture des communications du téléphone pour lui envoyer des messages. Dans la plupart des cas, il s’agit d’un SMS du genre « Bienvenue dans votre magasin préféré ». Tout ça pour ça ?

    L'expérience de la cage de Faraday au Palais de la découverte à Paris. Wikipédia.
    L’expérience de la cage de Faraday au Palais de la découverte à Paris. Wikipédia.

    Pour ne pas mourir dans l’ignorance, nous nous faisons expliquer à quoi cela peut bien servir. En mettant votre téléphone dans la boite, vous avez établi un lien entre votre monde numérique (dont le téléphone est l’ambassadeur) et un monde physique, une agence, un magasin, un musée… (représenté par la boite). Le message vous proposera le plus souvent de télécharger une application mobile sur un App Store. Tout ça pour ça ?

    Pourquoi pas ne pas utiliser bêtement un QR-code** ? Parce que peu de gens utilisent vraiment le QR-code. Trop compliqué. Alors que tout ce que vous demande Mobi one c’est de mettre un téléphone dans une boite. Tout le monde sait faire.

    QR-code de Binaire
    QR-code de Binaire

    Si tout ceci parait bien simple, encore fallait-il avoir l’idée d’un nouveau pont entre le monde numérique et le monde physique. Il fallait aussi penser à couper les communications pour mieux les ouvrir. Bref, il fallait penser au principe essentiel du Kiss (Keep it simple stupid) (***).

    Peut-être utiliserez-vous un jour une Mobi one, mais en attendant… Si vous avez une boite à chaussure inutile chez vous, garnissez-en le fond avec un joli coussin bien confortable ; proposez à vos invités d’y déposer leurs téléphones intelligents (ou pas). Ça s’appelle un Binaire one et c’est garanti digital-free.

    Serge Abiteboul, Marie Jung

    (*) Cage de Faraday : Une cage de Faraday est une enceinte utilisée pour protéger des nuisances électriques et subsidiairement électromagnétiques extérieures ou inversement empêcher un appareillage de polluer son environnement. Wikipédia.

    (**) Le code QR (pour quick response) est un type de code-barres en deux dimensions constitué de modules noirs disposés dans un carré à fond blanc. L’agencement de ces points définit l’information que contient le code. Wikipédia

    (***) Kiss : Keep it simple stupid ! Principe fondamental de l’informatique. Son non-respect est à l’origine de nombreux plantages.

     

  • L’apprentissage automatique : le diable n’est pas dans l’algorithme

    icml_vignetteDu 6 au 11 juillet, Lille accueille ICML (International Conference on Machine Learning), le rendez-vous annuel des chercheurs en apprentissage automatique (machine learning). Mais comment expliquer à ma garagiste ou à mon fleuriste ? Et à quoi bon ! Donnons la parole à des chercheurs qui prennent le risque de soulever pour nous le capot du moteur et de nous l’expliquer.

    ©Mae59
    ©Mae59

    L’apprentissage automatique est là. Pour le meilleur comme pour le pire.

    Comme nous le développions il y a quelques jours, l’apprentissage automatique est désormais partout dans notre quotidien. Votre téléphone portable complète vos phrases en fonction de vos habitudes. Lorsque vous cherchez un terme avec votre moteur de recherche favori, vous recevez une liste de pages pertinentes très différente de celle que recevra une personne d’un autre âge ou d’un autre pays. C’est aussi un algorithme qui propose la publicité que vous subissez.

    Dans les différents cas ci-dessus, il s’agit bien de calculer automatiquement des préférences, de faire évoluer un logiciel en fonction des données.

    L’apprentissage automatique est associé au phénomène Big Data, et quand certains journaux s’inquiètent du pouvoir des algorithmes, il y a fort à parier que les algorithmes en question sont justement ceux qui s’intéressent aux données –aux vôtres en particulier- et essayent d’en extraire une connaissance nouvelle ; par exemple pour offrir un diagnostic médical plus précis. Ou, dans le contexte de la loi sur le renseignement votée récemment, pour récolter et traiter nos données privées.

    https://canvas.northwestern.edu/
    https://canvas.northwestern.edu/

    Alors il y a quelque chose d’inévitable si nous voulons ne pas subir tout cela : il faut comprendre comment ça marche.

    Bien alors en deux mots : comment ça marche ?

    En deux mots ? apprendre (construire un modèle) et prédire (utiliser le modèle appris). Et pour ce qui est de prédire l’avenir … on en a brulé pour moins que ça !

    Apprendre : où l’on récolte des données pour mieux les mettre en boîte.

    La première problématique consiste à construire, automatiquement, un modèle : il s’agit donc de comprendre quelque chose dans les données. Par exemple dans tous ces résultats médicaux quelle est la loi statistique ? Ou bien dans ces nombreuses données financières, quelle est la fonction cachée ? Ou encore dans ces énormes corpus de textes, quels sont les motifs, les règles ? Et ailleurs, dans le parcours du robot, les résultats transmis par ses capteurs font-ils émerger un plan de la pièce ?

    Cette modélisation peut être vue comme une simple tâche de compression : remplacer des très grands volumes de données par une description pertinente de celles-ci. Mais il s’agit aussi d’abstraire, de généraliser, c’est à dire de rechercher des règles ou des motifs expliquant les données. Autrement dit, on essaye d’oublier intelligemment les données brutes en les remplaçant par une information structurée plus compacte.

    Cette construction est de nature algorithmique et la diversité des algorithmes est gigantesque. Mais essayons de nous y retrouver.

    Apprentissage supervisé ou non.

    Si les données sont étiquetées, donc qu’on connait la valeur que l’on voudrait prédire, alors il s’agit d’un apprentissage supervisé : les données peuvent être utilisées pour prédire ce qui est correct et ce qui ne l’est pas.

    La  valeur peut être un nombre (par exemple le cours d’une action dans trois mois) ou une classe (par exemple, dans le cas d’une image médicale, la présence ou l’absence d’un motif qui serait associé à une maladie). Dans le premier cas, on parle de régression, dans le second, de classification.

    Si les données ne sont pas étiquetées, le but sera de trouver une organisation dans ces données (par exemple comment répartir en groupes homogènes les votants d’un parti politique, ou organiser les données en fonction de la proximité de leurs valeurs). Cette fois, l’apprentissage est non supervisé, puisque personne ne nous a dit à l’avance quelle est la bonne façon de mesurer, de ranger, de calculer.

    Apprentissage passif ou actif

    Les données, elles, ont été le plus souvent collectées à l’avance, mais il peut également s’agir de données que le même programme va chercher à obtenir par interaction avec l’environnement : on parle alors d’apprentissage actif.

    On peut formaliser le fait qu’il reçoit à chaque étape une récompense (ou une punition) et ajuste son comportement au mieux en fonction de ce retour. Ce type d’apprentissage a aussi été formalisé, on parle d’apprentissage par renforcement.

    Les trois grands types de modèles.

    Le modèle peut être de nature géométrique : typiquement, les données sont des points dans un espace de très grande dimension, et le modèle donne l’équation pour séparer le mieux possible les différentes étiquettes. Le modèle peut-être logique : il sera alors un ensemble de règles qui permettront dans le futur de dire si un nouvel objet est d’une catégorie ou d’une autre. Le modèle peut être probabiliste : il nous permettra de définir, pour un nouvel objet, la probabilité d’être dans telle ou telle catégorie.

    Inférer : où l’informatique fait concurrence aux devins.

    Reste à savoir utiliser le modèle appris, ou choisir parmi un ensemble de modèles possibles. L’inférence est souvent un problème d’optimisation : trouver la meilleure prédiction étant donné le(s) modèle(s) et les données. Les arbres de décision (étudiés aujourd’hui au lycée) permettent, pour les valeurs d’un modèle et des données, de calculer la probabilité de rencontrer ces données si on considère le modèle et ses valeurs. La question de l’inférence est en quelque sorte l’inverse, celle de choisir le modèle étant donné un certain ensemble de données.

    Ici on raisonne souvent en terme de probabilité, il faut donc évaluer le risque, au delà du coût lié à chaque choix.

    Ouaouh ! Alors il y a des maths en dessous ?

    Oui oui ! Et de très jolies mathématiques, par exemple on peut se poser la question suivante :

     De quel nombre m de données ai-je besoin
    pour faire une prédiction avec une erreur ε en prenant un risque δ ?

    Croyez-nous ou non, pour certains modèles la formule existe, et elle peut prendre cette forme :

    Le nombre d'exemples nécessaire, selon Valiant, pour apprendre
    et nous la trouvons même assez jolie. C’est Leslie Valiant qui l’a proposée dans un cadre un peu idéal. Son formalisme permet de convertir ce qui était fondamentalement un problème mal posé, en un problème tout à fait mathématique. Leslie Valiant a d’ailleurs reçu le Turing Award (l’équivalent du prix Nobel pour l’informatique) en 2011 pour cela. D’autres chercheurs, comme Vladimir Vapnik, ont proposé d’autres formules pour quantifier dans quelle mesure ces algorithmes sont capable de généraliser ce qui a été appris à n’importe quel autre donnée qui peut arriver.

    Il ne s’agit pas d’un pur problème de statistique, c’est aussi un enjeu en terme de complexité. Si le nombre m de données explose (augmente exponentiellement) en fonction des autres paramètres,  aucun algorithme ne fonctionnera en pratique.

    Mais ce petit détour vers les maths nous montre que l’on peut donc utiliser le résultat de l’apprentissage pour prendre des décisions garanties. À condition que la modélisation soit correcte et appropriée au problème donné. Si on utilise tout ça sans chercher à bien comprendre, ou pour leur faire dire et faire des choses hors de leur champ d’application, alors ce sera un échec.

    Ce n’est donc peut-être pas des algorithmes dont il faut avoir peur aujourd’hui, mais de ceux qui essayent de s’en servir sans les avoir compris.

    Philippe Preux, Marc Tommasi, Thierry Viéville et Colin de la Higuera

  • L’apprentissage automatique : pas à pas !

    icml_vignetteDu 6 au 11 juillet, Lille accueille ICML (International Conference on Machine Learning), le rendez-vous annuel des chercheurs en machine learning, ce qu’on traduit souvent en français par apprentissage automatique ou apprentissage artificiel. Donnons la parole à Colin de la Higuera pour nous faire découvrir ce domaine. Thierry Viéville et Sylvie Boldo.

     

    Apprentissage automatique (machine learning) dites-vous ?

    Il est très probable qu’à l’heure où vous lisez ces lignes, vous aurez utilisé le résultat d’algorithmes d’apprentissage automatique plusieurs fois aujourd’hui : votre réseau social favori vous peut-être a proposé de nouveaux amis et le moteur de recherche a jugé certaines pages pertinentes pour vous mais pas pour votre voisin. Vous avez dicté un message sur votre téléphone portable, utilisé un logiciel de reconnaissance optique de caractères, lu un article qui vous a été proposé spécifiquement en fonction de vos préférences et qui a peut-être été traduit automatiquement.

    Et même sans avoir utilisé un ordinateur, vous avez été peut être écouté les informations : or la météo entendue ce matin, la plupart des transactions et des décisions boursières qui font et défont une économie, et de plus en plus de diagnostics médicaux reposent bien plus sur les qualités de l’algorithme que sur celles d’un expert humain incapable de traiter la montagne d’informations nécessaire à une prise de décision pertinente.

    De tels algorithmes ont appris à partir de données, ils font de l’apprentissage automatique. Ces algorithmes construisent un modèle à partir de données dans le but d’émettre des prédictions ou des décisions basées sur les données [1].

    Mais depuis quand confie t’on cela à des algorithmes ?

    L’idée de faire apprendre la machine pour lui donner des moyens supplémentaires est presque aussi ancienne que l’informatique. C’est Alan Turing lui-même qui après avoir, en 1936, jeté les bases conceptuelles du calcul sur machine, donc de l’ordinateur, allait s’intéresser à cette possibilité. Il envisage en 1948 des « learning machines » susceptibles de construire elles-mêmes leurs propres codes.

    Tout compte fait, c’est une suite logique de cette notion de machine de calcul dite universelle (c’est à dire qui peut exécuter tous les algorithmes, comme le sont nos ordinateurs ou nos smartphone). Puisque le code d’une machine, le programme, n’est qu’une donnée comme les autres, il est raisonnable d’envisager qu’un autre programme puisse le transformer. Donc pourquoi ne pas apprendre de nouveaux programmes à partir de données?

    Vue la quantité astronomique de donnée, on peut apprendre simplement en les analysant. Mais les chercheurs se sont rendus compte que dans ce contexte, un programme qui se comporte de manière déterministe n’est pas si intéressant. C’est le moment où on découvre les limites de ce qui est décidable ou indécidable avec des algorithmes. Il faut alors introduire une autre idée : celle d’exploration, de recours au hasard, pour que de telles machines soient capables de comportements non prévus par leur concepteur.

    Il y a donc une rupture entre programmer, c’est à dire imaginer et implémenter un calcul sur la machine pour résoudre un problème, et doter la machine de la capacité d’apprendre et de s’adapter aux données. De ce fait, on ne peut plus systématiquement prévoir un comportement donné, mais uniquement spécifier une classe de comportements possibles.

    ©Maev59
    ©Mae59

    Alors … ça y est ? Nous avons créé de l’intelligence artificielle (IA) ?

    C’est une situation paradoxale, car le terme d’IA veut dire plusieurs choses. Quand on évoque l’intelligence artificielle, on pense à apprendre, évoluer, s’adapter. Ce sont des termes qui font référence à des activités cognitives qui nous paraissent un ordre de grandeur plus intelligentes que ce que peut produire un calcul programmé.

    Et c’est vrai qu’historiquement, les premiers systèmes qui apprennent sont à mettre au crédit des chercheurs en IA. Il s’agissait de repousser les frontières de la machine, de tenter de reproduire le cerveau humain. Les systèmes proposés devaient permettre à un robot d’être autonome, à un agent de répondre à toute question, à un joueur de s’améliorer défaite après défaite.

    Mais, on s’accorde à dire que l’intelligence artificielle n’a pas tenu ses promesses [2]. Pourtant ces algorithmes d’apprentissage automatique, une de ses principales composantes, sont bel et bien présents un peu partout aujourd’hui. Et ceci, au delà, du fait que ces idées sont à la source de nombreuses pages de science-fiction.

    C’est peut-être notre vision de l’intelligence qui évolue avec la progression des sciences informatiques. Par exemple, pour gagner aux échecs il faut être bougrement intelligent. Mais quand un algorithme qui se contente de faire des statistiques sur un nombre colossal de parties défait le champion du monde, on se dit que finalement l’ordinateur a gagné « bêtement ». Ou encore: une machine qui rassemble toutes les connaissances humaines de manière structurée pour que chacun y accède à loisir sur simple demande, est forcément prodigieusement intelligente. Mais devant wikipédia, qui incarne ce rêve, il est clair que non seulement une vision encyclopédique de l’intelligence est incomplète, mais que notre propre façon de profiter de notre intelligence humaine est amenée à évoluer, comme nous le rappelle Michel Serres [3].

    Passionnant ! Mais à Lille … que va t’il se passer ?

    L’apprentissage automatique est maintenant devenu une matière enseignée dans de nombreux cursus universitaires. Son champ d’application augmente de jour en jour : dès qu’un domaine dispose de données, la question de l’utilisation de celles-ci pour améliorer les algorithmes du domaine se pose systématiquement.

    Mais c’est également un sujet de recherche très actif. Les chercheurs du monde entier qui se retrouveront à Lille dans quelques jours discuteront sans doute, parmi d’autres, des questions suivantes :

    • Une famille d’algorithmes particulièrement efficace aujourd’hui permet d’effectuer un apprentissage profond (le « deep  learning »). De tels algorithmes simulent une architecture complexe, formées de couches de neurones artificiels, qui permettent d’implémenter des calculs distribués impossibles à programmer explicitement.
    • L’explosion du phénomène du big data est un levier. Là où dans d’autres cas, la taille massive des données est un obstacle, ici, justement, c’est ce qui donne de la puissance au phénomène. Les algorithmes, comme ceux d’apprentissage profond, deviennent d’autant plus performants quand la quantité de données augmente.
    • Nul doute que des modèles probabilistes de plus en plus sophistiqués seront discutés. L’enjeu aujourd’hui est d’apprendre en mettant à profit le hasard pour explorer des solutions impossibles à énumérer explicitement.
    • La notion de prédiction sera une problématique majeure pour ces chercheurs qui se demanderont comment utiliser l’apprentissage sur une tâche pour prévoir comment en résoudre une autre.
    • Les applications continueront à être des moteurs de l’innovation dans le domaine et reposent sur des questions nouvelles venant de secteurs les plus variés : le traitement de la langue, le médical, les réseaux sociaux, les villes intelligentes, l’énergie, la robotique…

    Il est possible –et souhaitable- que les chercheurs trouvent également un moment pour discuter des questions de fond, de société, soulevées par les résultats de leurs travaux. Les algorithmes apprennent aujourd’hui des modèles qui reconnaissent mieux un objet que l’œil humain, qui discernent mieux les motifs dans des images médicales que les spécialistes les mieux entrainés. La taille et la complexité des modèles en font cependant parfois des boîtes noires : la machine peut indiquer la présence d’une tumeur sans nécessairement pouvoir expliquer ce qui justifie son diagnostic : sa « décision » reposera peut-être sur une combinaison de milliers de paramètres, combinaison que l’humain ne connaît pas.

    Or, quand votre médecin vous explique qu’il serait utile de traiter une pathologie, il vous explique pourquoi. Mais quand la machine nous proposera de subir une intervention chirurgicale, avec une erreur moindre que le meilleur médecin, sans nous fournir une explication compréhensible, que ferons-nous ?

    wikipedia
    wikipedia

     

    Et .. pour en savoir plus sur tout cela ?

    C’est tout à fait passionnant et … très sérieux.

    Pour l’apprentissage automatique, nous allons vous lancer un défi. Revenez sur binaire dans quelques jours et nous allons oser vous expliquer ce qui se trouve sous le capot : comment la machine construit des modèles et les exploite ensuite. Et vous verrez que si un sorcier ou une sorcière avait osé proposé une telle machine il y a quelques siècles, c’est sur un bûcher qu’elle ou il aurait fini.

    Et pour mieux comprendre toutes les autres facettes de la science informatique deux revues et un blog sont à votre service : comment donner un sens à l’image numérique, comment marche la traduction automatiqueen quoi notre cerveau est plus rapide que nous pour reconnaitre un objet , les nouveaux liens entre robots et des humains ? Voici quelques exemples de ce que vous y trouverez.

    Colin de la Higuera

    Bibliographie et références

     

  • Enseignement de l’informatique pour les humanités et les sciences sociales

    A binaire, nous pensons que l’informatique concerne tout le monde. C’est pourquoi ces journées de la SIF autour de l’enseignement de l’informatique pour les humanités et les sciences sociales nous paraissent particulièrement importantes. Serge Abiteboul, Thierry Vieville.

    logo-sif

    Inscriptions ouvertes !
    23 & 24 juin 2015 à Paris, CNAM
    Enseignement de l’informatique
    pour les humanités et les sciences sociales

    la SIF organise deux journées pédagogiques sur le thème de « L’enseignement de l’informatique pour les humanités et les sciences sociales ».

    Quelques points abordés :

    • État des lieux, en France et à l’étranger
    • Quelle informatique nécessaire aux humanités, sciences sociales ?
    • Approches pédagogiques et didactiques pour enseigner l’informatique aux humanités et sciences sociales
    • Humanités numériques
    • Formation des professeurs des écoles à l’informatique

    Information complémentaire, programme et inscription (gratuite pour les adhérents de la SIF) à partir de la page dédiée à l’événement societe-informatique-de-france.fr/enseignement/j-pedago/j-pedago-2015/

    ou auprès d’Olivier Baudon <olivier . baudon @ labri . fr>.

  • Bon anniversaire La Fing !

    La Fondation internet nouvelle génération a été créée il y a 15 ans par Daniel Kaplan, Jacques-François Marchandise et Jean-Michel Cornu. Binaire fait partie des admirateurs et amis de cette fondation. À l’occasion de cet anniversaire, Serge Abiteboul a rencontré Daniel Kaplan délégué général de la Fing.

    siteon0

    Daniel Kaplan , 2009, Wikipédia
    Daniel Kaplan , 2009, Wikipédia

    Est-ce que tu peux définir la Fing en une phrase ?

    Nous avons changé plusieurs fois de manière de définir la Fing, mais celle que je préfère (et vers laquelle nous sommes en train de revenir) est la suivante : « la Fing explore le potentiel transformateur des technologies, quand il est placé entre des millions de mains. »

    La Fing a 15 ans, quels ont été selon toi ses plus beaux succès ? Ses échecs ?

    Nous avons su produire des idées neuves qui font aujourd’hui leur chemin comme la « ville 2.0 » en 2007 ou le self data (le retour des données personnelles aux gens) à partir de 2012. Nous avons (avec d’autres, bien sûr) joué un rôle déterminant dans le développement des open data et des Fab Labs en France. Nous avons contribué à la naissance de beaux bébés qui ont pris leur indépendance, comme la Cantine (devenue Numa à Paris, mais qui a aussi essaimée ailleurs en France), la 27e Région, InnovAfrica. Internet Actu est devenu un média de référence pour des dizaines de milliers de lecteurs.

    Il y a des réussites qui se transforment en déceptions. Le concept d’ « espaces numériques de travail » (ENT) dans l’éducation est largement issu de la Fing, mais 13 ans plus tard, il est difficile de s’en vanter quand on voit (à des exceptions près) la pauvreté de ce qu’ils proposent en pratique aux enseignants comme aux élèves. En 2009, avec la « Montre Verte », nous étions les pionniers de la mesure environnementale distribuée, mais nous avons eu tort de poursuivre nous-mêmes le développement de ce concept, parce que nous étions incapables d’en assurer le développement industriel.

    Même si nous avons beaucoup de relations à l’international, trop peu de nos projets sont nativement internationaux. La rigidité des financements européens y est pour beaucoup, et il nous faut trouver d’autres moyens de financer de tels projets.

    Mais au fond, notre vrai succès, c’est que dans toute une série de domaines, on ne pense plus au lien entre innovation, technologie, mutations économiques et transformations sociales, sans un peu de « Fing inside ». C’est sans doute pourquoi l’Agence nationale de la recherche nous a confiés (en 2010) le pilotage de son Atelier de réflexion prospective sur les « innovations et ruptures dans la société et l’économie numériques », qui a mobilisé le meilleur de la recherche française en sciences humaines et sociales.

    Est-ce que vous avez l’intention de changer ?

    La Fing a muté à peu près tous les 5 ans et en effet, elle va encore le faire. Parce que le paysage numérique a bougé. Le numérique n’est plus « nouveau » en revanche, le sens de la révolution numérique pose question. Dans le numérique et autour de lui, des communautés nouvelles émergent sans cesse et ne savent pas nécessairement qui nous sommes. D’autres sujets technosociaux montent en importance, par exemple autour du vivant, de la cognition ou bien sûr, de l’environnement. Enfin, les demandes qui s’adressent à nous évoluent. On veut des idées, mais aussi les manières de les mettre en œuvre ou encore, des preuves de concept plus avancées, de la prospective, mais utile à l’action immédiate. Déjà très collaboratif, notre travail doit s’ouvrir encore plus largement et la dimension européenne devient essentielle.

    Comment vois-tu le futur d’Internet ?

    Comme un grand point d’interrogation ! S’agissant du réseau soi-même, nous avons tenu 20 ans (depuis l’ouverture commerciale de l’internet) en ne changeant rien de fondamental à l’architecture de l’internet, du moins officiellement. D’un côté, c’est un exploit presque incroyable : le réseau a tenu, il s’est adapté à une multiplication par 10 000 du nombre d’utilisateurs et à des usages sans cesse plus divers et plus exigeants. Mais cela a un prix : les évolutions majeures se sont en fait produites « au bord » de l’internet, par exemple dans les réseaux de distribution de contenus (CDN), dans les sous-réseaux des opérateurs (mobiles, distribution vidéo, objets connectés) et bien sur, dans tous les services dits over the top. Les solutions ad hoc se multiplient, les standards de fait sont plus qu’auparavant le produit de purs rapports de force, l’interopérabilité devient problématique (et ce n’est pas toujours fortuit)…

    Nous n’échapperons pas à la nécessité de repenser les fondements de l’internet – en fait, ne pas le faire, c’est déjà un choix, celui de favoriser les plus forts. Ce ne sera pas facile, parce que certaines valeurs essentielles que l’internet d’aujourd’hui incorpore comme l’intelligence aux extrémités se sont imposées d’une manière un peu fortuite. Si l’on remet l’ouvrage sur le métier, il ne sera pas si facile de les défendre. Ce sera une discussion mondiale et fondamentalement politique. Lawrence Lessig écrivait Code is Law (le code fait Loi), j’ajouterais : « et l’architecture fait Constitution ». Mais il est vraisemblable qu’elle ne se présentera pas d’emblée sous cette forme, plutôt sous celle de programmes de recherche et d’expérimentations sur les réseaux du futur. La technicité des efforts masquera les choix économiques et politiques, il faudra être vigilant ou, mieux, proactif.

    Quelles sont les plus grandes menaces pour Internet, pour le Web ?

    D’un côté, l’internet et le web ont « gagné ». L’idée folle selon laquelle un même inter-réseau aurait vocation à connecter tous les humains et tous les objets, se réalise ; du côté des données, des documents et des applications, le cloud et le mobile consacrent la victoire du Web. Mais cette victoire est technique ou logistique, les idéaux fondateurs, eux, s’éloignent.

    Il serait naïf de croire que des dispositifs techniques puissent à eux tout seuls amener un monde plus égalitaire, démocratique, collaboratif. Notre raison ne l’a jamais vraiment crû, je suppose. Mais notre cœur, si, et puis tout ce qui allait en ce sens était bon à prendre. Aujourd’hui, les puissances politiques et économiques reprennent la main et le contrôle, parfois pour les meilleures raisons du monde – la sécurité, par exemple.

    Le risque majeur, au fond, ce n’est pas Big Brother, ni Little Sister (la surveillance de tous par tous). Il ne faut pas négliger ces risques, mais je crois qu’ils peuvent rester contrôlés. Le vrai risque, c’est la banalisation : que l’internet et le web cessent d’être la nouvelle frontière de notre époque, qu’ils deviennent de pures infrastructures matérielles et logicielles pour distribuer des services et des contenus. Cela arrivera quand la priorité ne sera plus de rendre possible l’émergence de la prochaine application dont on ne sait encore rien, mais d’assurer la meilleure qualité de service possible pour celles que l’on connaît. Nous n’en sommes pas loin.

    Est-ce que le Web va continuer à nous surprendre ? Qu’est-ce qui va changer ?

    On peut être inquiet et confiant à la fois ! Au quotidien, le web reste l’espace des possibles, celui dont se saisissent de très nombreux innovateurs pour tenter de changer l’ordre des choses – certains avec des finalités totalement commerciales, d’autres à des fins sociales, et beaucoup avec en tête l’un et l’autre. On peut sourire à l’ambition de tous ces jeunes entrepreneurs, sociaux ou non, qui affirment vouloir changer le monde, et en même temps se dire que ça vaut mieux que le contraire.

    Ce qui se passe sur le Web, autour de lui, continue en effet de nous surprendre, et ce n’est pas fini. L’essor récent de la consommation collaborative, celui de nouvelles formes de monnaie, la montée en puissance des données (big, open, linked, self, smart, etc.), les disruptions numériques engagées dans la santé ou l’éducation, etc. Il se passe chaque jour quelque chose ! Il y a une sorte de force vitale qui fait aujourd’hui du numérique le pôle d’attraction de millions d’innovateurs et d’entrepreneurs et la source de la transformation d’à peu près tous les secteurs, tous les domaines d’activité humaine, toutes les organisations, tous les territoires.

    En revanche, le numérique en général et par conséquent, le web et l’internet, sont de plus en plus questionnés sur ce qu’ils produisent, sur les valeurs qu’incorporent leurs architectures, les intentions derrière leurs applications, les rapports de force qu’encodent leurs plateformes. Dans la dernière édition de notre cycle annuel de prospective, Questions Numériques, nous écrivions : « Le numérique change tout. C’est sa force. Mais il ignore en quoi. C’est sa faiblesse. » La faiblesse de l’apprenti sorcier, qui devient difficilement tolérable quand celui-ci n’a plus de maître.

    Je pense que notre prochaine frontière se situe au croisement des deux grandes transitions contemporaines, la transition numérique et la transition écologique. La transition écologique sait formuler son objectif, mais trois décennies après le sommet de Rio, force est de constater qu’elle ne sait pas décrire le chemin pour y arriver. La transition numérique, c’est le contraire : elle sait créer le changement, mais elle en ignore la direction. Chacune a besoin de l’autre. Nous allons chercher à les rapprocher.

    kaplan

  • 50 nuances de robots mous !

    À l’occasion de la sortie du dernier film animé des studios Disney « les nouveaux héros », nous avons demandé à Christian Duriez, responsable d’une équipe de recherche d’Inria Lille – Nord Europe, de nous parler des technologies innovantes qui sont en train d’émerger en matière de robotique et plus particulièrement de nous expliquer si le robot mou de Baymax est une fiction ou si la recherche en la matière est une réalité. Partons à la découverte de ces robots mous (ou « soft-robot » en anglais). Cet article est une co-publication avec )i(nterstices, la revue de culture scientifique en ligne, créée par des chercheurs pour vous inviter à explorer les sciences du numérique.  Marie-Agnès Enard.

    Baymax – ©Disney

    Dans son dernier long métrage, Disney nous invite à nous plonger dans San Fransokyo, ville futuriste inspirée des deux rivages du pacifique, et capitale de la robotique. Dans cette ville, les habitants ont une passion frénétique pour les robots, et plus particulièrement pour les combats de robots. Les acteurs économiques sont prêts à lancer des intrigues pour récupérer les dernières inventions. Hiro, un petit génie exclu des parcours scolaires, s’amuse à construire des robots de combats avec son frère tout en réalisant des recherches dans un laboratoire sur Baymax, un robot infirmier qui sera le héros de ce film. Or la particularité de Baymax… c’est qu’il est mou ! Une sorte de bonhomme Michelin gonflable, programmé pour prévenir les problèmes de santé des humains qui l’entourent. Disney rejoint là des technologies très innovantes en train d’émerger en robotique, ces fameux robots mous (ou « soft-robot » en anglais).

    Je fais partie de cette nouvelle communauté de chercheurs qui s’intéresse à ces robots qui ne sont plus conçus à partir de squelettes rigides articulés et actionnés par des actionneurs placés au niveau des articulations comme nous les connaissons traditionnellement. Au contraire, ces robots sont constitués de matière « molle » : silicone, caoutchouc ou autre matériau souple, et ont donc, naturellement, la possibilité d’adapter leur forme et leur flexibilité à la tâche, à des environnements fragiles et tortueux, et d’interagir en toute sécurité avec l’homme. Ces robots ont typiquement une souplesse semblable aux matières organiques et leur design est souvent inspiré de la nature (trompe d’éléphant, poulpe, vers de terre, limace, etc.). Pour fabriquer ces robots, nous avons naturellement recours à l’impression 3D qui permet déjà d’imprimer des matières déformables ou de fabriquer ces robots par moulage.

    La robotique est une science du mouvement. La robotique  classique crée ce mouvement par articulation. Pour les soft-robot, le mouvement est créé par déformation, exactement comme des muscles. On peut le faire en insérant de l’air comprimé dans des cavités placées dans la structure déformable du robot, en injectant des liquides sous pression ou en utilisant des polymères électro actifs qui se déforment sous un champ électrique. Dans mon équipe de recherche, nous utilisons, plus simplement, des câbles reliés à des moteurs pour appliquer des forces sur la structure du robot et venir la déformer, un peu comme les tendons ou les ligaments que l’on trouve dans les organismes vivants.

    Christian Duriez – © Inria / Photo H. Raguet

    Les domaines d’applications que nous pouvons envisager sont nombreux pour ces soft-robots : En robotique chirurgicale, pour naviguer dans des zones anatomiques fragiles sans appliquer d’efforts importants ; en robotique médicale, pour proposer des exosquelettes ou orthèses actives qui seraient bien plus confortables que les solutions actuelles ;  en robotique sous-marine pour développer des flottes importantes de robots ressemblant à des méduses, peu chères à fabriquer, et capable d’aller explorer les fonds sous-marins ; pour l’industrie, pour fabriquer des robots bon marché et robustes ou des robots capables d’interagir avec les hommes sans aucun danger ; pour l’art et le jeu, avec des robots plus organiques, capables de mouvements plus naturels …

    Mais ce qui nous intéresse aussi dans ces travaux est qu’ils sont porteurs de nouveaux défis pour la recherche. En particulier, le fait de revisiter les méthodes de design, de modélisation et de contrôle de ces robots. Nous passons d’un monde où le mouvement se décrit par une dizaine voire une vingtaine d’articulations, au maximum, à une robotique déformable qui a, en théorie, une infinité de degré de liberté. Autrement dit, pour développer l’usage et le potentiel de ces soft-robots, il va falloir totalement revoir nos logiciels . C’est cette mission que s’est confiée notre équipe (équipe Defrost, DEFormable RObotic SofTware, commune avec Inria et l’Université Lille 1) et qui rend ces travaux passionnants et ambitieux.

    Nous souhaitons relever le défi de la modélisation et le contrôle des robots déformables : il existe de modèles des théories de la mécaniques des objets déformables (appelée mécanique des milieux continues). Ces modèles n’ont pas de solution analytique dans le cas général et il faut passer par des méthodes numériques souvent complexes et couteuses en temps de calcul, comme la méthode des éléments finis, pour obtenir des solutions approchées. Or, pour le pilotage d’un robot, la solution du modèle doit pouvoir être trouvée à tout instant en temps-réel (autrement dit en quelques millisecondes). Si cela est obtenu depuis longtemps pour les modèles rigides articulés, c’est une autre paire de manche pour les modèles par éléments finis. C’est le premier défi que nous devons affronter dans notre travail de recherche, mais d’autres défis, encore plus complexes, nous attendent. En voici quelques exemples :

    Une fois le modèle temps réel obtenu, il faudra l’inverser : en effet le modèle nous donne la déformation de la structure du robot quand on connait les efforts qui s’appliquent sur lui. Mais pour piloter un robot, il faut, au contraire, trouver quels efforts nous devons appliquer par les actionneurs (les moteurs, les pistons, etc.) du robot, pour pouvoir le déformer de la manière que l’on souhaite. Or s’il est déjà complexe d’obtenir un modèle éléments finis en temps-réel, obtenir son inverse en temps-réel est un bien plus complexe encore !

    Autre challenge : l’environnement du robot. Contrairement à une approche classique en robotique rigide où l’on cherche l’anticollision (le fait de déployer le robot sans toucher les parois de l’environnement), les robots déformables peuvent venir au contact de leur environnement sans l’abimer. Dans certaines applications, il est même plutôt souhaitable que le robot puisse venir entrer en contact. Cependant il faut maitriser les intensités des efforts appliqués par ces contacts et particulièrement dans des applications en milieu fragile (comme en chirurgie par exemple). Un paramètre important dans ce contexte est que l’environnement va lui aussi déformer le robot. Il faut donc impérativement en tenir compte dans la réalisation du modèle. Quand l’environnement correspond à des tissus biologiques, il faut alors prévoir d’ajouter un modèle biomécanique de l’environnement…

    Un dernier exemple de défi, plus fondamental, est lié à l’utilisation de capteurs. Si l’on imite la nature, notre système nerveux nous donne un retour d’information (vision, toucher, son, etc.) qui nous aide à contrôler nos mouvements et à appréhender notre environnement. Les ingénieurs ont donc très vite pensé à équiper les robots de capteurs qui permettent de compenser et d’adapter les modèles utilisés pour les piloter. La théorie du contrôle permet de donner un cadre mathématique à ces méthodes d’ingénierie des systèmes. Or la complexité de cette théorie dépend essentiellement du nombre de variables nécessaires à décrire l’état du système et du couplage entre ces variables… Avec une infinité (théorique) de degrés de liberté, couplés par la mécanique des milieux continus, il faudra forcément revisiter cette théorie pour l’adapter.

    Bien d’autres défis sont encore à considérer comme la création de nouveaux outils de CAO (Conception Assistée par Ordinateur) pour concevoir ces robots, ou la programmation de leur fabrication en lien avec l’impression 3D. Enfin, si l’on veut un jour avoir notre Baymax, en chair et sans os, capable d’être notre infirmier personnel à domicile, il faudra aussi lui apporter une certaine forme d’autonomie voire d’intelligence… mais ceci est une autre histoire !

    Christian Duriez

     

     

  • Comment le numérique a transformé l’informatique

    Dans le cadre des « Entretiens autour de l’informatique », Serge Abiteboul et Marie Jung ont rencontré Yves Caseau, responsable de l’Agence Digitale du Groupe Axa. Son objectif : moderniser les méthodes de travail des équipes chargées de concevoir les applications mobiles et les sites web. Nous nous sommes habitués à voir l’informatique construire un nouveau monde, le monde numérique. Yves Caseau raconte à Binaire comment, dans un retour de service éblouissant, ce monde numérique a véritablement transformé l’informatique.

    Yves Caseau, photo © M. Jung
    Yves Caseau, photo © M. Jung

    Une autre manière de développer du logiciel

    B : Quels sont les changements récents les plus importants dans le développement de logiciel ?

    YC : Le premier élément de changement important, c’est la manière de coder. Avant pour un problème complexe, on se lançait dans une analyse poussée et le développement d’un logiciel monolithique. Les jeunes actuels commencent par chercher avec Google si un bout de programme existe déjà quelque part qui résout une partie du problème. Du coup, avant on essayait d’avoir les développeurs les plus compétents. Maintenant, on préfère avoir des profils capables de manipuler avec brio des bouts de codes, de les combiner, et de vérifier ce qu’ils font, sans nécessairement comprendre leurs mécanismes intimes. C’est le rêve de l’approche composant où on réutilise sans arrêt des fragments.

    Des rythmes de développement effrénés

    B : Du coup, cela raccourci les cycles de développement ?

    YC. Oui, c’est le deuxième changement important. Les géants du web comme Google, Amazon ou Facebook sont des experts en la matière. Google modifie 50 % de ses modules tous les mois. Du code est fabriqué sans arrêt. Et la façon dont le code est fait importe autant que le résultat. Quand je travaillais chez Bouygues Telecom sur les « box », nous avions à faire face à des composants matériels instables et incomplets.  Ce n’est pas une question de compétence, nous avions d’excellents fournisseurs, mais le rythme d’adaptation du silicium pour suivre les évolutions des protocoles tels que HDMI était infernal. La partie logicielle devait cacher les limites du matériel et s’adapter au rythme très rapide de mises à disposition du matériel. Pour réussir dans ce monde de l’électronique grand-public, il est vital de savoir reconstruire son logiciel tous les jours.

    The lean startup, Eric Ries
    The lean startup, Eric Ries

     

    Avec les clients au centre des préoccupations

    B : Pour raccourcir les cycles de développement, vous essayez de faire passer vos équipes au « lean startup ». Qu’est-ce que ce signifie ?

    YC : C’est une manière de faire des applications en mode « centré client » et « incrémental ». Cela revient à sortir un produit minimal le plus vite possible, le mettre entre les mains des clients, regarder comment ils l’utilisent, et adapter le produit pour en proposer une nouvelle version rapidement. Ce type d’agilité n’est pas naturel pour des grands groupes. J’essaie de mettre cela en place dans les projets que je dirige. C’est une centaine de personnes qui travaillent ensemble avec des profils très différents : spécialistes du marketing, développeurs, designers. Nous essayons de mélanger tout ça.Le livre d’Octo Les géant du web m’a beaucoup inspiré. Avec l’informatique agile, le logiciel est vivant, il bouge sans arrêt tout en étant au cœur du processus de valeur de l’entreprise et en mettant le client au centre de ses préoccupations.

    Les Géants du Web : Culture – Pratiques, Octo Technology
    Les Géants du Web : Culture – Pratiques, Octo Technology

    Redécouvrir l’amour du code

    B : Cela sonne comme le début d’une nouvelle ère ?

    YC : On se retrouve comme à la belle époque de l’informatique. Il faut aimer le code ! Au début de l’informatique, les développeurs vivaient dans leur code et ils aimaient ça. Puis on a changé de modèle. Quelqu’un écrivait des spécifications d’une application (N.D.L.R. une description détaillée de ce qu’il fallait réaliser), et des développeurs, peut-être à l’autre bout du monde, écrivaient les programmes. Ce modèle, très à la mode entre 1980 et 2000, est un modèle qui se meurt. En éloignant le concepteur de l’application du développeur, on avait perdu l’artisanat du développement de code. Aujourd’hui, avec le développement agile, on a retrouvé la proximité, le contact, l’amour du code.

    On maitrise le code avec des pratiques qui reviennent à la mode comme le pair programming (N.D.L.R. le développement d’un programme en binôme sur le même ordinateur). Les développeurs ont besoin d’une unité de lieu, de contact constant. Cela dit, l’agence digitale d’Axa travaille avec des développeurs basés à Barcelone. Nous faisons de l’agile distribué, autrement dit nous travaillons comme si nous étions dans la même pièce. Les réunions quotidiennes se font via Skype, debout pour éviter qu’elles trainent en longueur. Faire de l’agile à distance est compliqué. Ce n’est bien sûr pas comparable à l’alchimie d’une équipe qui vit ensemble, mais c’est possible.

    B : Qu’est-ce que ces changements impliquent pour les développeurs ?

    YC : Le changement quotidien des applications revalorise le travail des développeurs. Ils sont invités à apporter plus d’eux-mêmes dans le produit, mais ce n’est pas toujours évident. Dans le fonctionnement de l’Agence Digitale, nous avons créé un budget « exploration » pour les développeurs, mais il faut faire attention à ne pas le voir absorber pas les besoins opérationnels courants.

    caseau4

    B : Quel est le profil type du développeur que vous recherchez ?

    YC : Le profil type du développeur dans les startups modernes, c’est celui de l’étudiant américain, moitié codeur, moitié généraliste. Je pense, qu’il y a eu un retournement dans les compétences recherchées. À la fin des années 90, la startup idéale de la Silicon Valley était très technique, avec par exemple des développeurs Russes ou Israéliens. À l’heure actuelle, les startups sont moins techniques car elles sont passées du B2B au B2C (N.D.L.R, de la vente vers d’autres entreprise à la vente au grand public), et font appel à un ensemble plus large de compétences. Leurs développeurs ont moins besoin d’être des informaticiens brillants. Il faut par contre qu’ils comprennent bien les aspects métiers de l’application, l’expérience client, qu’ils puissent imaginer ce qui plaira.

    B : Vous devez quand même innover en permanence ; comment faites-vous ?

    YC : Il est difficile de concurrencer les plus grands qui innovent sans arrêt. Pour innover en permanence dans un monde très concurrentiel, nous ne pouvons pas nous permettre de le faire seul. Nous sommes emmenés à faire de l’innovation ouverte (open innovation en anglais) au sens logiciel du terme, c’est-à-dire en nous appuyant sur une plateforme ouverte à nos partenaires et des API (*). Développer seul est épuisant, la seule façon d’y arriver est de participer à un écosystème, avec des sociétés qui ont choisi de développer des logiciels ensemble.

    Le Big data s’installe au cœur de l’informatique

    B : Vous n’avez pas mentionné le sujet à la mode, le Big Data ?

    YC : Ce qui se passe autour de la donnée à l’heure actuelle est un changement que je pressens mais que je ne vis pas encore contrairement aux changements que j’ai déjà mentionnés. Coder et construire des algorithmes nécessitent maintenant de « penser données ». Pour résoudre des problèmes, avant, on cherchait des algorithmes très complexes sur peu de données. Aujourd’hui, on revisite certains problèmes en se focalisant sur des algorithmes simples, mais s’appuyant sur des données massives. On découvre de nouveaux problèmes sans arrêt, où la valeur est plus dans la donnée que dans l’algorithme. Quand Google achète une startup à l’heure actuelle, il s’intéresse surtout aux données qu’elle possède.

    B : Quelles conséquences ce recentrage sur les données aura sur Axa ?

    YC : Dans le futur, je vois Axa faire du machine learning à haute dose. La mission d’Axa est de protéger ses clients dans des domaines comme la santé ou la maison. Cela signifie donner des conseils personnalisés à nos assurés. Si vous avez 50 ans et que vous allez faire du ski, Axa pourra analyser les risques que vous courrez selon votre profil et partager l’information avec vous en allant jusqu’au coaching. Pour l’instant, notre application de coaching pour la santé est simple. Les conseils qu’elle propose sont limités, avec une personnalisation rudimentaire. Mais nous pensons qu’elle marchera nettement mieux avec un réseau social et un moteur de recommandations.

    Toutes nos passions reflètent les étoiles, Victor Hugo
    Toutes nos passions reflètent les étoiles, Victor Hugo

    Les objets connectés

    B : Vous croyez aussi aux objets connectés ?

    YC : Je suis arrivé chez Axa au moment où tout le monde ne parlait que de ça, mais la plupart du temps le problème est envisagé à l’envers à partir des données sans se demander si le client a envie d’en générer et d’en partager. Pour le grand public, il n’y a qu’un petit nombre de cas où ces objets sont vraiment sympas, comme la balance Withings que j’adore. J’ai un cimetière d’objets connectés chez moi qui n’ont pas tenu leur promesse.

    B : Pourquoi ne tiennent-ils pas leur promesse ?

    YC : Les objets connectés ne deviennent vraiment intéressants que quand ils sont contextualisés, qu’ils fournissent la bonne information à la bonne personne au bon moment. Je suis fan du tracker Pulse de Whithings et j’en ai offert quelques uns autour de moi. Ma fille a adoré jouer avec pendant 15 jours, puis elle a trouvé l’objet limité. Par certain côté, son smartphone avait une meilleure connaissance d’elle rien qu’en étant connecté à son agenda.

    B : N’y a-t-il pas un risque avec l’utilisation de toutes ces données ? Dans le cadre d’une assurance par exemple, qui me garantit qu’elles ne seront pas utilisées contre moi, par exemple pour décider l’augmentation du prix de ma police d’assurance ?

    YC : Je pense qu’il y aura à la fois des barrières légales et sociétales pour garantir que n’importe quelle donnée ne sera pas récupérée, utilisée à mauvais escient. Il est indispensable que de telles barrières soient établies.

    B : Après des années dans la R&D autour de l’informatique, vous avez l’air d’aimer toujours autant ce que vous faites ? Qu’est-ce qui vous passionne vraiment aujourd’hui ?

    YC : J’ai une mère qui vit seule dans sa maison à 80 ans. Comme beaucoup d’entre nous, je me sens donc très concerné par le devenir des personnes âgées. Nous sommes en train de développer un mini réseau social destiné aux séniors isolés et à leurs proches. Appelée « AreYouOk ? », cette application sortira d’abord au Japon. Je pense qu’il y a beaucoup de choses à faire pour les adultes dépendants. Notre application se servira des signaux d’objets connectés comme des téléphones portables avec ses senseurs comme l’accéléromètre, des montres. Il est assez simple de détecter un incident, une chute. Bientôt, nous pourrons aussi détecter une baisse de tonus, qui peut être le symptôme d’un problème de santé sérieux. Il suffit d’analyser les déplacements, leur vitesse… Dans les années qui viennent, nous allons pouvoir améliorer considérablement la manière de vivre des personnes âgées. C’est le genre de chose qui me donne vraiment envie chaque matin d’aller travailler…

    Propos recueillis par Serge Abiteboul et Marie Jung

    (*) API : Une interface de programmation, API pour Application Programming Interface, est une façade par laquelle un logiciel offre des services à d’autres logiciels. Elle consiste en une description détaillée qui explique comme des programmes consommateurs peuvent utiliser les fonctionnalités d’un programme fournisseur, par exemple un service Web ou une bibliothèque de programmes.

  • Nos ordinateurs ont-ils la mémoire courte ?

    Quelles images, quels sons, quels écrits de notre société numérique restera‐t‐il, quand  les archéologues du futur, dans quelques siècles, chercheront à reconstituer nos données, désormais de moins en moins « ancrées » dans la matière ? Notre civilisation est-elle encore capable de produire de la mémoire ? Une réponse, positive, est donnée à travers ce reportage vidéo de 52 mn de Zed distribution Télévision.

    Depuis que s’est développée l’informatique de masse, nos informations et tout notre patrimoine collectif est codé en binaire sur des supports dont la pérennité semble dérisoire par rapport à la mémoire de papier de nos bibliothèques ou à ce que l’antiquité nous a laissé gravé dans la pierre. Or, nous allons laisser aux enfants de nos enfants pour des siècles et des siècles, un héritage culturel, mais aussi un monstrueux héritage de déchets radioactifs. Il faut arriver à faire que toute cette mémoire ne se perde pas.

    Le film chez Zed
    Le film chez Zed distribution télévision

    En réaction à ce problème majeur, ce reportage montre comment des chercheurs se livrent à une véritable course, une course contre l’oubli. Au-delà des solutions par recopie de nos données à travers la vis sans fin des mutations technologiques de notre monde numérique dans des centres de données, c’est en revenant vers l’encre et le papier que des données qui doivent traverser le temps sont archivées, à côté de véritables message gravés dans la géologie de notre sol, sur du quartz. On se tourne aussi vers un support bien plus fragile mais prodigieusement miniaturisé et pérenne : l’ADN.

    Standards pour le codage des données ? Mécanismes de codes correcteurs d’erreurs et de duplication des données pour les rendre robustes aux altérations ? Prise en compte du fait que ces données sont mouvantes pour garder aussi la mémoire de l’histoire de l’évolution de ces données ? Outils informatiques efficaces pour exploiter et garder ce qui est noyé dans la masse des informations humaines ? Ce sont ces questions que le reportage nous offre en partage.

    Se pose alors, au-delà de ce reportage, le problème de la pertinence des données, dans une société où la mémoire collective explose. Quelle information pertinente devons-nous collecter ? Que devons nous conserver pour ne pas nous noyer dans un océan de mémoire ? De quel droit à l’oubli disposons-nous face à cette hypermnésie ? Ce qu’il restera se fera-t-il à l’insu de notre plein gré ou thésauriserons-nous ce que nous pensons être de plus précieux ? Et qui peut dire ce qu’il faut garder dans cette arche de Noé de la mémoire humaine ?

    Serge Abiteboul, Thierry Viéville.

  • Le sens de la ville numérique

    Dans le cadre des « Entretiens autour de l’informatique », Binaire a choisi de parler d’architecture. Spécialiste de l’histoire des technologies de l’architecture du 18e à la ville numérique, Antoine Picon nous apporte le recul indispensable pour adresser un sujet complexe. Entre deux séjours aux Etats-Unis où il enseigne, il a rencontré Serge Abiteboul et Claire Mathieu.

    Antoine Picon
    Antoine Picon

    L’informatique a révolutionné l’architecture

    B : Vous êtes à la fois ingénieur et architecte, et vous avez une thèse d’histoire. Qui êtes vous vraiment ? Entre les sciences et les lettres, où vous situez vous ?

    Antoine Picon (AP) : Je m’intéresse à la culture numérique, à la ville, à l’architecture. Je suis plutôt un historien et spécialiste des techniques de la ville, d’architecture, mais avec quand même à la base une formation de scientifique. J’ai plutôt choisi les humanités – j’ai toujours eu envie d’écrire – mais avec une certaine sensibilité scientifique. Je m’intéresse aux sciences et techniques d’un côté, à la ville et à l’architecture de l’autre.

    B : En quoi le numérique a-t-il changé le métier d’architecte ?

    AP : C’est un peu compliqué. Il y a d’abord eu l’influence, depuis les années 50, d’une perspective « calculatoire» sur l’architecture. Puis, depuis les années 90, la profession s’est informatisée. A l’école d’architecture de Harvard (aux USA), il y a peut-être plus d’ordinateurs qu’au département de physique ! L’informatique a complètement transformé la profession. Aujourd’hui, par exemple, on ne dessine quasiment plus à la main ; on fait presque tout avec l’informatique.

    B : Mais, l’ordinateur reste un outil. Est-ce que cela change fondamentalement ce qu’on construit ? Est-ce véritablement révolutionnaire ?

    AP : Ça l’est de trois façons. Premièrement, il y a des géométries de formes nouvelles, qui étaient très difficiles à concevoir avec des outils traditionnels. Cela a changé toute une série d’objets. Ainsi, on assiste actuellement à un retour de l’ornemental en architecture, grâce à la possibilité de jouer sur des « patterns ». Deuxièmement, cela modifie aussi des aspects plus profonds du métier. Les choses sont plus faciles au quotidien car en pratique on peut modifier et mettre à jour nos projets beaucoup plus facilement, mais du coup cela remet en question le « pourquoi », la finalité de ces modifications, qui devient une considération beaucoup plus importante. Enfin, les structures professionnelles changent. On voit l’émergence de pratiques transcontinentales, de nouvelles collaborations, ce qui finit par donner une prime aux grosses agences, d’où un effet de concentration ; la taille des agences croît partout dans le monde. Tout cela transforme véritablement le métier d’architecte.

    Actuellement, avec les « BIM » (Building Information Models), on va vers la constitution d’outils qui permettent de rentrer toutes les données constitutives du projet dans une base de données ; mais alors se pose la questions de déterminer qui possède cette information et qui a lieu de modifier quoi. Ce ne sont plus les architectes tout seuls, mais les architectes avec leurs clients, qui se disent que c’est peut-être maintenant l’occasion pour eux de reprendre la main. Bien sûr, l’architecture ne se produit pas dans le vide : il y a des ingénieurs, tout un contexte, et l’informatique a transformé les interactions.

    Par ailleurs l’informatique est quand même liée à une culture, la culture numérique, qui induit des changements sociétaux, anthropologiques, politiques, dont l’architecture est partie prenante. Ville et architecture sont affectées. L’intérêt du numérique, pour moi, c’est que l’informatique est l’un des vecteurs d’un changement social et culturel beaucoup plus général.

    Le rapport avec la matière

    B : Pouvez-vous être plus concret ?

    AP : Cela a commencé dès les années 50, quand la cybernétique a reposé la question : qu’est ce qu’un sujet humain ? L’architecture travaille à partir d’une certaine vision de l’homme. Qu’est ce que c’est que construire pour un homme à l’âge de l’information ? Dans les années 50, y a eu le courant des « méga-structures ». Dans ce courant, la pensée dominante était la pensée des connections. Tout est dans les connections. L’architecture est pensée en liaison avec les modèles du cerveau. Maintenant, le postmodernisme est hanté par l’idée de revenir à un vocabulaire traditionnel tel que colonnes, fronton, etc.

    B : Où trouve-t-on ce type d’architecture ?

    AP : Dans une série de projets par exemple dans l’architecture « corporate » aux USA par exemple. Un peu plus tard, le centre Pompidou est décrit par ses auteurs entre autres comme croisement entre le British Museum et un Times Square informatisé. Il montre comment technologie et société fonctionnent ensemble.

    Centre Pompidou, Paris, Wikipedia
    Centre Pompidou, Paris, Wikipedia

    B : Est-ce au niveau fantasmatique ou réel ?

    AP : Il y a des deux. Le rapport de l’architecture à la science. Les architectes travaillent sur la métaphore et arrivent parfois à saisir des choses essentielles sur la signification des choses.

    Le Corbusier, dans les années 20, faisait des constructions qui se prétendaient industrielles, mais maintenant encore la Villa Savoye paraît bien plus moderne que l’automobile des années 20. Il avait une incroyable capacité à se saisir de et à donner forme à l’imaginaire de l’époque. Il y a eu un travail similaire autour de la montée en puissance des réseaux.

    Villa Savoy, Le Corbusier, Yo Gomi @ Flickr
    Villa Savoy, Le Corbusier, Yo Gomi @ Flickr

    L’ordinateur, lorsqu’il est apparu, était vu comme une machine à calculer, puis on s’est rendu compte qu’il pouvait simuler le raisonnement, et aujourd’hui, on se dit qu’on peut s’en servir pour ressentir le monde. Les architectes travaillent sur la façon dont les gens sont en contact avec le monde physique, et cela est en mutation. Par exemple, zoomer et dé-zoomer, ce sont des actions qui nous paraissent actuellement complètement naturelles, parce que nous vivons dans une culture numérique. Les architectes travaillent sur cette question de sensibilité, du rapport que nous entretenons avec la matière. Ils essaient de capturer l’évolution de la matérialité due au numérique et de comprendre comment cela joue.

    C’est une chose que font les sciences en collaboration avec la culture, proposer une interprétation de ce que sont l’homme, le monde physique, et la relation entre eux. Par exemple, lors de la Renaissance, la compréhension de la perspective a changé le rapport des hommes au monde. Aujourd’hui, l’informatique réforme encore plus puissamment le rapport entre l’homme et le monde. L’informatique change l’audition, les distances, la mobilité, la gestuelle. On observe une place croissante du pouce dans les cartographies cérébrales. L’informatique modifie notre rapport au corps physique.

    NOX/Lars Spuybroek, HtwoOexpo appelé également Water Pavilion, Neeltje Jans, Pays-Bas, 1993-1997, vue intérieure
    NOX/Lars Spuybroek, HtwoOexpo appelé également Water Pavilion, Neeltje Jans, Pays-Bas, 1993-1997, vue intérieure

    La ville intelligente est un nouvel idéal urbain

    B : Est-ce ce changement qu’on voit dans les villes intelligentes ?

    AP : Nous allons vers une révolution urbaine tout à fait considérable. La ville intelligente est un nouvel idéal urbain. Les technologies numériques dans la ville, ce n’est pas récent, mais il y a eu une prise de conscience qu’on est peut-être à la veille d’une mutation. La ville est comme une mine à creuser pour en extraire le nouvel or moderne : les data. Et puis il y a des « civic hackers » qui essaient de promouvoir l’idée d’une plate-forme collaborative, toute une floraison d’initiatives sur le modèle de Wikipedia. Tout cela s’accompagne d’une prise de conscience par les élus municipaux.

    Preston Scott Cohen, musée d'art de Tel Aviv, vue informatique de la rampe centrale
    Preston Scott Cohen, musée d’art de Tel Aviv, vue informatique de la rampe centrale

    Dans mon interprétation, je distingue trois dimensions à ce changement. Premièrement, l’information est événementielle (pensez à Paris Plage, aux festivals, et aussi à tous les micro-événements). On va passer d’une ville envisagée comme ensemble de flux à une ville d’événements, de scénarios. Deuxièmement, il y aura une composition entre intelligences humaine et artificielle. Nous vivons déjà entourés d’algorithmes. Ainsi, ceux qui gouvernent les cartes bancaires peuvent décider de bloquer la carte en cas de comportement suspect. Il faut peut-être concevoir l’intelligence de la ville d’une façon plus littérale. Il y a actuellement une montée des droits des animaux. Peut-être qu’un jour il faudra reconnaître les droits et devoirs des algorithmes ! Cependant, reconnaissons que pour les hommes le fait d’avoir un corps fait une énorme différence. Si on admet un peu de futurisme, la ville ne sera plus seulement occupée par des hommes mais peut-être aussi par des cyborgs ! Troisièmement, le numérique est profondément spatialisé. Au début, l’informatique s’est construite comme non spatiale mais aujourd’hui, les informations relatives à l’espace et au lieu ont de plus en plus d’importance. La civilisation du numérique n’a d’ailleurs pas empêché la croissance extravagante des prix de l’immobilier dans certaines zones.

    B : Une révolution, vraiment ? Chez nous, dans nos logements, dans nos bureaux, nous ne voyons pas vraiment la révolution…

    AP : Les incidences sur l’espace physique ne sont pas immédiates. Ainsi de l’électricité. Au début, elle n’a rien changé à la forme physique des villes, mais lorsqu’elle a permis les ascenseurs, l’éclairage électrique (donc des bâtiments plus épais), l’architecture a changé. Les villes de l’avenir ne seront pas forcément comme celles qu’on connait.

    Dans les bidonvilles indiens les gens ont maintenant des smart phones. Le fait d’être connecté est devenue vital, même dans les bidonvilles, autant ou plus que les égouts. Il y a d’autres formes d’intelligence qui se développent. À terme, cela posera des problèmes de gouvernance. Les procédures démocratiques traditionnelles risquent de rencontrer leurs limites dans une vile où tous sont connectés à tous. Je crois que la démocratie et la politique vont évoluer. Nous avons maintenant une occasion historique de permettre aux individus de s’exprimer. Comment construire du collectif à partir de l’individuel ? Actuellement, pour moi un des grands laboratoires de la ville de l’avenir, c’est l’enseignement supérieur avec les MOOCs. Ça va bouger très vite, et ce n’est pas forcément rassurant.

    Centre opérationnel de Rio de Janeiro, conçu par IBM
    Centre opérationnel de Rio de Janeiro, conçu par IBM

    Toutes les transformations ne sont pas forcément visibles, internet par exemple. « Spatial » ne signifie pas forcément des formes spectaculaires, mais l’informatique change notre perception de l’espace urbain. L’architecture n’a pas nécessairement comme fonction de sauver le monde mais de lui donner un sens. Les enjeux sur l’urbain sont beaucoup plus massifs que sur l’architecture.

    Antoine Picon, Harvard Graduate School of Design

     

  • Opération (R)Enseignement

    Comme nombre d’entre nous, OpenClassrooms a assisté au vote de la loi sur le renseignement cette semaine à l’Assemblée. Donnons leur la parole ici, reprenant leur texte car ils ont une explication à partager et … une vraie solution à nous proposer. Serge Abiteboul et toute l’équipe de Binaire.

    Opération (R)EnseignementElle a été largement critiquée dans la presse étrangère et comparée au Patriot Act post-11 septembre des États-Unis. Ce même Patriot Act dont les Américains souhaiteraient aujourd’hui sortir.

    Au-delà de la loi elle-même, deux points ont particulièrement retenu notre attention :

    • les députés ne maîtrisent pas suffisamment les impacts technologiques de cette loi et ses répercussions sur l’écosystème numérique
    • les citoyens ne perçoivent pas les enjeux de cette loi

    les gens ne comprennent pas ce que cette loi implique

    Ces deux sujets ont un point commun : les gens ne comprennent pas ce que cette loi implique. « Pourquoi devrais-je m’en préoccuper ? », « En quoi est-ce que ça me concerne ? », « Quelles peuvent en être les dérives ? »

    Lorsque tant de personnes ne comprennent pas, cela renvoie à la mission de rendre la connaissance accessible à tous, et pas seulement à une élite. Parce que nous croyons fermement que l’éducation est le plus fort levier pour améliorer notre niveau de vie à tous. La solution existe : elle passe par plus de partage, plus de transmission des savoirs. À commencer par celui qui vient d’être le plus violemment attaqué : la protection de notre vie privée.

    Pour tout savoir sur la proposition éducative d’Openclassrooms c’est par ICI.

  • Deux associations pionnières d’un musée informatique en France

    Nous avons rencontré deux associations actuellement très impliquées dans le projet #MINF (Projet de Musée Informatique et de la Société Numérique et France). Ce sont ACONIT à Grenoble et la FEB (Fédération des Equipes Bull). Pierre Paradinas, par ailleurs impliqué dans le projet #MINF a mené pour Binaire cette interview croisée.

    B: Dan Humblot, en tant que président de la FEB, peux-tu nous dire, ce qu’est la FEB ?

    DH : La « Fédération des Equipes Bull » (FEB) est une association de type loi 1901, créée en 1986. Elle a été créée à l’initiative de certains collaborateurs de Bull et a été soutenue par Jacques STERN, alors PDG du groupe Bull, qui a décidé que Bull soit le sponsor de cette association. Sa vocation est la sauvegarde et la mise en valeur du patrimoine technologique matériel, immatériel et historique de l’ensemble des sociétés qui ont constitué le Groupe Bull depuis sa création en 1931 et plus généralement de l’ensemble des acteurs de la filière informatique mondiale.

    B: Philippe Duparchy et Philippe Denoyelle, respectivement Président et chargé de collection informatique d’ACONIT, dites nous : c’est quoi ACONIT ?

    PhD: ACONIT est l’association pour un conservatoire de l’informatique et la télématique créée en 1985 à Grenoble. Elle a été encouragée par le professeur Jean Kuntzmann et par François-Henri Raymond (ex directeur de SEA). Notre but, un conservatoire de l’informatique, et pour cela nous sauvegardons, conservons le patrimoine informatique et diffusons les connaissances et les savoir-faire liées à ce patrimoine.

    B: Vous parlez de patrimoine informatique, mais vous avez quoi, 2/3 vieux ordinateurs et 4 vieux PCs ? Que « cachent » vos réserves ?

    PhD : En fait, nous en avons quelques uns de plus ! Inventoriées à ce jour, dans nos réserves on trouve plus de 2 500 machines, 4 700 documents sans oublier plus de 2 600 logiciels. Et il en reste à inventorier… L’ensemble couvre de façon homogène la période 1950 à 2010 et les principaux constructeurs européens et américains, avec une attention particulière aux machines françaises. De beaux objets qui constituent une très belle collection !

    DH : La FEB gère une collection de plus de 750 machines : unités centrales d’ordinateurs et leurs périphériques associés, soit près de 75% des machines qui ont figuré au catalogue commercial de Bull, ainsi que des machines appartenant à d’autres constructeurs comme : IBM, ICL, HONEYWELL, Burroughs, Control Data, Olivetti, NCR, UNIVAC etc. Ceci sur une période de 1923 à 2010.

    T30 detourée

    Tabulatrice T30-Bull; Crédit Photo: FEB

    Bien sûr aussi un ensemble de PC’s de nombreux constructeurs, vient compléter la collection. Il est à noter que la collection comporte la machine de traitement de l’information classée monument historique : la tabulatrice T30 première machine construite dans les ateliers de la Cie des Machines Bull en 1931. Près de 3 500 sous-ensembles, composants et pièces détachées font partie du fond et permettent d’illustrer toutes les étapes de l’histoire technologique et industrielle de Bull. Des prototypes uniques, du type « concept-design » ainsi qu’un exemplaire du fameux « transistron », font partie de notre collection. Un MICRAL N de conception française en 1974 –qui est le premier ordinateur personnel construit au monde- en parfait état est un des fleurons de la collection.

    Parmi les « bijoux » de la collection, une perforatrice et une trieuse SAMAS à cartes 40 colonnes à trous ronds (!) en état de marche.

    En outre, la FEB possède, maintient et fait visiter à Massy, un atelier mécanographique des années 50 complètement opérationnel.

    Sea OME P2

    Crédit Photo: ACONIT

    PhD : Dans les collections de ACONIT, il a une machine classée au titre des monuments historiques en 2005, c’est un calculateur analogique de la SEA. Deux machines de ce type ont été utilisées par l’université de Grenoble vers 1960. Dans le secteur micro-ordinateur, en dehors du Micral S de 1973, nous avons un très rare Alcyane français de 1976. Une machine à faire classer rapidement !

    B : Dan où sont aujourd’hui vos collections ?

    DH : La majeure partie de la collection, surtout les gros objets, est abritée et mise en valeur dans les sous-sols de l’Etablissement Industriel Bull d’Angers. Le reste se trouve au centre Bull de Massy. Certains objets sont en prêt dans d’autres sites (Universcience à la Villette, Pleumeur-Bodou, site Amésys Aix en Provence, PB2I Belfort).

    PhD : Les collections informatiques sont stockées dans nos locaux à Grenoble, nos réserves sont visitables mais ne peuvent offrir un large accès comme le ferait un musée.

    B : Entre nous sont-elles bien conservées ?

    PhD : C’est un équilibre périlleux, nous faisons notre meilleur pour que les objets soient conservés correctement, mais la simplicité des locaux, le manque d’espace et de moyens rendent cette tâche difficile.

    DH : Néanmoins, les machines sont correctement protégées, filmées et répertoriées. Les réserves d’Angers sont visitables et font partie du cycle de visite des clients Bull/Atos. Les machines de l’atelier mécanographiques de Massy sont entretenues et maintenues en état de fonctionnement.

    B :Vous ne collectionnez que des ordinateurs ?

    DH : En ce qui concerne les machines conçues et commercialisées par Bull, la documentation technique est associée aux machine. Notre faiblesse concerne le volet logiciel.

    PhD : Comme je l’ai dit nous conservons l’éphémère, photographies, enregistrements et vidéos, et documents d’archive qui retracent l’histoire de l’informatique…  et de l’informatique à Grenoble. Ajoutez autour de ce trésor nos bénévoles experts, découvreurs, membres ou partenaires d’Aconit qui sont des passionnés. Ces pionniers de l’informatique transmettent en puisant en leur mémoire pour intéresser les jeunes et moins jeunes, en utilisant les objets comme support.

    B : Ça a vraiment de la valeur ces vieilleries ?

    PhD : Bonne question !

    B : Merci☺

    PhD : Où est la valeur ? On ne peut pas construire le futur sans connaître le passé. Peut-on aborder l’ère digitale sans avoir conscience de l’investissement humain, du prix de l’évolution de l’informatique, de la valeur ajoutée des réussites comme des échecs ? Les collections, les objets d’Aconit permettent à chacun des parcours pour prendre la mesure des liens entre passé et avenir.

    DH : C’est une question incongrue, car chacun des objets est un jalon de l’histoire de l’informatique et n’a sa place que dans un musée. Pour des raisons d’assurance, nous avons procédé à une évaluation forfaitaire de la valeur de chaque machine sur la base d’une remise en état sommaire ou de la reconstruction d’une maquette d’aspect équivalent.

    B : Comment sont financées vos associations ?

    DH : Notre association est sponsorisée par Bull/Atos à travers une dotation annuelle pour le fonctionnement et la mise à disposition des locaux et bureaux. Par ailleurs l’association collecte 30% de son budget auprès de ses membres.

    PhD : Depuis dix ans nous avons le triple soutien de la ville de Grenoble, de la Metro et du Conseil Général ce qui permet de couvrir le loyer des locaux, ajoutez à cela une subvention du Cnam pour la mission PATSTEC (http://www.patstec.fr) de sensibilisation des acteurs du territoire à la sauvegarde du patrimoine scientifique et technique. À part ça, les adhésions et les dons de personnes morales et physiques sont notre seul revenu. Autant dire que ça “craint ». Comment financer alors, la pérennité de « notre mémoire » ?

    B : Vous exposez ces machines où ? Menez vous d’autres activités autour des objets ?

    DH : La FEB, depuis sa création, a organisé plus de 250 expositions valorisant le patrimoine et le savoir-faire de Bull, ainsi que des thématiques spécifiques à l’informatique et au monde numérique. Par ailleurs, FEB entretient des contacts permanents avec d’autres organismes opérant dans les domaines de la conservation et de l’enseignement.

    Journées Européennes du Patrimoine - JEP 2011 - 684

    PhD : Les machines sont « exposés » dans nos réserves, à deux pas de la gare de Grenoble. Les visites sont guidées selon l’intérêt des groupes par nos bénévoles « experts » qui se font un plaisir de raconter la petite histoire de chacune de nos machines. L’objet suscite curiosité, intérêt, questionnement, et on peut aussi continuer la visite virtuellement dans les Galeries du site web de l’association.

    Un apport de médiation, d’ateliers scientifiques, de conférences, d’expositions hors les murs prolonge ou conforte l’accès à la connaissance. Les évènements nationaux, Journées du Patrimoine, Fête de la Science sont des temps de mutualisation lors d’actions co-construites pour valoriser ce patrimoine et en faciliter l’approche aux nouvelles générations.

    B : C’est quoi le rêve pour des associations comme les votre?

    DH: Le rêve, c’est de fusionner notre association dans le futur Musée de l’informatique et du Numérique, et la FEB se bat d’ors et déjà pour qu’il devienne réalité. Nos membres actifs sont très vieux, certains sont touchés par la maladie et il est indispensable qu’ils puissent, dans les toutes prochaines années, transmettre à d’autres plus jeunes, leur vécu professionnel et leurs connaissances des machines et des objets de la collection.

    PhD : Notre rêve ! C’est la création d’un Musée de l’informatique et du Numérique en France par exemple sous le #MINF. Un musée innovant accessible du fonds des territoires, collaboratif afin que chaque acteur puisse, à partir d’un objet, trouver un parcours de connaissance, tester son esprit critique. Nous partageons cette volonté, avec les partenaires du projet. Le comment atteindre cet objectif résulte d’une analyse économique et politique, d’où le projet de création d’un musée distribué ou chaque centre expose des collections en lien avec l’histoire et les écosystèmes numériques actuels du territoire. Avec en support un centre unique de collections et d’études coordonnant la diffusion, accueillant les chercheurs.

    DH : Je forme des vœux pour que le projet #MINF sorte de terre le plus rapidement possible !

    B: Nous aussi.

    Liens pour aller à la rencontre des objets et acteurs :

    http://www.aconit.org

    http://feb-patrimoine.com

    http://www.musee-informatique-numerique.fr/

    http://www.patstec.fr