• Minimalisme numérique

    En musique, en architecture un courant minimaliste existe, il influence et structure ces activités… et dans le numérique, qu’en est-il ?

    La simplicité – évidente aujourd’hui – des menus à partir de la pomme en haut à gauche de l’écran ou la simple application calculette étaient présents dès 1984 lors de la sortie du Macintosh. Dans la biographie de Steve Jobs, le lien avec les courants minimalistes du Bauhaus ou des maisons californiennes de Eichler est explicitement mentionné.

    320px-Eichler_Homes_-_Foster_Residence,_Granada_Hills

    On retrouve aussi des recherches et particularités d’informatique minimale, algorithmes simples qui peuvent rimer avec performances ou expressivité minimale de problème complexe via la récursivité…

    Les liens hypertextes sont aussi une forme de minimalisme renvoyant sur les informations pertinentes…

    Un bouquet d’applications très utilisées aujourd’hui est l’expression d’un minimalisme dans les applications numériques. Ces applications sont paradoxalement minimales.

    Il y a celle qui n’échange que 140 caractères, ce qui est moins que le SMS de base en téléphonie mobile de première génération ! Celle qui permet de voir seulement une photo quelques instants – et qui a refusé de tomber dans le giron de Facebook. Celle qui partage des photos entre ami(e)s ou qui généralise les échanges courts de messages (texte, photo, son…) et dont la valeur capitalistique est tout sauf minimale ! Et toutes celles qui permettent d’échanger un logement, prêter sa voiture…

    320px-WhatsApp_logo.svg

    Leurs interfaces et fonctions sont simples. On ne parle pas ici de l’infrastructure de mise en œuvre, qui peut être complexe, ni des données d’usage connectées, mais de leur proposition fonctionnelle. Où est la valeur ? Elle est dans la simplicité/force du service ou dans la base d’utilisateurs qui se comptent pour Whatapps par exemple en centaines de millions d’utilisateurs référencés.

    Quelle est la prochaine idée simple qui fera fureur ? Celle que tout le monde voudra et aura. Qui sera l’acteur, acheteur pour ne pas être dépassé par un concurrent et conforter sa base d’utilisateurs…

    Le coin des curieux : pour remonter à une des sources de la musique minimale, il faut écouter Moondog, à la radio ou dans un disque hommage  chez TraceLabel.

    Par Pierre Paradinas

     

  • Simplon de Montreuil

    Par Sophie Pene, Lea Douhard et Serge Abiteboul.

    Une petite rue tranquille de Montreuil. Nous poussons la grille. Une belle demeure. Et au fond du jardin un ancien atelier et ses verrières : le petit monde de Simplon.co Accueil chaleureux, des dattes, du café.

    photo1Photo Lea Douhard

    Simplon.co est une SAS (entreprise sociale et solidaire) dédiée à l’enseignement de l’informatique pour ceux qui n’ont pas eu la chance d’y avoir accès. Erwan, qui nous reçoit, explique dans le désordre leurs élèves du 93, les femmes, les séniors, les handicapés. On cherche l’erreur. On ne trouve pas. Ah oui ! 30 élèves seulement. Une goutte d’eau dans l’océan d’ignorance de l’informatique, dans la masse de ceux qui voudraient mais ne peuvent pas l’apprendre.

    Les élèves ont été soigneusement sélectionnés : motivation, potentiel, créativité, projet, goût pour le social et la solidarité. Ils sont plutôt atypiques, une minorité n’a pas le bac. Ils ont entre 18 et 52 ans ; ils ont tous énormément envie d’apprendre.

    photo2Erwan Kezzar, cofondateur, Photo iledefrance.fr

    Pendant toute notre visite, nous observerons des élèves studieux, souriants, dans une atmosphère détendue, conviviale. Il faut dire que cela ne ressemble guère à une salle d’étude. Des coussins, des fauteuils, de petits coins personnels où se loger avec son ordinateur sur les genoux, et se sentir chez soi. Ils sont sympas les élèves de Simplon.co ! Et ça bosse.

    Nous sommes ici à mille lieux d’un enseignement de masse comme celui de 42. Le but n’est pas de former les bataillons d’informaticiens dont notre société a tellement besoin. Il s’agit plus modestement d’aider quelques-uns, qui en ont besoin. Trois exemples pour illustrer.

    Lavanya Ramapathiran qui n’avait jamais écrit une ligne de code en arrivant est en train de mettre en place un site Web pour que des mères isolées puisse s’entraider, se garder les enfants. Nous sommes dans l’échange de service de proximité. Elle écrit un petit logiciel qui peut rendre de grands services.

    Audray Sovignet vient de gagner un concours de biilink avec 25 000 € à la clé. Son projet, « I wheel share » est une plateforme qui recense les témoignages de personnes en situation de handicap moteur. Il s’agit d’éveiller les consciences et de constituer un réel état des lieux de leur quotidien.

    Aladine Zaiane lui adresse un problème banal au HLM des Beaudottes, un bureau des plaintes débordé, des locateurs excédés. Un service Web va aider à résoudre le problème. L’organisme de HLM est intéressé. Il va acheter et équiper toutes ces agences. Aladine connaît les assocations de son quartier, leurs besoins ; il a mille idées pour améliorer la vie.

    Ce sont peut-être des business models, ou pas ; en tous cas, ce sont des réponses à de vrais besoins, pour des demandes qu’on ne peut capter qu’en vivant là. C’est une force de Simplon.co : jouer la formation ancrée dans un territoire, apprendre en contexte, faire des projets intuitifs. Cette «  informatique en société », qui devrait donner un certain style à la pratique. On a lu des récits comparables sur des actions à Johannesburg ou Bombay : former des informaticiens en les immergeant dans des communautés locales, pour une informatique  de lutte et de progrès.

    photo3Photo Serge Abiteboul

    La formation est gratuite – traduire la bande de Simplon.co rame pour trouver de l’argent.  Il faut aussi aider les élèves qui en ont besoin à trouver du financement. Simplon.co intéresse des mécènes comme Orange ou SAP, et va avoir le soutien d’un fond d’investissement solidaire.

    Mais qu’apprend-on à Simplon.co ? A programmer avec 6 mois de cours intensifs. L’objectif est modeste, « seulement la programmation », mais sérieux : à l’arrivée l’élève doit être autonome, prêt à l’embauche comme programmeur Web. Ensuite, quand Erwan détaille, les références à la création de startups sont nombreuses. L’ambition n’est pas si modeste que ça : les élèves vont apprendre à devenir des entrepreneurs du numérique.

    Dans un premier temps, ils apprennent à programmer avec (vaguement) des cours et des exercices le matin et du travail en projet par binôme l’après-midi. Les trois derniers mois, ils sont à fond sur leurs projets personnels. C’est finalement relativement classique malgré les références à Jacotot. L’inspiration, c’est beaucoup Dev Bootcamp ; comme eux, ils ont choisi de démarrer par Ruby on Rails. Contrairement à 42 visité récemment, l’encadrement semble très impliqué, très présent (5 enseignants pour 30 élèves, le ration est sérieux). La personnalisation est poussée à outrance.

    On ne peut pas parler de « modèle Simplon.co » car tout paraît très lié au caractère, au charisme des fondateurs, et à leurs convictions. Eux-mêmes ont bâti leur activité sur l’idée qu’ils pouvaient concilier une vie dans le web et une vie d’entrepreneurs sociaux. On pense plutôt à un « style Simplon.co ». D’ailleurs, ils essaiment.

    Ils sont cofondateurs d’un Simplon.co en Roumanie dans un cadre très différent. Ils hébergent Les Compagnons du DEV qui s’attaque à « réduire de la fracture numérique ». (Cela nous ramène à un rapport sur l’inclusion numérique du Conseil national du CNNUM). Par exemple, tous les samedis, ces compagnons de route de Simplon.co enseignent l’informatique à des enfants entre 8 et 14 ans. Avec de telles initiatives, cet enseignement n’est plus réservé aux enfants de familles favorisées.

    Un autre projet de Simplon.co, à Villeneuve-la-Garenne.  Avec une association locale, Le Pôle Solidaire, un élève de la promo actuelle de Simplon.co enseigne l’informatique quatre jours par semaine (Le dernier jour, il étudie à Montreuil). Rodolphe Duterval encadre un groupe de 15 élèves  « des quartiers », entre 20 et 25 ans, quasi tous décrocheurs, souvent en galère. On hallucine. Des élèves difficiles sont confiés à un autre élève qui en sait à peine plus qu’eux. Erwan rassure : « Rodolphe savait déjà quelques trucs avant d’arriver ; ça se passe très bien ; il sait leur parler. » Là, finalement, nous retrouvons peut-être Jacotot.

    Mais pour le moment les essaimages sont stoppés. Simplon.co creuse le sillon de Montreuil et attend les premiers résultats de cette greffe. La première promo se finira avant l’été. Comment les élèves prendront-ils leur envol ? Simplon.co, c’est un do tank. On apprend en faisant, en collectif, élèves comme formateurs. D’où toutes les expérimentations en série. Un hackathon pour l’open data « culture » cet automne, une chabadabada week la semaine du 8 mars sur ‘techno et parité’. Simplon.co encore à SilentChange le 19 mars, le 31 mars à la nuit du numérique de Paris Descartes, et le 2 avril à Decode le Code avec cap Digital. Simplon.co n’arrête jamais de parler programmation, d’en faire faire et de faire que chacun change son monde grâce ça.

    Ainsi se termine notre visite chez Simplon.co. Nous voudrions y retourner pour avoir plus de temps pour parler avec des élèves. Nous arrivions avec un préjugé très positif. Le buzz était fort. Nous ne sommes pas bien certain d’avoir compris pourquoi ça marche, ce qui était généralisable. Mais, bonne chance Simplon.co et que des tas de projets du même esprit fleurissent.

    Serge Abiteboul et Sophie Pène

    photo4Photo Lea Douhard

  • Enseigner la science informatique à l’école ?

    EcoleMercredi 12 mars, jour des enfants, l’émission Rue des Écoles sur France Culture avait pour thème un sujet qui fait beaucoup débat en cette année 2014 : l’enseignement de la science informatique à l’école.

    A cette occasion, 3 invités dont deux qui sont des habitués de binaire sont intervenus ; Gérard Berry, Professeur au Collège de France et Claude Terosier, ingénieure, co-fondatrice de « Magic Makers« . Le troisième, que vous découvrirez bientôt sur binaire, est David Roche, professeur d’Informatique et Science du Numérique à Bonneville.

    Écouter l’émission

    M-A Enard

  • Les informaticiens et l’éthique du numérique

    Sans titreCouverture de The Economist, Décembre 2009.
    Lucas Cranach, Adam and Eve, 1526,
    Courtauld Institute of Art Gallery.

    Que deviendra la notion de vie privée dans notre société numérique ? L’hyper-mnésie et l’hyper-connectivité du net sont-elles des facteurs d’asservissement ou de libération de l’homme ? Quelle sera notre responsabilité vis-à-vis de robots commandés par la pensée, quelle sera notre cohabitation avec les robots ? Construire des robots ressemblant à l’homme est-il tabou ? Faut-il souhaiter ou redouter le transhumain, cet hypothétique homme augmenté de capacités intellectuelles et physiques jusqu’à prendre notre relai dans l’évolution ? Peut-on sans précautions utiliser des données personnelles, génétiques ou comportementales, à des fins de recherches ?

    Cet échantillon d’interrogations – dont certaines relèvent encore de la fiction – illustre l’ampleur et la diversité des questions éthiques que pose l’explosion du numérique.

    Il serait présomptueux de vouloir traiter ici ces questions, d’autant que l’on ne peut pas en débattre entre informaticiens seulement; le propos est plutôt d’esquisser comment le monde scientifique les aborde actuellement. L’accent est mis sur la nécessaire approche décloisonnée des questions éthiques, et la nécessaire inscription de celles-ci dans l’espace public au delà des seuls spécialistes.

    Ethique et déontologie

    En gros l’éthique – qu’elle soit générale ou appliquée à un domaine – relève d’abord de la philosophie et l’humain est en son centre. L’éthique se définit classiquement comme la science de la morale.

    La déontologie, qui n’est pas notre sujet ici, définit de manière plus opérationnelle les pratiques d’une profession, en accord avec l’éthique et le droit. La plus connue est la déontologie médicale. En informatique, le CIGREF (grandes entreprises utilisatrices) et le Syntec (SSI) ont défini leur code de déontologie. La déontologie engage comme le serment d’Hippocrate. L’ANR, agence nationale de projets scientifiques, affiche pour sa part une charte qui énumère les éléments suivants : Développer une recherche sérieuse et fiable ; Honnêteté dans la communication ; Objectivité ; Impartialité et indépendance ; Ouverture et accessibilité ; Devoir de précaution ; Equité dans la fourniture de références et de crédits ; Responsabilité vis-à-vis des scientifiques et des chercheurs à venir. Dans le monde anglo-saxon, on parle plus volontiers d’intégrité (integrity) qui met l’accent sur la responsabilité individuelle de comportement. Le comité d’éthique du CNRS (Comets) vient dans cet esprit d’éditer un guide pour promouvoir une recherche intégre et responsable.

    Une approche scientifique nécessairement ouverte

    Partout les réflexions éthiques mobilisent le regard croisé des philosophes, historiens, sociologues, juristes voire économistes. On peut même dire qu’ « élargir ses horizons » est inhérent à la démarche éthique, car on ne peut en général pas isoler les réflexions sur une science ou une technologie. Par exemple, en informatique, les considérations sur le Big Data ou sur l’anonymat ne peuvent être considérées que dans le contexte sociétal.

    Des sujets incontournables

    Dans le but louable de financer équitablement les cultes, les Pays-Bas avaient mis en cartes perforées IBM les données confessionnelles de leur population dès les années trente, ce qui servit en 1940 les funestes desseins des envahisseurs nazis. Notons que ce pays intègre maintenant tout particulièrement la préoccupation éthique dans ses programmes scientifiques.Certes, on ne peut pas incriminer les seules technologies, la délation par la peur et l’oppression est arrivée ailleurs au même résultat avec du papier et des crayons seulement. Il reste qu’au-delà des controverses, on voit que l’on peut difficilement se laver les mains de tels sujets : in fine, il s’agit des rapports entre la démocratie et les totalitarismes, et de l’avenir de notre monde.

    Depuis le procès des médecins de Nuremberg, et maintenant avec les possibilités ouvertes par la biologie et la médécine, la bioéthique occupe le devant de la scène en éthique appliquée. Cependant les débats éthiques s’élargissent, et la sécurité alimentaire, l’environnement et le numérique suscitent à leur tour des questionnements. Ainsi au niveau européen le réputé appel à projets individuels de l’European Research Council (ERC) compte 105 occurrences de “ethic(s)”! De plus, les candidats doivent remplir un questionnaire éthique de 26 items, dont une douzaine est susceptible de concerner le numérique, notamment à travers l’usage de données personnelles (dont génétiques ou biométriques), les neurosciences, les technologies pour la santé, l’usage militaire ou encore la vie privée (la surveillance et maintenant la sousveillance, qui consiste en la possibilité pour chacun de mettre instantanément sur le net tout ce qu’il perçoit ou que son smartphone capte des personnes qu’il croise).

    Des perceptions variables de par le monde

    Une vision de l’homme inspirée des religions révélées, celles des fils d’Abraham, peut percevoir le transhumanisme comme une transgression. Un asiatique influencé par le shintoïsme peut par contre concevoir l’homme comme participant à un tout dans un continuum entre la vie, la nature et l’artéfact, et ne manifester de ce fait aucune appréhension à l’égard des humanoïdes. Dans nos sociétés, la confiance en la science comme vecteur de progrès s’effrite parfois face à l’ambivalence des technologies qui envahissent notre quotidien. Ainsi on peut voir dans les technologies numériques un facilitateur d’épanouissement et de démocratie, ou à l’opposé un instrument mu par le profit qui accroit les inégalités entre les hommes. Les compromis entre respect de la vie privée et sécurité sont perçus différemment selon les continents ou les aspirations politiques… Plus généralement, une étude norvégienne de 2010 (ROSE the Relevance Of Science Education) portant sur 34 pays représentatifs de la diversité de la planète met en évidence de grandes diversités de perception des sciences et des technologies selon les continents, les cultures, la richesse par habitant ou encore le genre. Un maillage sans frontières des réflexions est donc nécessaire afin d’avoir pleinement conscience de la relativité des préconisations que l’on peut formuler à l’attention d’une nation ou d’une communauté – ainsi en Californie les journaux parlent le plus souvent de l’informatique pour souligner de nouveaux systèmes, des réussites, alors qu’en France on va insister sur les risques de pédophilies.

    Un enjeu de démocratie

    Les débats d’éthique ne doivent pas être confisqués par les scientifiques, sous peine d’un divorce entre les « savants » et la société – comme le dit joliment Jean-Claude Ameisen, président du Comité Consultatif National d’Ethique pour les sciences de la vie et de la santé (CCNE), les chercheurs ne doivent pas se percevoir comme des bergers conduisant un troupeau, mais comme des moutons parmi les autres. Imaginons par exemple que les seuls informaticiens se piquent de dire ce qui est éthique ou ne l’est pas dans le Big Data, ils seraient soupçonnés de vouloir s’ériger en « grands prêtres » du traitement de l’information.

    Si la pensée d’Hannah Arendt est abondamment revisitée actuellement, c’est qu’elle fournit un socle étonnamment d’actualité pour aborder ces questions. Très sommairement, l’idée est que les technosciences – omniprésentes dans notre quotidien, et au cœur desquelles figure le numérique – peuvent devenir outils d’un totalitarisme confisquant l’avenir des hommes, si ceux-ci ne développent pas à leur égard une pensée critique organisée à travers des espaces publics. Autrement dit, si les peuples acceptent que les technologies soient des outils que la propagande leur dit bienfaiteurs mais qu’ils ne questionnent pas, ces technologies peuvent menacer la démocratie. Un exemple souvent cité de cette propagande est le rapport NSF de 2006 au titre évocateur « Converging Technologies for Improving Human Performance : Nanotechnology, Biotechnology, Information Technology and Cognitive Science », popularisé sous le nom de convergence NBIC. Il est donc du devoir des démocraties d’organiser les espaces publics de débats sur ces sujets, et du devoir des citoyens d’y apporter une attention conjointe soutenue. En France, à titre d’exemples, la fondation Sciences Citoyennes, ou en informatique la Fondation Internet Nouvelle Génération (la FING) y œuvrent.

    Un paysage en construction

    Face à ces enjeux les initiatives se multiplient, principalement sous l’impulsion des Etats-Unis d’une part et de l’Europe d’autre part. Sur le plan scientifique, la bioéthique naturellement, mais aussi l’environnement et la sécurité alimentaire provoquent des débats de société, davantage encore que le numérique, car ces secteurs sont perçus comme conditionnant de manière intrusive le devenir biologique de notre espèce.

    Les comités d’éthique scientifique

    Ce sont généralement des instances consultatives, indépendantes, que l’on peut saisir ou qui s’autosaisissent de sujets éthiques, et qui fournissent des préconisations. Ils ont un rôle de réflexion et sensibilisation amont.

    En Europe, l’European Group of Ethics (EGE) joue ce rôle sur tout le spectre scientifique. La Commission Européenne est certes prolixe en tous domaines, mais on soulignera quand même l’abondance de la documentation sur l’éthique en général, et sur le numérique en particulier. Cette abondance semble viser davantage la sensibilisation des chercheurs que la construction d’une vision proprement européenne.

    En France, le plus ancien et le plus en vue est le CCNE déjà évoqué, créé en 1983 à l’initiative de François Mitterrand. Ce comité est placé auprès du Premier ministre, et sa composition garantit la représentation des grands courants philosophiques et religieux. Le CNRS dispose pour sa part depuis 1994 du COMETS. L’INRA et le CIRAD ont fusionné leurs comités.

    Concernant l’informatique, la CERNA (Commission de réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene) a été créée fin 2012 sous l’impulsion d’Inria et du CNRS par Allistene, l’alliance des sciences et technologies du numérique qui réunit le CEA, la CGE, le CNRS, la CPU, Inria et l’Institut Mines-Télécom. Le point de vue y est celui de la recherche et non des usages.

    Il s’ajoute bien entendu au paysage des groupes de travail qui émergent à l’initiative d’établissements ou de groupes d’établissements, comme par exemple le groupe Prométhos en éthique de l’innovation sur le plateau de Saclay.

    Les comités opérationnels d’établissement

    Ils traitent les questions engageant leur responsabilité à travers des projets ou la déontologie des personnels.

    Les instances de validation et certification (respect de normes éthiques)

    De plus en plus d’institutions demandent une certification de conformité éthique des projets de
    recherche attestée par un Institutional Review Board (IRB), notamment pour les recherches impliquant l’homme.

    Les espaces de débat public

    La France dispose depuis 1995 d’une Commission nationale du débat public (CNDP), créée dans le cadre de la loi relative au renforcement de la protection de l’environnement, dite loi Barnier. Cette commission, aux consultations fort diverses, a notamment (mal)traité des nanotechnologies en 2010.

    A un niveau intermédiaire entre le débat public et le cénacle de spécialistes, on peut citer les espaces éthiques régionaux qui se mettent en place à l’initiative du CCNE. Centrés sur la pratique hospitalière, ils associent des représentants des usagers.

    Notons aussi que face au trouble suscité par la biologie de synthèse, le ministère de l’enseignement supérieur et de la recherche a confié en 2012 au CNAM la création d’un observatoire de la biologie de synthèse, chargé d’informer le grand public et d’échanger avec lui.

    Les conférences et symposiums scientifiques

    Il est naturel que des manifestations scientifiques accompagnent la montée des préoccupations éthiques, dans le numérique comme ailleurs. Ainsi l’IEEE, maintenant association internationale des professionnels du secteur numérique et dont les racines remontent à 1884 et l’avènement de la fée électricité, lance l’année prochaine un symposium sur l’éthique appelé à devenir annuel.

    Deux conférences internationales de recherche sont consacrées depuis une vingtaine d’années aux différents aspects éthiques liés à l’informatique, CEPE et ETHICOMP. A l’initiative de la CERNA, elles se tiendront cette année conjointement et pour la première fois en France.

    D’une manière générale, les Français sont peu présents dans ce genre de manifestation. Ainsi, lors de la 3rd World Conference on Research Integrity (WCRI) qui s’est tenue en 2013 à Montreal, il n’y avait que 4 français sur 500 participants. Ce manque d’appétence de notre monde académique est peut-être dû à la faible reconnaissance dans notre pays des investissements dans les questions éthiques et plus généralement les questions interdisciplinaires. Peut-être aussi que, le regard fixé dans le rétroviseur sur notre rôle phare du temps des Lumières, nous percevons avec circonspections les nouveaux espaces éthiques qu’ouvrent les technosciences. Nuançant ce dernier propos, de nouveaux lieux de réflexions émergent dans notre pays, notamment au sein d’associations comme la FING (Fondation Internet Nouvelle Génération), Renaissance numérique, la Quadrature du net. Par ailleurs, l’AFIA (Association Française d’Intelligence Artificielle) a consacré un récent bulletin à un « Dossier Ethique et IA », et la SIF a reproduit une première version du présent propos dès le numéro deux de son bulletin intitulé 1024.

    ___________________________

    En conclusion, il importe que les scientifiques contribuent aux débats sur l’éthique des nouvelles technologies, et du numérique en particulier, faute de quoi les espaces laissés en friches pourraient être investis par des obscurantistes ou des aventuriers. Nous devons aussi veiller dans notre pays à dépasser nos vieilles habitudes de « s’affronter d’abord, débattre ensuite », car aborder les sujets éthiques en termes de pro- versus anti-technologies nous ferait passer tragiquement à côté du sujet. Et pour cela sensibilisons, informons, formons à commencer par la jeunesse.

    Max Dauchet, Conseil scientifique de la SIF

  • Informatique [nom féminin]

    Septembre 2013.  Superbe cru. 2 nouvelles doctorantes (indiennes) sur les 6 nouveaux. Si je me réjouis de compter désormais 2 femmes sur la douzaine d’étudiants en thèse de mon équipe, je suis navrée de constater cette bien faible diversité dans la discipline, largement sinistrée du point de vue de la parité. Et de plus en plus. Aux États-Unis, la proportion d’étudiantes dans les cursus d’informatique de l’enseignement supérieur était de 37% en 1984 (effet  lune de miel, propre à l’introduction d’une nouvelle discipline) pour diminuer,  lentement mais surement,  à 29% en 1989, 26% en 1997, et osciller aujourd’hui autour des 10%.

    Pourquoi si peu de femmes en informatique  et surtout que faire pour inverser la tendance ? Pourquoi une science si jeune, si dynamique, qui offre une telle diversité de carrières, est-elle à ce point boudée par les jeunes filles ? Quelle est donc cette incompatibilité entre l’informatique et les femmes ? Pourquoi observe-t-on une dégradation de la situation ? Comment faire pour venir à bout des clichés ? Il y a manifestement un terrible malentendu qu’il convient de dissiper avant qu’il ne soit trop tard. En cette veille de la journée internationale des droits de la femme,  penchons-nous sur ce désamour des jeunes filles pour l’informatique, alors que nous savons tous que notre science n’a pas de sexe.

    Avant de stigmatiser l’informatique, il convient de rappeler qu’elle subit le même sort que la plupart des sciences « dures »  comme la physique ou les mathématiques, causé par des stéréotypes tenaces de la société à l’égard de ces sciences, même si la chimie et la biologie ont à la faveur de je ne sais quel miracle opéré le tournant de la féminisation. Comme si disséquer une grenouille était plus gracieux que  résoudre une équation. Aucune de ces activités n’est  féminine, ni masculine du reste, n’en déplaise à ceux qui ont récemment déclaré la guerre aux velléités des institutions d’œuvrer pour l’égalité à l’école.

    Il est évident que lorsque les étudiants arrivent dans le supérieur, il est déjà bien trop tard. Les connexions se sont déjà opérées différemment dans ces petits cerveaux des années auparavant.  J’aime pourtant à penser que les nouvelles générations seront épargnées. Comment féminiser notre discipline en attendant de les voir débarquer dans le supérieur ?

    Si les clichés regorgent dans la société sur le fait que certains métiers sont typiquement masculins, le cas de l’informatique est aggravé par quelques idées reçues qu’il convient d’éclairer :

    Idée reçue  n°1 : L’informaticien  est un geek.  Enlisé dans ses lignes de code, négligé et asocial. Nous avons suffisamment de modèles féminins et masculins pour démontrer l’éclectisme et l’ouverture d’esprit des informaticien(ne)s. Ada Lovelace, considérée comme le « premier programmeur » et Grace Hopper, pionnière de la compilation, n’ont rien de geeks ; Alan Turing le père de l’informatique, s’habillait très correctement et s’intéressait autant à l’évolution qu’à la cryptographie ; Melissa Mayer dirigeait l’équipe de Search de Google avant d’être à la tête de Yahoo et on l’accuse à l’envi d’être trop sexy (faut savoir) ; Zuckerberg sous ses airs de gamin est un redoutable homme d’affaire.

    Idée reçue n°2 : L‘informaticien code toute la journée, rivé à un écran austère, au fin fond d’un sous-sol. Les  Facebook, Google et autres monstres de l’informatique sont des environnements plus jeunes, vivants et colorés les uns que les autres. Certes on écrit des programmes quand on fait de l’informatique, mais on conçoit  également les algorithmes de demain, en équipe, on les prouve, on traite l’information, de l’ADN aux posts des réseaux sociaux, on analyse les comportements des internautes, on interagit avec de nombreuses autres disciplines comme la biologie, la médecine, la finance. Il arrive même que l’on n’ait pas besoin de machine.  Et si on passe du temps devant un ordinateur, dans beaucoup d’autres métiers, ça n’a l’air de gêner personne.
    Idée reçue n°3 : Le monde de l’informatique est sexiste. Certes l’informatique est largement dominée par les hommes (et de plus en plus car si les femmes boudent ces filières, les hommes s’y dirigent de plus en plus) mais c’est une discipline bien trop jeune pour être trop sexiste, loin par exemple du mandarinat qui sévit dans d’autres, qui pourtant attirent les femmes. À mon humble niveau, je n’ai observé dans les laboratoires néerlandais, anglais ou français que j’ai fréquentés, aucun machisme ambiant et jamais ma carrière, à l’instar de celles de beaucoup de mes collègues,  n’a été freinée par le fait d’être une femme.

    Idée reçue n°4 : Il faut faire des études d’ingénieur pour faire de l’informatique et c’est un métier de garçon. Nous y voilà, précisément là où le bât vraiment blesse. Certes, les cursus d’ingénieurs mènent à l’informatique,  mais on peut y arriver aussi par des études de mathématiques ou d’informatique à l’université. Il y a bien longtemps qu’on sait que les cerveaux féminins n’ont rien à envier à leurs alter-egos masculins, pour réussir à l’école, y compris dans les disciplines scientifiques.  On connaît les travers sociétaux qui  jouent sur les différences, elles sont là ne nous méprenons pas, pour formater l’esprit des jeunes. L’informatique n’a malheureusement pas le monopole de cette barrière sociétale. Faisons confiance aux filles, apprenons leur à se faire confiance. Un article récent paru dans Science et Avenir (30/01/2014),  fait état de  « la menace du stéréotype » : un chercheur de l’Université d’Arizona a fait passer un examen de mathématiques à deux groupes comptant autant d’hommes que de femmes : le premier groupe a été informé que le succès dépendait généralement du sexe (au sens où les hommes réussissaient mieux, pour cette expérience), au deuxième groupe on a expliqué que les résultats étaient généralement indépendants du sexe. Les résultats des filles du premier groupe étaient catastrophiques, équivalents à ceux des garçons dans le deuxième groupe. Les garçons, eux ont mieux réussi dans le premier groupe (il est probable que des préjugés inversés auraient eu un effet, inverse, mais les stéréotypes ambiants au sujet des sciences sont bien ceux-là). L’étude conclue que le «  stéréotype avait un effet dévastateur chez les filles et stimulant chez les garçons. » La route est longue !

    Idée reçue n°5 : L’informatique, comme les jeux vidéos, c’est pour les garçons.  Les jeux vidéos ne sont plus l’apanage des garçons, et quand bien même, il n’a jamais été démontré de corrélation entre les aptitudes aux jeux vidéos et en informatique. Et puis,  l’informatique c’est pour les jeunes bien d’autres choses que les jeux vidéos. C’est aussi les réseaux sociaux où les statistiques montrent une dominance de l’activité des jeunes filles d’ailleurs, les moteurs de recherche, les applications mobiles, le graphisme, etc. Et là de me révolter contre les photos d’un catalogue proposant des séjours thématiques aux enfants et adolescents qui montrent exclusivement des garçons pour les différents stages d’informatique. Je vous laisse deviner de quel sexe est l’ado  sur la  photo du stage de danse de l’été 2014.

    Et j’en passe. Tout ceci est d’autant plus frustrant que l’informatique est une science jeune qui ne devrait pas faire l’objet de préjugés de temps plus anciens. Dans l’imaginaire collectif cela reste une science d’hommes – on a même parfois du mal à la faire accepter comme une science d’ailleurs, en France, peut-être parce que certains rayons de supermarchés sont intitulés « informatique ». Si on trouvait à l’hypermarché du coin un rayon science physique, cela affecterait peut-être un peu le prestige d’Einstein. Faire intégrer que l’informatique,  théorique où pratique, peut épanouir aussi  les femmes reste un défi.   Il faut des modèles, des actions, relooker la discipline,  la démystifier.

    Les statistiques  sont formelles et confirment que cette tendance s’aggrave dans toutes les universités du monde occidental. Aussi soucieuses de la parité qu’elles soient, les institutions académiques ne peuvent que constater que les candidates manquent cruellement.  On le note assez clairement dans les jurys de recrutement ou sur les bancs des cours de master. Par exemple en France, la proportion du nombre de femmes diplômées des écoles d’ingénieur est passée de 5% à plus de 25% de 1975 à 2000, elle continue de diminuer en informatique, après un pic à  près de 20% dans les années 80, elle est repassée à 10% (source : ticetsociété.revues.org, 5(11)). La position particulière de l’informatique dans les cursus d’enseignement supérieur et plus encore secondaire, où l’informatique n’est enseignée que très tardivement, n’y est probablement pas étrangère. L’introduction de l’enseignement dans le secondaire  est un excellent début. Il faudra cependant plusieurs années pour récolter les fruits de ces réformes dans le supérieur.

    Et ailleurs ? Si  l’Europe (la France est du reste mieux placée que la Suisse ou la Belgique) et l’Amérique du Nord subissent le même sort, étonnement la situation est très différente dans un certain nombre de pays : à Singapour les femmes sont majoritaires, en Europe de l’Est et au Maghreb, la parité est beaucoup plus respectée. Alors même que certains de ces pays affichent souvent des inégalités entre hommes et femmes, y compris dans la loi. Un peu comme si lorsque nécessité fait loi, on est moins enclin à chipoter sur le genre des disciplines : quand ce qui importe vraiment est de faire des études supérieures et  de se former,  on ne s’offre pas le luxe de savoir si notre cursus a l’air assez  féminin.

    La prise de conscience est générale et de nombreux programmes existent dans le monde pour encourager les femmes à faire de l’informatique.  Les universités américaines en particulier se penchent régulièrement sur le problème. Par exemple, en 1995, CMU  (Carnegie Melon University)  a augmenté la proportion de femmes de 7% à 42% en prenant des mesures particulières de sensibilisation, en changement l’image de l’informatique, en faisant des campagnes agressives de recrutement et en se penchant sérieusement sur les éléments qui rebutaient les femmes à s’engager dans cette voie (collaboration avec des sociologues, interviews d’étudiants,…). Il en résulte un groupe particulièrement actif de  femme en informatique à CMU (women@scs).
    La bonne nouvelle idée est peut-être celle  de l’une des plus progressistes et prestigieuses universités américaines, Berkeley, celle  de  réinventer les cours d’informatique. A Berkeley, le nouveau cours d’informatique s’appelle Beauty and Joy of Computing, qu’importe cet intitulé peut-être exagérément glamour, l’effet est là et au fond c’est ce qui importe, en attendant de vivre dans une société qui arrête de modeler différemment nos petits en fonction de leur sexe. Cette classe de Berkeley compte 106 femmes et 104 hommes.  C’est donc possible, en 2014. La clé du succès de cette classe a été de moderniser le style des cours, de revisiter la manière d’enseigner l’informatique, au delà de la programmation, de se pencher sur l’impact et la pertinence de l’informatique dans la société, de commencer chaque cours en discutant un article récent lié à la technologie, etc. Alors même que le but n’était pas d’attirer uniquement les femmes, chaque élément qui aurait pu les dissuader a été soigneusement évité. Et c’est un succès.

    Tentons nous aussi le revirement, expliquons que faire de l’informatique ne sous entend pas  pondre du code à longueur de journées, isolé avec un PC, en Tee-shirt délavé, faisons visiter nos labos, expliquons les algorithmes et leur importance  dans  les écoles primaires. Profitons de la  dynamique de l’informatique, de sa constante évolution,  de son ubiquité dans la société, des défis majeurs qui ne cessent de s’offrir à notre discipline, pour faire évoluer son image. Là où les jeux vidéos, les jeux en ligne où les téléchargements en pair à pair attiraient en majorité les garçons qui monopolisaient les ordinateurs familiaux, l’usage de l’ordinateur aujourd’hui est désormais pour une bonne part consacrée à une utilisation sociale et culturelle du Web, garçons et filles se disputent désormais le portable de Maman. Nous sommes à un tournant de l’informatique, à l’ère des réseaux sociaux, du Big Data, de la bio-informatique massive. Surfons (agressivement) sur cette réelle opportunité de changer l’image de l’informatique auprès des plus jeunes, de faire évoluer nos cours et séduire garçons et filles.

    Enfin, soyons pragmatiques, l’informatique est tellement transversale, qu’elle est probablement l’une des disciplines les plus prometteuses en terme d’emploi, nos jeunes filles ne peuvent s’offrir le luxe de laisser les hommes seuls occuper ce terrain !

    Anne-Marie Kermarrec, Directeure de recherche Inria

     

  • L’informatique: pour nous, les femmes!

    Un petit billet à l’occasion de la semaine de la journée internationale des droits des femmes.

    Sylvie Boldo

  • HTML et les MST

    27% des américains pensent qu’un Gigabyte est un insecte.
    23% que MP3 est un robot de starwars.

    11% que HTML est une maladie sexuellement transmissive.

    Pour ce dernier cas, ils n’ont pas peut-être pas totalement tort. Combien de personnes se sont mises à HTML pour impressionner un partenaire ? Combien d’autres ont appris HTML « sur l’oreiller » ? Qui sait ?

    Et qui dit MST dit prévention. Pour prévenir les entorses au standard: http://validator.w3.org

    Évidemment, ce sont les États-Unis. La France, avec son enseignement de l’informatique que le monde nous envie, est à l’abri d’un tel ridicule. Non?

    Serge Abiteboul

    Source: LA Times via GB.

  • La physicienne et la prof d’informatique

    Elle ne s’appelle pas Christelle ou Estinna, mais elle enseigne réellement au lycée de G. C’est bien une histoire vraie.

    Son métier ? Professeure de physique-chimie. À là la ! La physique-chimie. Non mais pourquoi embêter des jeunes qui vont devenir avocat, journaliste ou vedette d’une émission de télé-réalité avec de la physique-chimie ?

    Il se trouve qu’au XXe siècle à l’ère industrielle, tout le monde, même nos grands mères ou notre plombier, a appris une science «tout à fait inutile» pour eux mais complètement indispensable pour leur permettre de comprendre, s’approprier, adapter ou créer les nouveaux objets que l’ère industrielle engendrait. Elles et ils ont appris de la physique-chimie. Et la France est devenue une nation industrielle dont aéronautique, les transports, … sont en bonne place sur la scène internationale, car tous les métiers ont comme compétence marginale des notions de physique-chimie.

    Oui mais concrètement, dans ma vie de tous les jours, à quoi bon ?

    Voici un exemple de notion de physique-chimie inutile mais «indispensable» ? 1393347747_Black_carPeu d’entre nous se souviennent «que l’énergie cinétique croit au carré de la vitesse» ! Mais tout le monde sait une chose : si presque en panne d’essence avec ma voiture il faut choisir entre rouler le plus vite possible jusqu’à la prochaine station pour maximiser les chances d’éviter la panne sèche ou paradoxalement rouler lentement vers cette même station, la quasi totalité des gens va choisir la bonne réponse. Le concept d’énergie consommée et son lien avec la vitesse du moteur est compris par chacun-e, même l’explication physique est très lointaine (y comrpris pour des informaticiens 🙂 ).

    C’est ce que notre collègue professeure explique probablement quand une ou un jeune lui demande, mais Madame, pourquoi ? Et c’est étonnant et parfois complètement rigolo la physique (par exemple comme notre collègue nous en explique un élément ici avec une-bouteille-a-la-mer).

    Maintenant, notre professeure (qui a suivi l’option informatique au lycée de la seconde à la terminale de 1990 à 1993, avant que cette option ne disparaisse purement et simplement) sait que le monde a changé, que nous ne sommes plus à l’ère industrielle mais sommes à l’âge numérique. Elle qui a vu sa mère radiologue, il y a 30 ans, reprendre sa formation pour passer de la radiographie à l’échographie. Alors comment faire pour que nos enfants ne considèrent pas comme « magique » le fait d’être localisé ou le fait de deviner grâce à nos données Facebook qui de nous a des tendances à la schizophrénie [ref] ? La réponse est toute simple : en enseignant l’Informatique [ref] et les Sciences du Numérique : l’ISN (voir son manuel pour en explorer le contenu). Pour maîtriser et pas uniquement consommer le numérique. Et en deux ans de formation et auto-formation, cette professeure est devenu aussi prof’d’ISN. Et son pire ennemi ce n’est pas la motivation des jeunes. Eux, comprennent bien facilement qu’apprendre les fondements du numérique va les aider au quotidien et ils pressentent aussi que le numérique ouvre à pleins de métiers nouveaux. Son pire ennemi c’est que la société des adultes a cru à un immense mensonge collectif.

    Au XXIe siècle à l’ère numérique1393347776_teddy_bear_toy_2, ceux qui nous vendent des objets numériques matériels ou logiciels ont réussi à nous convaincre d’une chose énorme : inutile d’apprendre les sciences informatiques et mathématiques qui ont engendrés les technologiques du numérique, il suffit de savoir les consommer. Donc apprendre les usages suffit. Et la France est devenue une nation sans aucun grand développement numérique matériel venant de son pays. Va t-elle aussi perdre la bataille des grands produits et plateformes logiciels ? Tandis que depuis des années en Inde, en Suisse, en Tunisie, … et depuis un an en Grande-Bretagne l’informatique et les sciences du numériques (ISN) sont devenues la «physique-chimie» du XXIe siècle à apprendre à nos enfants, la France commence seulement à rattraper son retard sur ces sujets.

    Et concrètement dans mon quotidien, à quoi bon apprendre cette ISN ?

    Voici un exemple de notion d’informatique inutile mais «indispensable». 1393347490_malicious_codeQuand on me demande mon mot de passe Facebook ou Twitter, pour être sûr que ce n’est pas une “fausse” page destinée à me pirater, il faut et il suffit (sauf rarrissime situation) de regarder l’adresse Internet qui doit commencer par les 25 caractères «https://www.facebook.com» ou bien par les 20 caractères «https://twitter.com» uniquement, sinon c’est une adresse pirate. Si je comprends le langage qui définit les adresses Internet alors ce geste m’est naturel, sinon je ne vais même pas me poser la question et rester “effaré” devant le vol de mes identifiants. Et si j’apprends la règle ci-dessus comme une recette toute faite (apprentissage par les usages) alors je vais tomber dans le piège suivant si la parade n’est pas sur la liste de ce qu’on m’a fait apprendre par cœur. Si en revanche j’ai appris un peu de science informatique alors cette “astuce” va me paraitre évidente et surtout je serai prête ou prêt à trouver par moi-même la parade au problème suivant.

    Oui, mais quel défi ! Enseigner (enfin !) des sciences du 21ème siècle .. sans professeur formé, ni manuel disponible ? En pleine crise budgétaire ? Orthogonalement à d’autres disciplines bien “établies” ? Vous voulez rire ! En fait, et bien : oui. Ça a été plutôt épique, mais parole : on a aussi bien rigolé.

    Dans la majorité des académies, à la suite des leçons inaugurales de scientifiques comment Gérard Berry, enseignant-chercheurs universitaires ou des organismes de recherche se sont mobilisés pour déployer plus de 50 heures par an de formation auprès de chaque professeur concerné. Autour de Gilles Dowek, un manuel pour la formation des enseignants, puis un premier manuel scolaire ont été créés, avec un modèle économique ouvert, ère numérique oblige. Un site de ressource et de partage et d’échange a été fondé, et nourri de multiples ressources existantes ou crées à cet effet (conférences vidéo, documents de référence, ..). Sans oublier la revue Web de culture scientifique )i(nterstices, qui s’ouvre à l’ISN. Avant cela, le choix de ce qui serait à enseigner a fait l’objet d’une profonde réflexion, tandis depuis des années de grands collègues s’étaient mobilisés. Plus bas niveau, des chercheurs, qui vont présenter régulièrement, leurs travaux aux lycéens ou qui les aident pour les TPE, et qui sont en rapport avec des professeurs, ont convaincus ces derniers à de se lancer dans l’aventure. Ce fut le cas de notre professeure, qui suite à une conférence, s’est laissée convaincre.

    Tout fut-il parfait ? Ô non ! Il y eu des obstacles, des réussites et probablement des loupés, mais nous avons collectivement avancé. Les vrais héros de cette épopée ? Les professeur(e)s eux-mêmes, qui ont osé commencer à apprendre une nouvelle spécialité, et dont la curiosité intellectuelle et la volonté d’enseigner l’avenir à nos enfants les ont conduit à prendre ce risque professionnel et intellectuel. Quelle exemplarité, tout de même : ces femmes et ces hommes qui doivent convaincre nos enfants qu’apprendre est une nécessité, ont donné l’exemple collectif que cela est possible quelque soit le nombre des années.

    Une anecdote ? 1393347584_CoolNous voilà dans un lycée dit “technique”, Un prof (initialement de physique) est devant ses élèves de seconde générale en “option de découverte scientifique” (dont quelques geeks, et oui !). De manière très factuelle, il les informe que cette année là, c’est “avec eux” et en leur apprenant, qu’il s’initiera lui-même à la programmation informatique. Trois secondes de silence, dû à l’étonnement collectif. Puis la réponse tombe de la bouche d’une des deux filles de la classe, dans un assentiment général tacite : «Ah ouais M’sieur ? Total respect.». Du coup, même pas besoin du chercheur venu pour aider : l’enseignement sera un succès.

    Grâce à ces “profs”, petit à petit, des notions comme celle “d’information numérique” sera aussi bien comprise que le fut la notion d’énergie au 20ème siècle. On parle ici d’apprendre des connaissances, et d’apprendre à apprendre à travers des projets. L’aventure n’est pas que de transmettre de nouveaux savoirs, mais aussi de nouveaux savoir-faire. Les abstractions de l’informatique s’apprennent en les manipulant expérimentalement à travers des exercices de programmation, mais aussi de spécification, conception, etc..

    Et voilà que notre professeure qui n’est pas seulement prof mais aussi parent, commence à apprendre la programmation à ses enfants avec Scratch, et la robotique avec le charmant robot thymio ! Et trouve que ce serait bien si l’informatique était enseignée dès l’école primaire !

    Propos recueillis auprès des professeurs d’ISN de l’Académie de Nice par Thierry Viéville avec la complicité et la contribution d’Estelle Tassy, professeure ISN, Lycée Amiral de Grasse.

    En savoir plus :

  • Le sens des images

    image-henrimaitre2.1Terkiin Tsagan Nuur, Khangaï, Mongolie Henri Maître

    Suite de l’entretien d’Henri Maître, professeur émérite à ParisTech réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan (lire l’article précèdent)

    Binaire : Dans le traitement de l’image reste encore de nombreux champs à défricher. Pour toi, c’est quoi le Graal ?

    Henri Maître : Le Graal, pour moi c’est très clair : c’est dans la sémantique. Depuis le début du traitement de l’image, des gens ont été interpelés par le fait qu’il y a d’une part la forme de l’image (les pixels, c’est noir, blanc, rouge ou vert, ça a des hautes fréquences, des basses fréquences, des contours, textures) et il y a le contenu, le message que l’on veut faire passer. Entre les deux on ne sait pas comment ça se passe. Cette dialectique entre ce qui est intelligent dans l’image et ce qui est simplement l’emballage de l’intelligent est quelque chose qui n’est pas résolu mais dont les gens se sont bien rendu compte. Détecter un cancer du sein sur une radiographie, ça ne peut généralement pas se faire sur une image seule. Il faut à côté connaître les antécédents de la personne. C’est pour ça que les médecins ont tout à fait raison de ne jamais laisser les ordinateurs faire les diagnostics eux-mêmes. Les ordinateurs et le traitement de l’image ne peuvent donner que des pistes en disant : « Cette zone-là me semble susceptible de présenter des tumeurs malignes. » Et puis le médecin, lui, il va voir son dossier et compléter l’examen en mettant les radioscopies sur l’écran, car lui saura faire le mélange complexe entre l’information de radiométrie et l’information hautement sémantique portant sur l’âge et le contexte clinique de la patiente. Ce problème-là était déjà clair dans les années 70-75 quand on a pris le problème. Maintenant nous progressons, mais lentement. La sémantique reste toujours mal cernée. Tu tapes Google, tu tapes Charles de Gaulle et tu ne sais toujours pas ce que tu vas avoir. Tu risques d’avoir un porte-avions. Ou un quartier de Paris. Ou un aéroport. Ou peut-être le général que tu cherchais ! Ou alors il faut lever l’ambiguïté : ajouter de force la sémantique : « aéroport Charles de Gaulle » ou « général Charles de Gaulle », ces mots ajoutés forcent le sens que personne malheureusement ne sait aujourd’hui trouver dans l’image. C’est là un enjeu colossal pour nous aider à exploiter les immenses ressources qui se cachent dans la toile.

    B : Ça progresse en utilisant évidemment des techniques de traitement de l’image mais ça progresse aussi en utilisant, d’autres technologies comme les bases de connaissances ?

    HM : Oui. On tourne autour du problème : « image ou intelligence artificielle ? » depuis des années, depuis 30 ans au moins, parce qu’en parallèle de problèmes de bas niveau du traitement de l’image, d’algorithmique liée à la détection des formes et des objets présents dans l’image, les gens s’interrogent sur la façon de représenter cette connaissance. Au début, on procédait en utilisant des règles, des grammaires, sans grands succès ? Puis des systèmes à base de connaissance. Vous aviez des très bons chercheurs à l’INRIA comme Marc Berthod ou Monique Thonnat qui ont développé pendant des années des systèmes intelligents pour reconnaître des formes sur ce principe. On disait : « Un aéroport, ça a des pistes, des bâtiments et des hangars ». Ces modes de raisonnement, qui sont bien datés, ont été abandonnés, malgré des efforts considérables, et des résultats non négligeables, ils ont montré leurs limites. Après, on a basculé sur d’autres systèmes des systèmes coopératifs de type multi-agents. Les résultats n’ont pas été bien meilleurs. Actuellement, on est d’une part revenu très en arrière vers des techniques de reconnaissance statistique et très en avant en mettant en scène des ontologies de traitement de l’image. Ces ontologies sont là pour mettre des relations intelligentes entre les divers niveaux d’interprétation et vont permettre de piloter la reconnaissance. Actuellement, c’est parmi les choses qui fonctionnent le mieux lorsqu’elles s’appuient sur une classification de bas niveau de qualité comme en procurent les algorithmes purement probabilistes issus du machine learning. Néanmoins, il est clair que, dans les images, il y a une partie de compréhension beaucoup plus complexe et plus difficile à traiter que dans le langage parlé ou dans l’écrit.

    B : D’où vient la difficulté ? De la géométrie ?

    HM : Une grande partie de la difficulté provient de la variabilité des scènes. Prenons le simple exemple d’une chaise, terme sémantiquement simple et peu ambigu qui se décline en image par une très grande variété d’objets, chacun étant lui-même dans des contextes très variés.

    image-henrimaitre2.2Photo Henri Maître Street Art Paris

    B : C’est beaucoup plus compliqué que de reconnaître le mot chaise, même dans dix langues différentes.

    HM : Oui, exactement.

    B : La prochaine frontière ?

    HM : Actuellement un problème préoccupe les traiteurs d’image, la possibilité de représenter une scène avec beaucoup moins de pixels que ce que réclame le théorème de Shannon (qui fixe une borne suffisante mais pas du tout nécessaire en termes de volume d’information utile pour la reconstruction d’un signal). C’est ce qu’on appelle le «compressed sensing». C’est à la fois un très difficile problème mathématique et un redoutable défi informatique. De lui pourrait venir un progrès très important dans notre capacité d’archivage des images et pourquoi pas de leur manipulation intelligente.

    B : Merci pour cet éclairage. Tu es quand même à Télécom et donc tu ne vas pas couper à une question sur les télécommunications. Vu de l’extérieur, pour quelqu’un qui n’y connaît pas grand-chose là-dedans, on a l’impression que, à un moment donné, les télécoms aussi ont basculé dans le numérique et que, maintenant, il n’y a plus beaucoup de distinctions entre un outil de télécom et un ordinateur. En fait, c’est l’ordinateur qui est devenu le cœur de tout ce qui est traitement des télécoms. C’est vrai ou c’est simpliste ?

    HM : Non, ce n’est pas simpliste. C’est une vue qui est tout à fait pertinente. Mais pendant que les télécoms sont venues à l’informatique, l’informatique a été obligée de venir aux télécoms : il est clair que si l’ordinateur est au cœur des télécoms, le réseau est au cœur de l’informatique moderne, c’est probablement plus des télécoms que de l’informatique.

    B : C’est un mariage ? Un PACS ?

    HM : Voilà. Cette assimilation des deux s’est faite de façon consentie aussi bien d’un côté que de l’autre. Il reste un cœur d’informatique qui n’utilise pas du tout les concepts des télécoms, et des domaines des télécoms qui n’intéressent pas les informaticiens, mais un grand domaine en commun qui s’est enrichi des compétences des uns et des autres. C’est la convergence. La convergence qui était annoncée depuis très longtemps.

    B : Donc, puisque là on parle de convergence, on parle aussi d’une convergence avec la télévision…

    HM : Qui est plus lente et qui est moins assumée, actuellement, dans la société. Parce que certes, probablement dans beaucoup de foyers en particulier dans ceux de nos étudiants, il y a une convergence totale où l’on capte la télé sur le web, sur un téléphone ou sur une tablette, mais il y a quand même encore beaucoup de foyers français qui réservent un seul appareil à la télévision, qu’elle soit hertzienne ou sur fil. Pour eux, il y a une convergence technique (dont d’ailleurs ils ont des occasions de se plaindre), mais elle est restée cachée.

    B : C’est juste une question de temps. On est bien d’accord ?

    HM : C’est une question de temps, c’est ça. C’est une question de génération.

    B : OK. Pour passer au présent, maintenant tu es prof émérite. À quoi passes-tu ton temps et qu’est-ce qui te passionne encore ? Dans la recherche, si ça te passionne encore.

    HM : Je reviens lentement à la recherche. J’ai eu une interruption longue : quatre ans où je me suis entièrement consacré à de l’administration de la recherche. Et c’est extrêmement long pour un chercheur. J’ai pris en charge la direction de la recherche, la direction du LTCI et la direction de l’école doctorale. Trois secteurs, dans des périodes très troublées par de multiples chantiers où il y avait beaucoup boulot. J’ai donc eu une coupure très importante et je suis en voie de réadaptation : je suis en train de réapprendre les outils du chercheur débutant. Du coup, et tant qu’à faire que se remettre à niveau, j’explore des nouveaux axes. Je me suis plongé depuis quatre mois, sur ce qu’on appelle la photographie computationnelle. C’est quoi ? Ce n’est pas une nouvelle science, mais une démarche scientifique qui cherche à tirer profit de tout ce que la technologie a fait de nouveau dans l’appareil photographique, aussi bien au niveau du capteur, des logiciels embarqués, des diverses mesures pour faire autre chose qu’une « belle image » (ce qui est la raison commerciale de ces nouveaux appareils). Quel genre de chose ? des photos 3D, des photos mises au point en tout point du champ, ou avec des dynamiques beaucoup plus fortes, des photos sans flous de bouger, … et l’idée est bien de mettre ça dans l’appareil de Monsieur Tout-le-Monde.

    B : Alors, question de néophyte : J’aurai plus de réglages à faire ? Ça va faire beaucoup plus automatiquement ou ça va me demander des réglages voire de programmer ?

    HM : On ne sait pas encore. C’est une piste pour permettre à chacun de faire des photos normalement réservées au professionnel. Une autre piste est de mettre ces fonctions à la disposition des bons photographes comme un « mode » supplémentaire disponible à la demande. Pour l’instant ce sont des usines à gaz qui ne peuvent quitter le labo de recherche. Il y a aussi une évolution qu’il faut prendre en compte : l’appareil photo est de plus en plus un « terminal intelligent » du web. D’ailleurs si vous achetez un appareil un peu haut de gamme, la première chose à faire est de le mettre sur le web pour télécharger les dernières versions des logiciels aussi bien du boîtier que des objectifs.

    B : Le système se met à jour.

    HM : Oui, ce qui est quand même assez stupéfiant. Moi j’avoue, en être resté pantois : ton appareil recharge les lois de commande sur la balance du blanc ou la correction des aberrations chromatiques, et ton objectif la stratégie de stabilisation et de mise au point. Bien sûr, sur cette lancée, on voit apparaître des officines qui te proposent aujourd’hui des logiciels pour faire le démosaïcage mieux que Canon ou Nikon, pour te proposer une application dédiée.

    B : Donc on pourrait imaginer des appareils photos qui, comme notre téléphone portable, pourraient se brancher avec des applications qu’on irait télécharger, acheter à droite et à gauche.

    HM : Exactement. Tu veux acheter le truc qui te donne la 3D ? On te donne la 3D. Tu es intéressé par la détection de choses particulières, avoir systématiquement dans toutes tes images une indexation des tags urbains (moi je suis passionné de street art), ça me le fait automatiquement, des choses comme ça. On pourrait faire ça. Pour l’instant, c’est encore inaccessible pour le néophyte…

    B : Mais un jour, peut-être, avec des interfaces de style téléphone intelligent ?

    HM : Oui. Aujourd’hui, même s’il a le lien wifi avec le réseau, l’appareil photo moderne n’en abuse pas. Mais il est déjà doté d’un calculateur très puissant et pourrait faire bien plus. Aujourd’hui, ton appareil photo fait la mise au point tout de suite ainsi que le choix d’ouverture et la balance du blanc. Il analyse la scène, décide s’il est en intérieur ou en paysage, en macrophoto ou en portrait. Il trouve les pondérations des sources. Il fait la mise au point sur les quelques indications que tu lui donnes. Si jamais tu lui dis : « c’est un visage que je veux », il te détecte le visage. Il y en a qui détectent le sourire. Ils font le suivi du personnage et corrigent la mise au point. Tout ça, en temps réel. Ce qui n’est pas encore beaucoup exploité dans les appareils photos, c’est le GPS et la wifi. Le GPS marque uniquement les images, mais il pourrait te dire que tu es place Saint-Marc et que ce que tu as pris en photo c’est le Campanile.

    B : On pourrait imaginer aussi qu’il se charge de reconnaître des tags qu’il y a sur les gens. Des tags électroniques. RFID, des choses comme ça.

    HM : Oui, tout à fait. Ça pourrait se faire très bien ; il faudrait bien s’entendre sur ce que l’on y met.

    B : Jusqu’à quel point sera-t-on dirigé ? Est-ce que je serai forcé d’avoir un horizon horizontal ? Pourrais-je le choisir autrement ?

    HM : C’est une vraie question. Mon appareil photo, ici, est en manuel presque en permanence. Il sait tout faire. Mais je choisis de garder le contrôle la plupart du temps. Mais pour ceux qui font de la montagne par exemple, avoir le nom de tous les sommets, c’est pas mal. Souvent, tu te dis : « Mince, où est-ce ça ? Je ne sais plus bien. » Moi j’aimerais bien que mon appareil photo me taggue les montagnes.

    B : Comme tu aimerais bien, quand tu rencontres quelqu’un, qu’en le mettant sur ton appareil photo il te dise le nom de la personne.

    HM : Ça, ça me gêne plus. Et de ce côté-là, j’avoue que je ne pousse pas trop à la roue. Je suis même assez opposé. Mais pour les paysages je n’ai pas l’impression de pénétrer à son insu dans l’intimité de quelqu’un.

    image-henrimaitre2.3Photo Henri Maître Street Art Paris

    B : On voit sur ta page web que tu voyages beaucoup et que tu rapportes plein de photos. Est-ce que tu penses que ta profession, ton métier ont changé ta vue sur le monde ?

    HM : Oui, beaucoup, c’est sûr. Alors comment est-ce que ça l’a changée ? D’abord j’ai relativisé l’importance de l’image. Prendre des milliers d’images dans un voyage, c’est très facile. Par contre, en garder dix pour un album ou une expo pose de vraies questions … Comment en garde-t-on dix ? On se pose pour chacune la question : qu’est-ce qui la distingue des autres et ça permet de remettre l’homme dans le processus de création de l’image, car s’il ne coûte plus rien de faire la photo, l’acte créateur qui célèbre la valeur de telle ou telle image, renaît au moment de la sélection. Dans toutes les images qu’on fait la plupart, soyons clair, sont sans intérêt, et pourtant ne se distinguent guère des quelques autres que l’on garde. Je ne vais pas aller beaucoup plus loin, car cela nous entraînerait dans des développements ennuyeux. Mais je vais faire une petite digression qui semble n’avoir que peu de lien mais relève du même débat. On parlait tout à l’heure de notre travail avec les musées. Il m’a amené dans les galeries et j’en suis sorti fasciné par l’évolution de la peinture occidentale (je ne connais pas assez les autres cultures pour m’y aventurer). Je trouve que la peinture nous renvoie aujourd’hui le dialogue de l’homme dans le débat husserlien : « Qu’est-ce qui est à moi dans l’image et qu’est-ce qui est au monde dans l’image ? Je capte donc c’est à moi, mais en même temps, c’est de la lumière qui m’est envoyée donc ce n’est pas à moi »… Partons du Haut Moyen-Âge et des œuvres en grande majorité d’inspiration religieuse. Au centre et en haut, c’est l’idée de Dieu, l’idée de grandeur, l’idée de beau ; les vilains sont par terre, ils sont tout petits. Les autres sont grands, ils sont en lumière, ils ont toujours le même visage, iconique, … On représente des idées beaucoup plus que des choses ou des gens. Et puis, le Quattrocento a fait sa révolution, introduisant le monde tel qu’il est dans ce que les gens en pensent. Avant, les peintres représentaient le monde tel qu’ils le voulaient et après le Quattrocento, ils ont commencé à le représenter tel qu’il était. Ils ont introduit bien sûr la perspective, la couleur délicatement dégradée, les ombres, la personnalisation des visages, des détails, souvent banals. Comme si brutalement le monde s’était précipité sur la toile. Ca a duré jusqu’au milieu du XIXe siècle, poussant régulièrement la capacité de reproduire le réel jusqu’aux Pompiers. Mais les impressionnistes ont dit : « Non, ce n’est pas ça qu’il faut… Replaçons l’image dans ce qu’elle doit être. Représentons dans l’image ce qu’on veut représenter, ce qui est derrière l’apparence mais qui en fait la nature particulière, ce qui n’est pas porté par l’image. ». Ce n’était qu’un début qui s’est poursuivi inexorablement avec les fauves, les cubistes puis les abstraits. On a perdu alors les éléments inutiles, les détails, les contours (Cézanne, Manet). Si l’ombre tourne dans la journée supprimons la (Manet, Gauguin). Juxtaposons les instants (Braque, Bacon), juxtaposons les aspects (Picasso). Je trouve ça absolument fascinant. Et je pense que nous, traiteurs d’images, on a vraiment beaucoup à apprendre pour voir comment les peintres ont petit à petit éliminé de la scène qu’ils observent des choses qui sont, entre parenthèses, artificielles. Les ombres, qui tournent dans la journée. Pourquoi ? Parce que l’ombre n’est pas propre à l’objet qu’on veut représenter. L’ombre est propre à l’instant où on le regarde, mais ce n’est pas ça qu’on voit. Au contraire, d’autres regardent la lumière, et font disparaître la cathédrale qui n’est que le prétexte à la lumière, comme l’escalier n’est que le prétexte du mouvement. Toutes ces choses-là, je pense que ce sont des guides pour ceux qui font du traitement de l’image pour leur indiquer le plus profond de la sémantique que l’on va retrouver dans les images. Ça leur montre qu’ils ont du boulot. Pour moi, c’est absolument naturel que les impressionnistes soient apparus quand la photo s’est imposée.

    B : En même temps que la photo ?

    HM : J’imagine le peintre de 1835 : « Mais qu’est-ce que je fais avec ma peinture, à dessiner mes petits pois, mes petits légumes, mes petites fleurs ? À quoi je sers ? » Alors qu’avec une photo, on a exactement la scène telle qu’on la voit. Ça ouvre grand les marges de manœuvre de la peinture, pour représenter les scènes qu’on observe. Quand je parle de sémantique, la sémantique la plus complète, ça peut être effectivement très compliqué.

    B : As-tu des regrets ? Si c’était à refaire ?

    HM : Je ne me suis pas encore trop posé la question. Non, je n’ai pas beaucoup de regrets. Évidemment, j’ai des regrets d’avoir passé trop de temps dans des combats stériles, plus ou moins politiques, plus ou moins scientifiques, d’avoir trop consacré de temps aux démarches administratives. J’ai perdu beaucoup de temps, c’est sûr. Mais je ne regrette pas par contre d’être monté au créneau des tâches fonctionnelles car il faut que les scientifiques s’en chargent si l’on ne veut pas que se ressente très bas dans la vie des laboratoires un pilotage technocratique ou managériale qui peut faire beaucoup de dégâts sous une apparente rationalité. Oui, j’aurais pu faire autre choses. Qu’on me donne dix vies et je referai dix vies différentes, c’est sûr.

    B : Est-ce que tu aurais aimé être physicien ou être autre chose ? Peintre ? Photographe ?

    HM : J’aurais aimé être ingénieur agronome et m’occuper de forêts, si possible outre-mer. Rien à voir avec l’image ! Je me rends compte que je suis bien mieux dans la nature et dans la campagne que dans un laboratoire.

     image-henrimaitre2.4Photo Henri Maître Street Art Paris

    B : nous vous invitons à parcourir le mini-portail du monde d’Henri Maître qui regorge d’images de tout horizon. Bon voyage !

  • De l’holographie à l’image numérique

     

    (original)
    (résultat)

    Effet spécial sur une séquence vidéo : suppression automatique d’un personnage. A. Newson, A. Almansa, M. Fradet, Y. Gousseau, P. Pérez – Télécom ParisTech et Technicolor

    Henri Maître est Professeur émérite à Télécom ParisTech où il était jusque récemment Directeur de la Recherche. C’est un spécialiste du traitement d’images et de reconnaissance des formes. Il nous raconte son parcours qui conduit aux fonctions si sophistiquées des appareils photos modernes et au Graal, « la sémantique des images ». Il nous fait partager sa passion pour ces aspects si dynamiques de l’informatique, le traitement numérique du signal et de l’image et sa vision sur l’évolution et les perspectives qui s’offrent à l’image.

    Entretien avec Henri Maître réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan.

    Binaire : Bonjour Henri Maître. Pour commencer, peux-tu nous raconter comment tu es devenu chercheur en traitement du signal, jusqu’à devenir directeur de la recherche à Télécom.
    Henri Maître : Si je fais partir le début de ma carrière de mon expérience d’étudiant à Centrale Lyon, où j’ai étudié essentiellement les maths appli et la mécanique des fluides, on est loin de ma recherche future. Mais en parallèle, je me suis passionné pour l’holographie, l’optique et la physique des images… Le point commun entre l’holographie et la mécanique des fluides, c’est la transformée de Fourier tridimensionnelle et les traitements qui tournent autour… Dans les premières années de 70, ce n’était pas l’outil courant de l’ingénieur et je pensais pouvoir mettre à profit cette double compétence à l’ONERA pour l’étude par holographie des écoulements, mais ça n’a pas marché et comme je cherchais à me rapprocher de Paris, j’ai fait un stage en holographie numérique à l’ENST, l’actuel Télécom ParisTech qui démarrait une activité sur ce sujet.

    B : Et tu t’es plu à Télécom ; tu y es resté toute ta carrière ?
    HM : Oui. J’ai commencé en mars 1971 et j’ai été remercié en mars 2013 ! Et j’ai même droit à une petite rallonge avec un poste émérite sur place. Ce qu’on me proposait, c’était du traitement de l’information et c’était de l’holographie. Comme je n’étais pas un grand spécialiste de l’optique, j’ai été à l’Institut d’Optique faire un DEA d’optique cohérente dans une superbe équipe qui était pilotée par Serge Lowenthal à l’époque, c’était vraiment le haut du panier mondial en holographie. L’École des Télécoms était en train de créer ses labos. Le premier labo avait été monté par Claude Guéguen et Gérard Battail deux ans auparavant en traitement du signal et en théorie du codage. Jacques Fleuret montait un labo d’holographie et de traitement optique des images juste avant mon arrivée, montage auquel j’ai participé.
    Replaçons nous dans le contexte des années 70. L’ordinateur fonctionnait bien. Il avait quand même beaucoup de mal à travailler sur des images trop grosses pour sa mémoire, les temps d’entrée/sortie étaient considérables et la piste de l’optique laissait entrevoir du temps réel sur de larges images, sans avoir besoin de les transformer par une numérisation. On espérait à l’époque pouvoir faire des traitements très compliqués. Les Américains avaient déjà fait des systèmes optiques de reconstruction d’images de radar à vision latérale embarqués dans des avions. Il y avait des systèmes de reconnaissance de routes ou de rivières en télédétection, de caractères pour le tri postal, de cellules pour l’imagerie médicale. C’était la piste concurrente du traitement de l’image par ordinateur

    B : Une image ne tenait pas dedans ?
    HM : Non, alors, l’image ne tenait pas dans l’ordinateur. Les temps de calcul étaient très longs mais surtout les entrées et sorties étaient très lourdes. Disposer d’une mémoire d’image était une grande fierté pour une équipe (à Télécom comme à l’Inria ou au CNRS). Pierre Boulez est venu voir chez nous ce qui pouvait être utile pour son prototype de 4X qu’il faisait développer alors à l’IRCAM. Notre mémoire, c’était un truc qui faisait 40 cm sur 40 cm sur 20 cm, et sur lequel il y avait 512 x 512 x 8 octets distribués dans des dizaines de boîtiers. Ça permettait d’afficher une image en temps réel devant des spectateurs émerveillés. Pour l’analyse, on passait par un microdensitomètre, prévu pour analyser des spectrogrammes, mais modifié pour balayer le film selon les deux dimensions. On lançait l’analyse le soir (elle durait 8 h et il fallait éviter les vibrations et les lumières parasites ; grâce au ciel il n’y a pas de métro rue Barrault !). Pour sortir les résultats on collait côte-à-côte des morceaux de listings où les teintes de gris provenaient de la superposition de caractères et l’on prenait ça en photo à 20 mètres en défocalisant un peu pour lisser les hautes fréquences.
    Donc, le traitement numérique de l’image existait déjà mais de façon balbutiante : il y avait quelques équipes en France. Je pense à Albert Bijaoui à l’Observatoire de Nice, à Serge Castan à Toulouse, à Daniel Estournet à l’ENSTA ; et Jean-Claude Simon, faisait venir tous les ans dans son château de Bonas la fine-fleur internationale de la reconnaissance des formes. Mais je ne faisais pas de traitement numérique d’images alors. On calculait par ordinateur des filtres complexes par holographie numérique que l’on introduisait dans des montages optiques en double diffraction sur des tables de marbre. Une semaine de calcul du filtre puis quinze jours d’expérimentation en optique pour décider qu’il fallait changer de paramètre du filtre et recommencer le cycle. Ce n’était pas tenable. On a donc décidé de simuler le traitement optique … et on est donc arrivé au traitement numérique !

    B : Les débuts du traitement numérique d’image ?
    HM : Oui, On simulait le filtre optique mais le filtre optique, ce n’était jamais qu’un filtre de corrélation que l’on faisait par une double transformée de Fourier. A l’époque, une double transformée de Fourier, ça vous prenait deux heures sur la machine, même si Cooley-Tukey étaient passés par là. On s’est rendu compte que c’était infiniment plus efficace que de le faire en optique. Que c’était plus rapide, plus souple et que finalement les nouveaux systèmes d’affichage d’image (des oscillos qu’on modulait devant un polaroïd), ou les mémoires d’image devenaient opérationnels. Et effectivement, honnêtement, le bilan scientifique, c’est que les méthodes optiques de traitement des images n’étaient pas compétitives face au traitement numérique. Mon collègue Jacques Fleuret a continué à faire du traitement plutôt optique pour des applications spécialisées ; on a continué à utiliser nos tables d’holographie, en marbre, nos bains photo, nos émulsions, mais on a multiplié les terminaux, gonflé notre mémoire et renforcé notre réseau.
    Je suis parti une année sabbatique en Allemagne dans un labo d’optique cohérente en pôle position dans la communauté de l’holographie, celui d’Adolf Lohmann. Mon cours expliquait le traitement numérique des images à des opticiens.

    B : C’était en quelle année ?
    HM : En 1980. Et je suis revenu avec une étiquette de traiteur numérique des images et à partir de là, je n’ai plus fait que ça.

    fetal_modelingModélisation anatomique d’un fœtus : l’opérateur choisit le stade de croissance,
    l’orientation globale dans l’utérus et la position des membres.
    S. Dahdouh, J. Wiart, I. Bloch, Whist Lab, Télécom ParisTech et Orange Labs.

    B : Est-ce que c’est correct de dire qu’aux alentours des années 80, le traitement de l’image a basculé ou commencé à basculer vers le numérique ?
    HM : La piste du traitement numérique remonte à 1965 et ses résultats sont déjà très nombreux en 1980 mais, effectivement, dans les années 80, le traitement numérique des images est la solution au problème alors qu’avant, elle était une des solutions possibles. Il y avait eu beaucoup plus de crédits dans le traitement optique car les militaires surtout de l’autre côté de l’Atlantique, mettaient beaucoup d’argent pour avoir des traitements embarqués en temps réel. Par contre, le traitement numérique a mis plus de temps car les infrastructures (calculateurs assez puissants, composants, …) n’étaient pas là. Comment est-ce que le traitement numérique est passé devant ? Incontestablement, c’est la conquête spatiale américaine qui a fait basculer le traitement numérique au premier plan.

    B : Et techniquement des choses comme la baisse du coût des mémoires ?
    HM : Bien sûr, l’évolution des composants surtout …. Mais qu’est-ce qui a entraîné l’autre ? Je ne sais pas. Il y a une chose extrêmement intéressante à voir rétrospectivement. Dans les années 70 à 80, lors de la compétition féroce entre les Américains et les Russes pour l’espace, les Américains, partis en retard, ont rattrapé les Russes à coups de technologie très avancée. Les Russes, eux, ont continué à faire une politique s’appuyant sur leurs points forts de base dans laquelle ils envoyaient des hommes dans l’espace. L’essentiel de la conquête de l’espace des Américains, comme des Russes, était destinée à améliorer la surveillance de l’autre. Les Russes le faisaient avec des jumelles depuis les satellites. Ils observaient des cibles, préparées sur des plannings, après des entraînements spécifiques qui leur permettaient de détecter, suivre et identifier les bateaux qui se trouvaient dans un port pendant les quelques minutes où la cible était en visibilité. Résultat : les Russes ont acquis une compétence extraordinaire sur la biologie dans l’espace, les capacités et les évolutions du corps humain, les effets de la gravité sur les performances du système visuel, le fait que, par exemple, la rétine, en apesanteur, ne voit pas les mêmes couleurs de la même façon. Pendant ce temps les Américains envoyaient des caméras prendre des photos et développaient des machines de traitement de l’image pour les exploiter. On voit le résultat quelques années plus tard : les Américains dominent complètement ce marché de la télédétection en haute résolution, tandis que les Russes ont acquis un savoir-faire exceptionnel sur les longs séjours des cosmonautes.
    Cet effort particulier des Américains lancé dans les années 70 à 75 commençait à retomber en pluie fine sur les universités et les labos de recherche. Dans les années 80, le traitement numérique des images était bien établi et, évidemment, s’appuyait sur l’informatique à fond.

    B : Est-ce le progrès du matériel qui a précipité le développement du traitement numérique d’image ou l’inverse ?
    HM :
    Les deux ont été vrais : l’exemple de la mémoire d’image est typiquement un point sur lequel le traitement de l’image a demandé des choses qui n’existaient pas à l’industrie des composants et les progrès ont bénéficié à l’ensemble de l’informatique. C’est probablement aussi le cas des disques à très haute capacité qui servent aujourd’hui avant tout à la sauvegarde des films et des images du grand-public, mais aussi à des applications commercialement moins porteuses mais potentiellement très riches comme les grandes bases de données du web.

    B : Et, à cette époque, tu es où ?
    HM : À Télécom ParisTech, l’ENST d’alors. Serge, c’est peut-être là d’ailleurs qu’on s’est connus ?
    Serge : J’y étais élève. Et tu étais mon prof.

    B : Qu’est-ce qui a évolué dans la recherche, en ce qui concerne le traitement du signal, de l’image, entre ce qui se faisait disons, dans les années 80, et ce qu’on fait maintenant ? Est-ce que c’est juste qu’on le fait mieux ou est-ce qu’il y a eu de nouveaux sujets qui ont émergé, des nouvelles pratiques ?
    HM : C’est assez clair : jusqu’aux années 85-90, le traitement de l’image était porté par des applications qui étaient très consommatrices de gros moyens informatiques. C’était l’imagerie satellitaire, j’en ai déjà parlé : pour la défense, la surveillance, la cartographie. On pouvait le mâtiner d’applications civiles, du genre surveillance des ressources terrestres, suivi des cultures, des forêts, … mais, en gros, c’était quand même essentiellement piloté par des applications militaires. Deuxièmement : l’imagerie médicale. Marché très important démarré avec l’analyse des radiographies et le comptage cellulaire. C’est à ce moment la naissance de la tomographie, de l’imagerie ultrasonore, de l’IRM. Une véritable révolution dans le domaine de la santé, qui renouvelle totalement le diagnostic médical. Matériels très chers, développés par des entreprises hautement spécialisées et très peu nombreuses. Le traitement des images dans ce domaine, c’est du travail de super pros qui s’appuient sur une très étroite relation avec le corps médical. Troisième domaine d’application très professionnel, les applications de traitement de l’image pour les contrôles dans les entreprises : surveillance des robots, lecture automatique dans les postes, dans les banques, pilotage des outils. Si c’est de plus petite taille, ça reste quand même très professionnel.
    Ce tableau s’applique, jusqu’aux années 90. Et là, la bascule s’est produite avec la démocratisation de la photo numérique dans des applications liées au web, à la photo personnelle, aux individus et au grand public, Bref le marché de la société civile. Là, on a trouvé des gens qui se sont intéressés aux mosaïques d’images, à la reconstruction 3D, à la reconnaissance de visages simplement pour des applications familiales ou entre amis.

    B : Les photographes amateurs et les réseaux sociaux ?
    HM : Oui, les réseaux sociaux. Ça ne s’appelait pas encore comme ça, mais c’était bien ça. Cette profusion d’images numériques dans les téléphones, les ordinateurs, les tablettes a fait basculer le traitement de l’image des domaines professionnels au domaine du grand public. Aujourd’hui, c’est le grand public qui tire, c’est très clair. Les développements des matériels, les appareils photos … Tout le monde a son appareil photo à 15 mégapixels, c’est absolument incroyable quand on voit le temps qu’il a fallu pour avoir une image numérique de 100 koctets !. Tous mes cours, commençaient par : « Une image, c’est 512 x 512 pixels.». Une base d’images numériques (comme celle du GdR Isis en France), c’était 30 images. Maintenant, tout le monde a sur son disque dur, des centaines d’images de plusieurs méga-octets. Ça, c’est le nouveau contexte du traitement de l’image. Je pense que cette nouveauté-là réagit très fortement sur les métiers du traiteur d’image. Si vous vous intéressez au renseignement militaire vous aurez probablement autant de renseignements en allant naviguer sur Google Earth qu’en envoyant des mecs se balader sur le terrain ou en lançant un nouveau satellite espion.

    B : Et la science là-dedans ? Est-ce qu’il reste des problèmes durs ? Des problèmes ouverts, le Graal du traitement de l’image aujourd’hui ? Ou bien, est-ce que le plus gros est fait, qu’il ne reste plus qu’à nettoyer ici ou là ?
    HM : Les problèmes nouveaux, oui, on a plein, parce qu’à la fin du siècle précédent, on considérait que si on voulait faire une application, la première chose qu’on demandait, c’est qu’il y ait des professionnels qui prennent les images avec du matériel pro. On se mettait toujours dans un contexte professionnel. Typiquement, pour la radiographie médicale, on achète un appareil à 15 millions d’euros, on prend deux techniciens à temps plein toute l’année et on fait des images dans des conditions parfaitement contrôlées. Donc on se met dans les meilleures conditions d’acquisition de l’image et à partir de là, bien sûr, on tire bon an mal an de bons résultats. Bon an mal an, parce que ce n’est pas si facile que ça. Mais dans les conditions naturelles de la vie : l’éclairage, l’attitude, le mouvement, le bruit, varient sans contrôle et rendent la tâche plus complexe. On dispose cependant de beaucoup plus d’images et de capteurs bien meilleurs et il faut réinventer les algorithmes avec ces nouvelles données. Naissent ainsi des problématiques nouvelles, extrêmement intéressantes, mais difficiles. Il faut trouver les bons invariants, jouer avec les lois de distribution pour détecter les anomalies, savoir faire abstraction des problèmes de géométrie. Et tout cela doit être caché à l’utilisateur qui n’a aucun intérêt aux invariants projectifs, aux matrices fondamentales, aux hypothèses a contrario …

    B : Passons à un autre sujet. Au départ, tu étais physicien. Ensuite, tu es passé au traitement de l’image. Nous, on te revendique maintenant comme informaticien, mais quel est ton point de vue à toi ? Est-ce que tu te considères comme informaticien, ou sinon, qu’est-ce que tu es ? Dans le cadre général de la classification des sciences, tu te places où ?
    HM : Je me sens tout à fait bien dans le monde de l’informatique, mais je revendique d’avoir non seulement une culture mais une sensibilité et une compétence qui vont au-delà, en particulier vers la physique, mais pas seulement. Par exemple je suis extrêmement soucieux de me maintenir en physique à un niveau qui soit suffisant, car je pense qu’on ne peut pas faire, dans mon domaine, de bonnes choses si on ne sait pas ce qu’est une réflectance, une albédo, ou une source secondaire.

    B : Toute l’optique ?
    HM : Une bonne partie de l’optique. Savoir ce qu’est une aberration, un système centré. Donc l’optique est importante. J’ai des sensibilités dans d’autres domaines : autour de la perception, du fonctionnement du cerveau, comment on traite la sémantique…

    B : Des sciences cognitives ?
    HM : Oui, ça pourrait relever de la science cognitive et c’est très important pour traiter les images. On ne peut pas parler d’image sans avoir une petite compétence en psycho-physiologie de la perception.

    B : Est-ce que tu pourrais nous dire comment tu as vu l’enseignement changer au cours de ta carrière à Télécom et comment tu vois le futur de cet enseignement dans un monde où on parle beaucoup de MOOC et de choses comme ça qui font couler beaucoup d’encre ?

    mexicoMesure par interférométrie radar de la subsidance du bassin de Mexico
    due à l’appauvrissement de la nappe phréatique : P. Lopez-Quiroz, F. Tupin, P. Briole
    Télécom ParisTech et Ecole Normale Supérieure 

    HM : Puisque l’on destine cet entretien à la communauté de l’informatique, parlons d’elle tout d’abord. Cet enseignement m’a longtemps semblé beaucoup trop utilitaire à l’école. Afin de se laisser le temps d’aborder les domaines les plus pointus des réseaux, des mobiles ou des services en ligne, on passait très vite sur des fondements théoriques qui me semblent cependant indispensables pour structurer une carrière orientée par exemple vers le développement de très grands systèmes ou de réseaux complexes. Je vois d’un très bon œil que, dans le cadre de notre participation à l’Idex de Paris Saclay nous puissions confronter notre expérience pédagogique à celle d’équipes qui ont dans ce domaine de l’enseignement supérieur de l’informatique de très beaux résultats. J’en attends d’une part une nouvelle pédagogie beaucoup plus en profondeur pour un petit nombre d’élèves destinés à y consacrer leur première carrière, d’autre part pour tous les autres un renforcement net de leurs compétences par une meilleure compréhension des enjeux du numérique.
    Je ne crois pas beaucoup à l’effet des MOOC dans ce domaine. Je les réserverais plutôt pour des domaines où la pédagogie est moins primordiale, peut-être vers les applications.

    B : Qu’est-ce qui t’a le plus intéressé dans ta carrière ?
    HM : La plus passionnante des expériences a été de travailler avec les laboratoires de recherche des musées de France, et en général c’est vers les applications que j’ai trouvé les plus grandes satisfactions, en frottant mes connaissances de traiteur d’image aux compétences d’experts d’autres domaines, qu’ils soient dans la restauration des peintures, dans la cartographie urbaine ou dans la détermination de l’altimétrie de la Guyane.

    poussinEtude de la géométrie d’une œuvre de Georges de la Tour
    (Saint Joseph Charpentier,  Louvres)
    mettant en évidence les principes de construction.
    JP Crettez, Télécom ParisTech et Réunion des Musées Nationaux.

    B : Tu as des exemples d’applications que tu as réalisées ?
    HM : C’était avec les laboratoires de recherche des musées de France. Ça s’appelle maintenant le C2RMF. On a lancé dans les années 83-88 les bases des grands projets européens d’archivage des musées. On a essayé de mettre sur pied non pas des standards mais des critères qui permettent d’établir ces standards, sur la résolution spatiale, l’éclairage, la colorimétrie des bases de données de peintures. Nous étions les partenaires du Louvre et on a travaillé avec l’Alte Pinakothek à Munich, la National Gallery de Londres, et la Galleria degli uffizi de Florence, bien avant que Google s’intéresse au projet. Des projets européens, on en a monté cinq ou six sur les peintures mais aussi sur les objets à 3D, les statues et les vases C’était passionnant et particulièrement stimulant de discuter avec des conservateurs qui ne voulaient surtout pas voir leurs peintures ramenées à un boisseau de pixels.

    HM : Un autre exemple de ce qui m’a beaucoup plu : définir la façon d’indexer les images de la nouvelle famille de satellites Pléïades qui a une résolution de 50 à 75 cm au sol, (toutes les minutes et demi, il tombe 640 méga-octets). Les gens ne peuvent plus traiter les images pour voir individuellement ce que chacune contient. On s’est posé la question de savoir comment indexer les images automatiquement quand elles arrivent, de façon à pouvoir répondre à des questions que l’on se posera dans 10 ans ou 20 ans. Il y a une grande partie de l’information qui est contrainte parce qu’on connait précisément la géographie, donc on sait que ce n’est pas la même chose si on observe du côté de Bakou ou de la Corne de l’Afrique. Mais derrière, il faut pouvoir identifier les champs, les rivières, les zones urbaines, les réseaux routiers, … Savoir s’il y a encore de la neige, ou du vent de sable, de telle façon qu’après, quand on recherchera des images, on retrouve toutes celles qui présentent une configuration identique. Pour cela, il a fallu tout construire de zéro car ça n’a bien sûr qu’un lointain rapport avec les bases de données d’images sur le web. On est obligé de faire des indexations hiérarchiques parce qu’il faut à la fois être précis lorsqu’on a trouvé la zone d’intérêt et rapide pour traiter des milliers d’images, chacune couvrant 1000 km2. Il a fallu discuter avec les utilisateurs : agronomes, géologues, urbanistes, cartographes, pour savoir comment faire les classes. Les gens qui s’occupent d’agronomie, veulent connaître le blé, l’orge, le riz, alors que, comme traiteur d’images, si j’ai reconnu des céréales, je suis très content ! Tu vas voir les urbanistes. Ils te disent : «Moi, je veux les quartiers résidentiels, les quartiers d’affaire, les banlieues, les zones commerciales, industrielles, etc. » et ainsi de suite. Il faut savoir quelles sont les classes qui sont raisonnablement utilisables et donc les questions que la société peut avoir face à l’image. Et je pense qu’à ce niveau-là, l’informatique a encore du boulot devant elle. Elle a encore du boulot parce qu’on va encore lui en poser des questions de ce type. La question n’est pas encore à l’ordre du jour sur le web « social », mais ça ne saurait tarder. Il n’y a qu’à voir comment à ce jour est indexée la musique pour comprendre où se situe le problème. Classer Brel dans la « musique du monde », pourquoi pas, mais qui en est satisfait ?

    B : Dans la suite de l’entretien, Henri Maître partagera sa vision de l’évolution de l’image et des perspectives sociétales qu’elle peut avoir. Nous vous donnons rendez-vous demain pour découvrir sa vision…

    maitreHenri Maitre, © Serge Abiteboul

  • L’informatique s’installe au Collège de France

    college1Source : Collège de France

    Qu’est-ce que le Collège de France ?

    Le Collège de France est une institution résolument originale au plan mondial. Créé en 1530 par François 1e pour libérer la pensée de la scholastique universitaire, c’est une université entièrement libre d’accès, sans étudiants ni examens. Quarante-quatre professeurs permanents élus par leurs pairs y dispensent actuellement leurs cours sur autant de chaires, ce dans les grands domaines de la connaissance : mathématiques et sciences numériques, sciences du vivant, physique et chimie, sciences humaines, histoire et littérature. Ils ont pour seules contraintes de dispenser un cours nouveau tous les ans, représentant « le savoir en train de se constituer », tout en conduisant une recherche de pointe dans leur domaine et en s’ouvrant à ceux de leurs pairs. Leurs cours sont complétés par un nombre égal de séminaires donnés par des personnalités extérieures. Les chaires permanentes sont complétées par des chaires annuelles, cinq actuellement, qui explorent de nouveaux domaines de la connaissance et de l’action. La plupart des cours sont téléchargeables en vidéo sur le site du Collège et au travers de plusieurs réseaux internationaux de diffusions de contenus.

    L’entrée de l’informatique au Collège

    L’informatique est entrée pour la première fois au Collège de France en 2007-2008 lors de la deuxième édition de la Chaire d’innovation technologique Liliane Bettencourt, que j’ai eu l’honneur de tenir cette année-là, tout en gardant mon poste industriel de directeur scientifique de la société Esterel Technologies. La science informatique n’avait jamais été enseignée au Collège de France, et sa connaissance par le grand public restait fragmentaire, beaucoup confondant science, technique et usage dans un méli-mélo quelque peu confus.
    Après une leçon inaugurale embrassant le sujet de façon assez large et illustrant la force de la science informatique et la nécessité de son enseignement, j’ai eu l’idée de travailler à la façon du début du 20e siècle, sous forme de « leçons de choses » dédiées à autant de pans centraux de l’informatique : algorithmes, circuits, langages de programmation, systèmes embarqués, vérification de programmes, réseaux et images, le tout accompagné de douze séminaires associés aux sujets du jour et d’un colloque final. Le lien fort entre le collège de France, France-Culture et d’autres radios m’a permis de compléter le cours par plusieurs émissions de radio, exercice que j’apprécie particulièrement car il donne vraiment le temps à l’invité de s’exprimer et laisse de l’autre côté les yeux, les mains et l’esprit libres à l’auditeur.
    A la suite du succès rencontré par cette première chaire, Inria et le Collège de France ont décidé de créer en commun et pour cinq ans une chaire annuelle « Informatique et sciences numériques », qui vient d’être renouvelée pour trois ans. J’ai encore eu l’honneur (et la charge) d’inaugurer cette chaire, avec un cours plus technique intitulé « Penser, modéliser et maîtriser le calcul informatique ». J’ai centré mon discours sur le fait qu’il y a un gouffre entre écrire un programme qui marche à peu près et un programme qui marche vraiment, en insistant sur le fait que seule une approche scientifique peut permettre d’atteindre le second objectif.
    Les années suivantes, la chaire s’est poursuivie par les cours de Martin Abadi (Université de Santa Cruz et Microsoft Research) sur « La sécurité informatique », Serge Abiteboul (Inria et ENS Cachan) sur « La science des données, de la logique du premier ordre à la toile », et Bernard Chazelle (Université de Princeton) sur « Les algorithmes naturels ».
    Cette année 2013-2014, le cours sera donné par Nicholas Ayache (Inria Sophia-Méditerranée) sur le thème « Des images médicales au patient numérique ». Il présentera les progrès extraordinaires de l’imagerie médicale et de la chirurgie robotisée, ainsi que l’évolution vers un patient numérique personnalisé permettant de mieux comprendre les maladies et leur traitement grâce à une modélisation informatique fine de l’anatomie et de la dynamique des organes. Je ne peux que recommander au lecteur de suivre ce cours, qui montrera bien comment l’informatique change complètement les façons de penser dans un domaine qui lui était autrefois tout à fait étranger.

    college2

    Photo : Collège de France

    La chaire permanente « Algorithmes, machines et langages »

    En 2012, devant l’importance du sujet et de son évolution et devant le succès des cours des chaires annuelles d’informatique, le Collège de France a décidé de créer une chaire permanente d’informatique « Algorithmes, machines et langages » et de me la confier. J’ai choisi de consacrer mes cours à un sujet relativement peu exploré par les approches traditionnelles mais qui devient de plus en plus central dans nombre d’applications : la gestion du temps et des événements dans les systèmes informatiques.
    Les algorithmes et langages classiques s’attachent surtout à la notions de calcul sur des données, et ne traitent le temps et les événements que du bout des lèvres : le temps est vu comme un impôt à payer pour le calcul, les événements comme des choses qu’il convient de traiter avec des primitives ad hoc pour les intégrer le plus simplement possible dans l’exécution séquentielle des programmes. Ceci correspond bien à la conception initiale de l’ordinateur comme super-machine à calculer. Mais, dans un autre monde, l’ordinateur est plutôt vu comme une « machine à réagir ». C’est le cas dans toutes les applications de contrôle de systèmes physiques (avions, automobiles, robots, etc.), où informatique et automatique sont étroitement associées et où le respect des temps de réaction est une contrainte primordiale. C’est aussi le cas pour les circuits électroniques les interfaces hommes-machines, désormais omniprésents, la simulation de système physiques, maintenant à la base de la création d’objets de toutes sortes, l’orchestration d’activités Web, indispensable pour les applications modernes construites par compositions de services existants et commandées par nos téléphones ou autres terminaux sensibles, et même la composition musicale, où les compositeurs contemporains mettent en interaction les merveilleux interprètes humains et les fantastiques possibilités de l’informatique pour produire de nouveaux sons. Tous ces systèmes sont maintenant rassemblés sous le nom de « systèmes cyber-physiques ». Nous allons assister à l’explosion de leur nombre et de  leurs interconnexions à travers le fameux « Web des objets » qui se développe exponentiellement. Il se trouve que la recherche française est en pointe dans ce domaine depuis plus de 30 ans, et fait ce qu’il faut pour le rester. C’est donc un excellent domaine pour le Collège de France, que je détaillerai ultérieurement

    Gérard Berry, Professeur au Collège de France

    college3Plaque en hommage à Claude Bernard, sous les fenêtres de son laboratoire au Collège de France à Paris.  Photo Collège de France. Jebulon

  • La datamasse s’invite Quai de Conti

    mammothLe mammouth Wooly au Royal BC Museum
    Victoria, British Columbia. Wikemedia

    Vidéos de la conférence-débat de l’Académie des sciences « La Datamasse : directions et enjeux pour les données massives »

    • Introduction,  Patrick Flandrin, CNRS, ENS Lyon
    • À la découverte des connaissances massives de la Toile, Serge Abiteboul,  Inria, ENS Cachan
    • Des mathématiques pour l’analyse de données massives, Stéphane Mallat, ENS Paris
    • La découverte du cerveau grâce à l’exploration de données massives, Anastasia Ailamaki, École polytechnique fédérale de Lausanne
    • Big Data et Relation Client : quel impact sur les industries et activités de services traditionnelles ? François Bourdoncle, co-fondateur et CTO d’Exalead, filiale de Dassault Systèmes

     Serge Abiteboul

     

  • Les blagues sur l’informatique #10

    Une blague d’informaticiens que vous ne comprenez pas?
    Un T-shirt de geek incompréhensible?
    Binaire vous explique (enfin) l’humour des informaticien(ne)s!

    Désolé(e), les blagues IPv4 sont épuisées.

    IPv4 est la version 4 (en fait la première largement déployée) du protocole de communication entre ordinateurs utilisé par Internet. Une adresse IPv4 est représentée sous la forme de quatre nombres décimaux (entre 0 et 255) séparés par des points comme par exemple 8.8.8.8. Pour simplifier, on peut considérer que les adresses IPv4 vont de 0.0.0.0 à 255.255.255.255, ce qui fait 232 soit un peu plus de 4 milliards d’adresses. Il n’y en a donc pas une pour chaque humain sur Terre! Et au vu du nombre d’équipement connectés, c’est peu ! Depuis 2011, il n’y a plus de blocs d’adresses IPv4 disponibles, ce qui explique la blague.

    Voici pour illustrer l’en-tête IPv4:

    En-tête IPv4Copyright Wikipedia
    Plusieurs solutions à ce problème existent, notamment la récupération d’adresses attribuées généreusement autrefois, l’utilisation de sous-réseaux, ou l’utilisation du protocole IPv6
    qui autorise 2128 adresses (au lieu de 232), ce qui fait plus de 1038 adresses soit plus de 100 milliards de milliards de milliards de milliards d’adresses.

    Voici pour comparer l’en-tête IPv6. Notez la taille largement supérieure de l’adresse!

    En-tête IPv6Copyright Wikipedia
     

    Voir aussi IPv4, Épuisement des adresses IPv4, Internet, le conglomérat des réseaux.

    Sylvie Boldo

  • L’ordinateur, un crayon pour créer

    L’ordinateur, un crayon pour créer

    Quand mon fils a eu 8 ans, j’ai eu l’idée de lui apprendre à programmer. Comment cette idée m’est-elle venue ? Pour les 15 ans de la promotion de mon école d’ingénieur, des camarades ont interviewé des acteurs du monde des télécoms sur les transformations passées et à venir. Ça a été un choc de revoir l’impact des technologies du numérique sur l’ensemble de la société. En quinze ans, avec internet, les smartphones et les tablettes, les objets portant en eux des programmes informatiques sont devenus omniprésent dans notre vie quotidienne au point de transformer nos modes de vie. Aujourd’hui nous achetons sur internet, nous échangeons sur les réseaux sociaux, nous télé-déclarons nos impôts, nous écoutons de la musique sur des plateformes en ligne… Et ces changements continuent à s’accélérer, nous demandant de nous adapter sans cesse.

    L’un des intervenants a conseillé d’apprendre à ses enfants à programmer. Cela m’a semblé tout d’un coup une évidence. J’avais appris à programmer en école d’ingénieur, ce qui est de fait très tard. Programmer est accessible aux jeunes enfants car pour eux c’est un jeu de création et de construction, qui plus est sur un support qu’ils adorent, l’ordinateur. Plus ils se familiarisent tôt avec la programmation informatique, mieux ils appréhendent les concepts de logique associée à cette discipline ; séquençage, conditions, boucles… Apprendre à programmer permet aux enfants de devenir acteurs dans un monde de plus en plus pénétré de technologies, et pas uniquement consommateurs. Sans être une développeuse, il m’a toujours semblé que je savais naviguer dans le monde actuel parce que je comprenais ce que je manipulais lorsque j’utilisais de près ou de loin un ordinateur, et ce que l’on pouvait attendre de la technologie.

    C’était il y a un peu plus d’un an. J’ai alors cherché un atelier extra-scolaire pour mon fils. J’ai été sidérée de ne rien trouver, même à Paris, pas le moindre atelier pour enfant sur ce thème. De là est née l’idée qui devait changer ma vie, celle de créer moi-même ce qui n’existait pas et qui m’apparaissait une nécessité : des ateliers où les enfants créent leurs jeux, leurs propres histoires avec l’ordinateur, tout en apprenant à programmer, et j’ai démarré les ateliers Magic Makers.

    Des outils adaptés pour les enfants

    J’ai commencé à rechercher quel outil adapté aux enfants je pourrais utiliser. J’ai choisi d’utiliser un des plus connus et des plus efficaces, comme en témoigne la grande communauté d’éducateurs qui l’utilise dans le monde. Scratch est un logiciel développé par le Lifelong Kindergarten au sein du Media Lab du MIT (Massachussetts Institute of Technology). Ce qui est intéressant avec Scratch, c’est d’abord qu’il est extrêmement intuitif et ludique. Les enfants adorent.

    Les commandes se présentent sous forme de blocs que les enfants assemblent simplement avec la souris. On y anime les personnages que l’on a choisis, on les fait apparaitre, disparaître, interagir parler… Le résultat est tout de suite visuel et concret pour les enfants. En créant, ils sont confrontés à des problèmes de logique: ils obtiennent le résultat désiré parce qu’ils ont trouvé une façon efficace d’enchaîner les instructions, dans le bon ordre, avec les bonnes conditions d’actions. Coder, programmer, c’est simplement donner des instructions à une machine pour produire un résultat. Le faire avec Scratch permet aux enfants d’appréhender ce fonctionnement et de se l’approprier.

    L’autre intérêt de Scratch, ce sont les idées sur lesquelles s’appuie sa conception, qui se retrouvent dans la façon de l’utiliser. Scratch est avant tout conçu comme un outil d’apprentissage au sens large, au-delà de l’apprentissage de la programmation. C’est avant tout un outil pour apprendre à apprendre : expérimenter, chercher des solutions, se tromper et recommencer, partager sur le site en ligne et apprendre par la collaboration auprès des autres scratchers. L’équipe du Lifelong Kindergarten s’appuie sur des travaux en sciences de l’éducation, notamment du chercheur Seymour Papert qui met en avant l’apprentissage par l’expérimentation.

    Créer

    L’enjeu des ateliers est la créativité. Le code est un moyen. Dans les ateliers Magic Makers, les enfants expérimentent toutes sortes de choses que l’on peut créer avec un ordinateur. J’aborde les projets dans un ordre qui permette de confronter les enfants à une complexité croissante.

    Nous avons tout d’abord mis en scène des histoires. Cela permet d’apprendre les bases nécessaires pour créer un projet, et d’appréhender déjà les notions de séquencement. Ils trouvent la manière de déclencher des actions en comptant le nombre de secondes au bout desquelles un personnage doit apparaître ou dire sa réplique. Les enfants inventent leurs personnages, ils les créent en dessinant, ou même en pâte à modeler, et ils utilisent ensuite le code pour l’animer. Ils sont très fiers de ces premiers résultats.

    Forts de ce succès, nous abordons ensuite la création de jeux vidéos. Cela fait appel à des concepts plus élaborés : il faut piloter un personnage, et déclencher des actions quand certaines conditions se réalisent, comme par exemple compter des points quand on touche un objet que l’on doit ramasser, et faire disparaitre cet objet, puisqu’on l’a ramassé. Il est passionnant de voir les enfants se prendre au jeu, et trouver un moyen de donner forme à ce qu’ils ont en tête. Ou tout simplement de recréer des jeux qui leur plaisent.

    En fin de compte, quand je repense aux quinze années écoulées, et que je pense aux quinze années à venir, je me dis qu’il faut fournir aux enfants les outils dont ils auront besoin. Et plus que des outils, une façon de les appréhender comme outils de création.

    Claude Terosier. Magic Makers.

  • L’informatique n’a pas besoin de grand frère

    L’informatique est clairement une science qui gagne à ne pas être isolée, qui s’enrichit de ses relations avec des disciplines voisines, ou moins voisines. Les exemples abondent où un travail commun a permis l’émergence de nouvelles questions, de scientifiques travaillant, découvrant autrement : ainsi l’interface entre l’informatique et la biologie a produit la bioinformatique, les travaux d’informaticiens et de linguistes ont permis l’émergence de la linguistique computationnelle ; de nombreux scientifiques s’appellent aujourd’hui géomaticiens, membres d’une nouvelle discipline fruit du mariage de l’informatique et de la géographie. Dans chacun de ces cas, le résultat est une discipline nouvelle, avec ses conférences, ses ouvrages de référence, son vocabulaire.

    Ces relations de co-production sont particulièrement enrichissantes et l’informaticien ne peut que s’estimer chanceux que sa discipline soit capable de co-fermenter autant de projets scientifiques collaboratifs nouveaux.
    Les relations mathématiques-informatique d’une part, sciences de l’ingénieur-informatique d’autre part, me paraissent relever d’une autre logique.

    Les conditions nécessaires à la naissance d’une nouvelle discipline n’ont pas cours, me semble-t-il. Plutôt que création de nouvelle discipline, il y a co-existence de disciplines, co-existence très positive, d’ailleurs !
    La comparaison qui me vient à l’esprit est avec une personne qui a une double nationalité : cette personne ne devient pas pour autant membre d’un nouveau groupe, elle se contente d’avoir la chance de bénéficier de deux cultures.

    De la même façon, tant mieux pour celles et ceux qui appartiennent à deux cultures scientifiques ! Ne réduisons pas cette richesse à vouloir les ranger dans une catégorie qui n’existera qu’administrativement.
    Or, le CNESER, principal organisme consultatif de l’enseignement supérieur, vient de voter une curieuse motion  dans laquelle on lit : « En témoignent des interventions venant quasiment de toutes les disciplines. Citons notamment les Mathématiques et l’Informatique, la Physique, les Arts, la Psychologie, l’Histoire ».  Le « et » ne souffre pas de la moindre ambigüité : pour le CNESER les mathématiques et l’informatique se fondent en une discipline unique ! Voilà comment, au détour d’une motion, se créerait une nouvelle discipline ?

    Le CNESER s’est sans doute inspiré d’un texte commun signé par les 3 sociétés savantes de mathématiques demandant le rétablissement d’une mention de master « mathématiques-informatique » (ou « informatique-mathématiques »), sans cependant utiliser l’argument de la discipline unique.
    La question n’est pas ici celle de la position des mathématiques qui ont naturellement le droit d’avoir un avis sur la question des Mathématiques et l’Informatique. Ce qui est troublant est  qu’ il a paru évident pour les membres du CNESER que l’avis du grand frère suffisait pour en faire l’avis de la fratrie.

    D’un autre côté, on trouve une discipline intitulée « sciences de l’ingénieur ». Cette discipline a une agrégation, ce qui en France est la preuve de son importance. Elle est enseignée au collège et au lycée, ainsi que dans les classes préparatoires. Elle mentionne dans ses programmes, à différents endroits, l’informatique comme étant l’un de ses outils. Elle se définit sans doute plus par ses procédés que par ses connaissances. Le paradoxe n’est pas que cette discipline est aujourd’hui enseignée au lycée alors que l’informatique ne l’est pas ; le paradoxe est que l’une des principales raisons pour laquelle l’informatique n’est pas enseignée est qu’elle apparait, tantôt implicitement, tantôt explicitement, comme étant au programme des sciences de l’ingénieur ou des matières qui sont liées (technologie, au collège). Ce qui n’est pas le cas.

    Ici encore, le grand frère sert régulièrement d’interlocuteur valide, ou du moins validé, et il n’est jamais jugé utile de demander ce que pense la petite sœur…

    L’informatique est une science. Son importance économique et culturelle n’est plus à démontrer. Les débats actuels en France concernant la question de son enseignement resteront faussés si l’on s’entête à vouloir en discuter avec l’un de ses grands frères, voire les deux et ne pas demander son avis à l’intéressée.

    Les informaticiens ont le plus grand respect pour les mathématiques et l’ingénierie qui ont toutes deux eu un rôle fondamental dans la création et le développement de la discipline. Traiter l’informatique comme une science adulte et choisir d’en discuter avec elle et non un grand frère, aussi respectable soit-il, est aujourd’hui une nécessité.

    Colin de la Higuera

     

  • Hollande aussi…

    François Hollande :
    « codage à l’école, tout doit commencer par là et nous allons donner cette impulsion »
    « le codage sera progressivement généralisé »
    et
    « le plus vite possible former les enseignants »

    http://www.cnnumerique.fr/echange-avec-la-salle-lors-de-linauguration-du-us-french-tech-hub-prusa-presidence-de-la-republique

    Voir l’extrait:

    Philippe Marquet

  • Jospin et Rocard aussi…

    La lettre ouverte à François Hollande, Président de la République, concernant l’enseignement de l’informatique a déjà été signée par des professeurs au Collège de France, des académiciens des sciences, des présidents et directeurs d’universités, d’instituts, de laboratoires, de centres INRIA, d’Ecoles, des industriels, des responsables d’associations, des enseignants, chercheurs, enseignants-chercheurs, techniciens, ingénieurs, et… deux anciens Premiers Ministres (Lionel Jospin et Michel Rocard).

    Jean-Pierre Archambault, Président de l’EPI
    (Association Enseignement Public et Informatique)

     

  • Les blagues sur l’informatique #1

    Une blague d’informaticiens que vous ne comprenez pas?
    Un T-shirt de geek incompréhensible?
    Binaire vous explique (enfin) l’humour des informaticien(ne)s!

    Dans le monde, il y a 10 catégories de personnes : celles qui connaissent le binaire et celles qui ne le connaissent pas.

    Pour commencer cette série d’explications sur les blagues liées à l’informatique, voici évidemment la blague la plus connue sur le binaire. Pour le commun des mortels, 10 représente la valeur dix, c’est-à-dire 9+1. En effet, depuis notre enfance, nous utilisons pour représenter les nombres et pour compter la base 10. Ainsi


    2014 = 2 × 103 + 0 × 102 + 1 × 101 + 4 × 100.
    Les ordinateurs (et donc souvent les informaticiens) préfèrent la base 2 (pour les nombres entiers). L’idée est la même. On appelle cela la numérotation de position ou notation positionnelle.

    11111011110=
    1 × 210 + 1 × 29+
    1 × 28 + 1 × 27+
    1 × 26 + 0 × 25+
    1 × 24 + 1 × 23+
    1 × 22 + 1 × 21+
    0 × 20 =
    1024+512+256+128+64+16+8+4+2 =2014
    Maintenant, revenons à la blague et considérons non pas 10 écrit en base 10, mais en base 2, cela donne donc 21+0=2 catégories de personnes, celles qui connaissent le binaire et celles qui ne le connaissent pas.
    Et maintenant, vous êtes dans la première catégorie!

    Voir aussi Nom de code: binaire.

    Sylvie Boldo

  • La preuve par 42

    J’ai été visiter l’école 42 avec François B. (anonymat respecté, je connais deux François B.). J’arrivais avec mes aprioris de partisan convaincu de l’école publique, prêt à lui préférer l’ecole 41, un des plus anciens vignobles de la Walla Walla vallée d’Oregon, prêt à partager l’avis assez critique de la SIF sur 42. J’arrivais surtout avec la conviction que 42 posait de vraies questions. Je confirme. Je vais être parfois critique dans cet article, mais c’est parce que j’ai aimé ce que j’ai vu, parce que je crois qu’il devrait nous conduire à nous interroger sur nos manières traditionnelles d’enseigner, et parce que je crois qu’il serait possible d’améliorer l’école 42. Mais ce dernier point est dit avec une bonne dose d’humilité : la bande du 42 connait mieux le sujet que moi.

    Nous avons été reçus par le DG adjoint, Kwame Yamgnane, sympa, détendu, passionné par son travail.

    kwamePhoto : Kwame – @Kwame42

    Le lieu

    L’école, Porte de Clichy, n’est pas située dans les beaux quartiers, pas non plus dans « les banlieues ». L’architecture d’intérieur est moderne, assez réussie. La vie de l’école se concentre dans trois grands plateaux. Un millier de postes de travail, pour environ autant d’élèves. Quelques sacs de couchage dans une pièce, des restes de « take out » dans un coin cafétéria, bientôt un BBQ et un jacuzzi, on pourrait être dans une startup du Sentier. Sauf la démesure.

    D’où viennent les élèves ?

    Au look, ils ne sont pas très différents de mes élèves de l’ENS Cachan. Ils ont 18-30 ans pour la plupart. 40% n’ont pas le bac. A l’exception de 10% qui suivent des études supérieures en parallèle, ce sont plutôt des jeunes qui ne se sont pas sentis à l’aise dans le système de l’éducation nationale, qui cultivent pour beaucoup le désamour général pour les sciences, et en particulier les maths. Il y a un peu de pertes en lignes, mais elles sont plutôt dues à des problèmes sociaux ou personnels qu’à l’enseignement.

    On peut regretter l’absence d’ « affirmative action » pour intégrer plus de femmes ou plus de jeunes de milieux défavorisés. Pas de langue de bois : 42 attaque le problème de l’absence d’informaticiens et pas d’autres problèmes de notre société. Pour ça, il me faudra attendre ma visite à Simplon.co (la fabrique de codeurs entrepreneurs de Montreuil) dans quinze jours. Pourtant, Kwame reconnaît bien volontiers qu’il faudrait plus de femmes pour former plus d’informaticiens, et que plus de femmes apporteraient de la diversité dans les projets qui sont au cœur de la pédagogie de 42. Pour la prochaine promo ?

    La pédagogie

    Finalement, rien de si neuf. Les références classiques à Piaget. Mais l’approche ici est radicale. Les élèves ont des projets à réaliser, définis par les profs de manière volontairement peu précise. Ils travaillent toujours en groupe. Le groupe obtient une note, jamais l’individu. Chacun va à son rythme et les trois ans prévus pour l’école sont à titre purement indicatifs. Ils ont des grades comme à l’armée ? Une armée de padawans mais qui se passeraient de chevaliers Jedi ? A ce que j’ai compris, le prof est plus le surveillant ou le pompier que celui qui transmet.

    Le travail individuel ou collaboratif marche. On le sait depuis longtemps. Il marche particulièrement bien en informatique, car la programmation se prête bien à l’exercice solitaire de la production de lignes de codes, comme à l’écriture collaborative. A 42, les élèves sont challengés ; ils bossent beaucoup. Les écoles d’ingénieurs, avec forte sélection avant et exigence de travail modeste pendant, pourraient s’en inspirer. J’ai plus de mal à comprendre (à m’habituer ?) à la faiblesse de la transmission. On ferait gagner du temps aux élèves en travaillant avec eux, en répondant à leurs questions quand ils sont bloqués, en leur suggérant des lectures quand ils veulent aller plus loin. Cela ne semble pas au cœur des préoccupations de 42. S’ils sont si peu de maitres, c’est pour des raisons financières ou est-ce un choix pédagogique ?

    plateau2Photo : Serge Abiteboul, cc by-sa

    Science ou technique

    Comme moi, Kwame se réfère beaucoup à la pensée informatique (computational thinking). Mais parle-t-on de la même chose ? Pour moi, cette pensée combine science et technique intimement. L’éducation traditionnelle insiste trop sur la science. Pour 42, comme les élèves n’ont pas trop d’atomes crochus avec les sciences, ce sera seulement la technique. Tout tourne autour de « coder ». On code comme on parle, comme on compte. Ça me rappelle le slogan : « Apprendre à lire, écrire, compter et programmer ». A part, qu’ils disent « coder » au lieu de programmer, on parle de la même chose ? Faire que la programmation rentre dans la peau des élèves, leur devienne aussi naturelle que la parole. C’est exactement ça ! Finalement cela rentre bien dans la pensée informatique, dans un aspect essentiel de cette pensée.

    C’est enthousiasmant de voir que la programmation est au cœur du projet. Mais en même temps, je reste un peu déçu. Je voyais dans la programmation le moyen de raccrocher les décrocheurs, de leur faire apprécier la partie scientifique de l’informatique, de là, les maths, les autres sciences. Pour moi, coder c’est aussi raisonner, faire des maths. Pas à 42 ! On ne demande pas à l’enseignement de l’informatique de régler aussi les problèmes du décrochage en maths. On apprend l’informatique à des jeunes parfois décrocheurs pour leur apprendre un métier. Rien de plus.

    On retrouve bien l’esprit de l’Epitech, avec l’accent sur la technique et un programme scientifique minimum. (Pas surprenant, la direction vient d’Epitech.) Prenons un exemple, l’analyse syntaxique. Un enseignement trop classique, on vous donne les bases de théories des langages et on vous fait vaguement faire quelques exercices à la fin. Vous avez raté une chance de vraiment comprendre, d’inventer, de créer. Avec 42, on vous demande d’écrire un analyseur lexical. Vous ramez, vous bidouillez, pour finalement arriver à hacker quelque chose. Si vous ne savez rien de la théorie des langages, vous avez ses concepts essentiels au bout des doigts. Mais vous n’avez pas saisi leur essence ; vous aurez plus de mal à les appliquer dans des contextes totalement différents comme la linguistique ou la biologie.

    Micro trottoir (sans aucune prétention scientifique) auprès d’amis dans les entreprises : Les ingénieurs qui sortent de l’Epitech sont parfois exceptionnels, souvent ils sont limités par des manques de bases scientifiques. C’est une formation qui convient bien à certains jeunes (selon ces mêmes amis). Juste une inquiétude. Ce n’est pas risqué de trop dépendre de la technologie de l’instant quand tout s’agite autour de vous ? Que deviennent-ils dix ans après ? Pas les bons. Ceux-là s’en tireraient de toute façon. Mais les plus hésitants.

    Quid de la littératie numérique ?

    Avec mon travail au CNNum, j’étais obligé de poser la question. La réponse est simple : « On leur apprend à coder ». Oups. Je sens certains collègues du CNNum se crisper. On est dans la religion de 42 : « Born to code ». Quand on sait coder, on comprend mieux le monde numérique. Ce n’est pas faux. C’est nécessaire mais ce n’est sûrement pas suffisant. 42 ignore les autres aspects de la littératie numérique dans son curriculum. Mais, est-ce que les facs ou les grandes écoles font mieux ? A peine. A la marge. On retombe sur le même argument : Le but de 42 n’est pas de résoudre tous les problèmes mais de former des informaticiens.

    plateauPhoto : Serge Abiteboul, cc by-sa

    En guise de conclusion

    Quand Xavier Niel dit « Le système éducatif ne marche pas » dans un édito, on n’est pas obligé de le suivre. Le système est certainement perfectible mais des tas d’enseignements fonctionnent quoi qu’il dise. Par contre, quand Kwame m’explique qu’avec leurs élèves la méthode 42 semble marcher, je veux bien le croire. Les élèves n’ont ni tous les mêmes capacités, ni les mêmes histoires, ni tous les mêmes modes d’apprentissages. Du coup, cela mérite de regarder pourquoi 42 marche et si on pourrait adapter certaines idées de leur approche à d’autres contextes.

    J’imagine déjà une « piscine » à l’Ecole normale supérieure de Cachan, un plateau d’ordinateurs, où on plongerait pour plusieurs semaines les élèves normaliens, les matheux, les sociologues, les autres… On les ferait coder tout et n’importe quoi. Surtout n’importe quoi. Ce serait pour eux une expérience extraordinaire. Cela ferait je crois de meilleurs matheux, sociologues, etc. C’est tentant ?
    Mais les élèves de l’ENS sont des élèves qui étaient bien adaptés au système scolaire. Et les autres ? Il faut être bon en maths pour réussir en informatique ? Non ! La preuve par 42 que c’est faux. Vous pouvez être faible en maths et devenir un as de la programmation Cela démystifie violemment l’informatique. Tout le monde peut apprendre à programmer. C’est ce que je veux retenir de ma visite à 42.

    Serge Abiteboul