Catégorie : Informatique

  • Quand Fleurira le numérique ?

    « Parce que nos enfants deviendront adultes dans un monde où,
    soit ils programmeront, soit ils seront programmé
    s »

    Fleur Pellerin 2013

    Le monde des entrepreneurs soutient collectivement Fleur Pellerin dans son rôle de déléguée aux PME, à l’Innovation et au Numérique [2], voire se montre explicitement très déçu de l’absence de Fleur Pellerin du gouvernement [1] (ou de son passage à un autre poste). Probablement pour au moins la moitié d’entre eux, ce positionnement se fait au-delà des barrières politiques gauche-droite.

    C’est un fait remarquable dans le paysage politique français. Ces entrepreneurs du web ont été jusqu’à militer sur Twitter, via le hashtag “#keepfleur”, pour que Fleur Pellerin reste sur la mission de l’économie numérique [3]. Mais ils n’ont pas été entendus [4].

    Encore plus remarquable est le fait que cette mobilisation va bien au-delà [5,6]. Pour quelle raison ? Au-delà des qualités personnelles qui font l’unanimité [7], cette grande serviteur(e) de l’état a compris ce qu’est l’éducation au numérique et en propose une vision qui dépasse tous les clivages.

    Éduquer au numérique, ce n’est pas uniquement apprendre à programmer. Ce n’est pas non plus rejeter l’idée d’apprendre à programmer. C’est apprendre à comprendre comment ça marche ; apprendre un peu de culture scientifique et technique en science informatique ; de culture historique aussi ; apprendre à relier nos usages du numérique aux fondements sous-jacents pour les maîtriser. Dans le faux débat de savoir s’il faut apprendre à coder (ou pas) Fleur Pellerin est de celles et ceux qui se sont d’abord demandé pour quoi. Et de donner la réponse : apprendre à coder pour décoder le numérique. Ou, dit autrement, apprendre à écrire le numérique pour savoir le lire de manière éclairée. C’est cette vision que Fleur Pellerin a portée.

    Et pourtant Fleur Pellerin n’est pas une informaticienne ou une chercheuse en informatique 🙂 c’est une «commerciale» et une «politique» de par ses études, une «Énarque» même ! Bien loin des scientifiques et de ce monde académique dont nous sommes. Elle est donc la preuve que l’éducation au numérique n’est pas l’apanage d’un clan, mais une vraie cause nationale dans l’intérêt de nos enfants.

    Total respect.

    Colin, Eric, Marie-Agnès, Pierre, Serge, Sylvie et Thierry

    [1] http://www.huffingtonpost.fr/2014/04/02/fleur-pellerin-entrepreneurs-pigeons-numerique-montebourg_n_5075561.html?ir=France
    [2] http://lentreprise.lexpress.fr/gestion-entreprise/remaniement-les-entrepreneurs-soutiennent-fleur-pellerin-sur-twitter_46755.html
    [3] http://www.lesinrocks.com/2014/04/02/actualite/la-non-reconduite-de-pellerin-decoit-les-patrons-du-web-11494941/
    [4] http://www.bvoltaire.fr/jeremiemassart/fleur-pellerin-debarquee-ca-commence-mal,55335
    [5] https://twitter.com/search?q=Pellerin%20commence%20mal&src=typd[6] https://twitter.com/search?q=%23keepfleur&src=tyah
    [7] https://fr.wikipedia.org/wiki/Fleur_Pellerin
    [6] https://fr.wikipedia.org/wiki/Fleur_Pellerin

  • 2048 raisons de jouer

    Y avez-vous échappé ? Un jeu à la mode dans les transports en commun est 2048 (ou plutôt 100000000000 en binaire). Il est disponible sur téléphones, tablettes et sur une page Web sur http://gabrielecirulli.github.io/2048/.

    2048 Oui, oui, j’ai travaillé le sujet!

    Le but: atteindre 2048! Le principe: faire bouger des cases. Quand deux cases de même valeur se rencontrent, elles s’ajoutent. Et des cases 2 (ou plus rarement 4) s’ajoutent à chaque mouvement. Si aucun mouvement n’est possible, c’est perdu. Un principe simple, notamment sur écran tactile, et très addictif. Voir aussi ici ou pour l’ampleur du phénomène.

    Une fois 2048 atteint, on peut continuer à jouer pour atteindre les valeur supérieures (ce qui permet de frimer au bureau avec 4096). Une variation (avec une grille plus grande) demande à aller jusqu’à 9007199254740992. Pourquoi j’aime ce jeu? Parce que les gens vont connaître les puissances de 2, c’est-à-dire les nombres ronds en binaire. On peut espérer que le commun des mortels reconnaîtra 65535 ou que les futurs programmeurs se douteront de quelque chose lorsqu’il découvrent un bug autour de la valeur 16777216.

    Un jeu comparable se base sur la suite de Fibonnacci :

    u0=1    et   u1=1   et   un+1=un + un-1
    ce qui donne la suite 1, 1, 2, 3, 5, 8, 13, 21,… Dans ce jeu, on ajoute des termes qui se suivent dans la suite pour obtenir le terme suivant :

    Pour passer de l’autre côté, vous pouvez aussi jouer à ce jeu, nommé 8402 où vous êtes le « méchant » qui doit empêcher l’ordinateur d’atteindre 2048.

    De nombreuses autres variations existent, en hexagone, en 3D, en 4D…
    Un collègue, Laurent Théry, a formalisé formellement en Coq le jeu 2048, auquel on peut jouer directement en utilisant ce code Coq.

    coq-2048

    Amusez vous bien !

    Sylvie Boldo

  • Les ZRRrrr

    © Inria / Photo Kasonen
    © Inria / Photo Kasonen

    Depuis quelques mois, nos laboratoires de recherche bruissent d’un sigle à l’origine mystérieuse, aujourd’hui honni, ZRR. Vous avez peut-être cru qu’il s’agissait des Zones à Revitalisation Rurale. Mais, un sigle peut en cacher un autre; ce sont les Zones à Régime Restrictif. Oui, ça fait peur. Binaire a demandé à André Seznec, Directeur de Recherche Inria à Rennes, de nous expliquer. Et si on laissait les chercheurs protéger leur travail ? Et si on les laissait chercher ?

     

    De quoi s’agit-il ? Sous ce vocable étrange, se cache le mécanisme que doivent mettre en œuvre les laboratoires de recherche pour protéger leurs données sensibles. Il s’agit de protéger le patrimoine scientifique et technique de nos laboratoires contre les intrus qui désireraient les piller. Le lecteur, peu au fait du monde de la recherche académique, se réjouira sûrement qu’enfin les autorités prennent des mesures pour préserver ce patrimoine. Il y a sûrement au sein de certains laboratoires des données, des informations, des découvertes dont il ne faudrait pas que des intrus peu scrupuleux s’emparent.

    Sauf que…

    Il existait déjà un dispositif pour protéger ce patrimoine : les ERR, Établissement à Régime Restrictif. Dans le cadre de ce dispositif d’ERR, nous, les responsables d’équipe de recherche, devions à chaque recrutement ou visite d’un étranger hors Communauté Européenne déjà déposer auprès du fonctionnaire sécurité défense (FSD), un dossier ; le FSD transmettait le dossier au ministère au HFDS, haut fonctionnaire défense et sécurité, qui donnait un avis dans les 2 mois, avis qui pouvait ne pas être suivi par le directeur de l’établissement. Ce mécanisme des ERRs a été jugé laxiste par le gouvernement Fillon qui a proposé le mécanisme des ZRRs. Cette proposition a été reprise par le gouvernement Ayrault.

    Avec la mise en place des ZRRs, les contraintes changent pour nous, chercheurs. Les malheureux chercheurs en ZRR se voient appliquer un régime bien plus sévère et arbitraire.

    En premier lieu, toute demande de recrutement – du jeune stagiaire en fin de licence au chercheur visiteur prix Nobel – devra être soumise à l’accord du FSD, dont l’avis devra être impérativement suivi. Ceci sans distinction de nationalité, et oui, même les européens, même les français !

    Imaginez le malaise quand, après des mois d’intenses tractations, vous avez enfin réussi à inviter en séjour sabbatique le « pape » de votre discipline scientifique, à en assurer le financement et soudain la sanction couperet tombe : avis FSD négatif. Les collaborations internationales si prisées par toutes les instances d’évaluation de la recherche seront elles aussi soumises à avis du FSD. Les services du FSD ne peuvent pas être scientifiquement omnipotents : ils donnent leur avis à partir de listes de mots clés et de nationalités, listes qui ne sont pas publiques.

    Récemment, devant mes récriminations, il m’a été répondu qu’il faudra « apprendre à présenter les lettres de demande d’accord FSD sous le bon angle« . Enfin une bonne nouvelle : Courteline n’est pas mort !

    En second lieu, les ZRRs seront vraiment des zones géographiques. Au sein de notre établissement, la direction a décidé de faire une application différenciée avec certaines équipes en ZRR et d’autres hors ZRR. Les équipes punies en ZRRs – et oui punies, puisqu’elles ne bénéficieront d’aucun avantage en compensation de contraintes supplémentaires – seront regroupées physiquement dans une partie du laboratoire ; l’accès à cette zone du laboratoire sera restreint. L’accès ne sera pas impossible physiquement, nous a-t-on annoncé -trop cher sans doute -, mais légalement. Le ridicule ne tue pas heureusement.

    Le troisième point est sans doute celui qui crée le plus grand malaise : l’absence totale de transparence des décisions. Pourquoi telle équipe est classée en ZRR et pas telle autre ? Pourquoi l’avis du FSD est positif pour tel étudiant de telle nationalité et négatif pour tel autre ? Quelles peuvent bien être les recherches qui doivent être protégées dans telle équipe alors même que tous les financements mentionnent l’objectif de publier les résultats ?

    Un dernier point qui fera sourire le monde de la sécurité informatique. Dans un grand institut d’informatique, la mise en œuvre des ZRRs prévoit que les équipes ZRR et hors ZRR partageront le même réseau informatique.

    Bien sûr, il ne faut pas être naïf, il y a parfois dans nos laboratoires des données à protéger. Il est sans doute nécessaire de mieux sensibiliser les chercheurs. Mais ceci devrait impliquer les chercheurs au niveau local et non remonter au ministère. Les décisions doivent être expliquées et susceptibles d’appel.

    Aujourd’hui, la mise en œuvre des ZRRs au sein de nos laboratoires de recherche telle qu’elle est prévue est vécue comme discriminatoire, arbitraire et démotivante par les équipes de recherche concernées.

    NB : un moratoire à la mise en œuvre des ZRRs a été décidé en février 2014 ; mais il ne concerne pas les laboratoires qui étaient préalablement ERR.

    André Seznec, Inria

    Note de binaire : Nous aurions pu mettre des dizaines d’articles violents contre les ZRR. Mais il était difficile de choisir. Il suffit de poser la question ZRR restrictif à un moteur de recherche.

  • Que diriez-vous d’Ordinateur ?

    «Que diriez-vous d’Ordinateur ?»

    C’est par ces mots que commence la réponse, datée du samedi 16 avril 1955, de Jacques Perret, professeur de philologie latine à la Sorbonne, à Christian de Waldner, alors président d’IBM France.

    Ce dernier, sous la recommandation de François Girard, responsable du service « Promotion Générale Publicité » et ancien élève de Jacques Perret, l’avait sollicité pour trouver un terme concis et précis pour traduire ce que les américains, qui ne s’embarrassent pas de philologie, avait appelé Electronic Data Processing System ou en abrégé EDPS.

    ordinateur

    Jacques Perret ajoutait dans son courrier « C’est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l’ordre dans le monde ».

    Il ne se doutait probablement pas qu’à peine 60 ans plus tard, les successeurs de cet ordinateur qu’il venait de baptiser allaient dominer le monde en y faisant régner l’ordre du tout numérique.

    La lettre se terminait par « Il me semble que je pencherais pour « ordinatrice électronique », car il trouvait qu’il « permettrait de séparer plus encore votre machine du vocabulaire de la théologie« .

    Peut-être pas si mécontents de cette filiation divine, les dirigeants d’IBM préférèrent Ordinateur et le mot eut un tel succès qu’il passa rapidement dans le domaine public.

    La recherche de ce vocable avait aussi un but marketing car Il s’agissait de le différencier du terme computer, facilement traduisible en calculateur, qui était réservé aux premiers ordinateurs scientifiques comme l’IBM 701.

    Les premiers ordinateurs universels, faisant disparaître la nécessité de ce distinguo, n’apparaitront chez IBM que le 7 avril 1964 avec l’annonce de la série 360 qui va connaître un succès fabuleux et dont les programmes peuvent encore fonctionner aujourd’hui sur les plus puissants ordinateurs de la marque.

    Le premier « ordinateur » d’IBM fut l’IBM 650, ordinateur à tubes de première génération, qui possédait une mémoire à tambour magnétique de 2000 mots et une mémoire vive en ferrite de 60 mots qui servait de tampon entre l’ordinateur et les unités externes, essentiellement lecteur/perforateur de cartes, bandes magnétiques et une tabulatrice l’IBM 407.

    IBM vendit 2 000 exemplaires de cette machine dont la carrière commença en 1953 pour se terminer en 1962, longévité exceptionnelle même à cette époque.

    Nous étions loin des performances de la plus petite calculatrice de nos jours avec un temps d’opération de 2 ms pour une addition, 13 ms pour une multiplication et 17 ms pour une division !

    Nous sommes carrément à des années lumières des performances incroyables du moindre smartphone, sans parler des supercalculateurs (ou superordinateurs) qui sont engagés dans une course folle aux 100 péta-flops dans laquelle les chinois sont en tête avec le Tianhe 2 qui affiche 55 péta-flops en vitesse de pointe.

    Faut-il rappeler qu’un péta-flops c’est la bagatelle de 10 millions de milliards d‘opérations en virgule flottante par seconde ?

    Pour les non initiés la virgule flottante est la forme généralement utilisée pour représenter des nombres réels dans les mémoires des ordinateurs.

    Mais aujourd’hui, où la technologie nous submerge et envahit notre quotidien, tout cela semble aussi naturel et aussi banal que d’allumer une lampe électrique.

    Le moindre smartphone, qui se manipule intuitivement, presque naturellement, du bout des doigts, donne accès à des milliers d’applications et enfouit le miracle de la technologie dans une banalité quotidienne.

    Et puis après la volonté opiniâtre d’imposer un vocabulaire francophone avec le terme Informatique inventé par Philippe Dreyfus en 1962, l’adoption du terme bureautique créé par Louis Naugès en 1976, on peut dire qu’à partir de la vague du Personal Computer l’anglo-saxon s’est imposé comme la langue unique du monde de l’informatique et des réseaux.

    Patrice Leterrier

    Cet article est paru initialement le 28 mars 2014 sur le blog de Patrice Leterrier  que nous vous invitons à aller découvrir.

  • Le sexe des data

    Une controverse occupe le Web anglophone : le nombre grammatical de data. C’est un détail qui pourrit la vie du chercheur en bases de données que je suis. Dois-je écrire « data is » (au risque de choquer mon vieux prof de latin) ou « data are » (au risque de faire pédant) ? Comme le vieux prof de latin ne lira jamais mes articles, je m’autorise  le singulier. Et bien c’est correct ! Voilà le verdict du Guardian : Data: takes a singular verb (like agenda), though strictly a plural; no one ever uses « agendum » or « datum ». [Data s’accorde avec des verbes au singulier (comme agenda), bien qu’au sens strict, ce soit un mot pluriel; personne ne dit un agendum ou un datum.] Et si cela vous gêne, comme cela m’a gêné, pensez que c’est un nom de masse comme « information ».

    Guardian-data-journalism--007 Le workflow des data journalists du Guardian. Photo : Guardian

    Une autre controverse sur data fait rage sur la Toile francophone. Cette fois c’est la guerre des genres. Il faut choisir entre :

    • Touche pas ma data !
    • Mets pas ton big data n’importe où !

    Data c’est masculin ou féminin ? Le Web propose des millions d’occurrences du féminin et également du masculin.

    Au secours ! Tout le monde sait que data c’est anglais et pas français. Nous avons un très joli mot, « données », qui s’utilise au pluriel et au singulier, vous évitant les affres de data. Mais que faut-il faire pour Big data ? Je propose de revenir aux bonnes méthodes d’antan. Vous me recopierez 100 fois pour demain matin  :

    • Pour chaque utilisation en français de data : Une donnée, des données.
    • Pour chaque utilisation en français de big data : Je vais faire tout mon possible pour ne plus utiliser des anglicismes pourris car cela nuit gravement à l’environnement.

    Mais il faut traduire big data. Évitez le « Grosse donnée » qui n’est pas très glamour. J’aime bien « Masse de données ». Nous avons essayé « Data masse » à l’académie des sciences en empruntant – j’insiste – au latin. Et on peut juste attendre le prochain mot à la mode ou revenir vers le récent « Fouille de données ».

    Serge Abiteboul

    Pour en savoir plus

    • sur le nombre de data : Guardian et Webster (lumineux: noun plural but singular or plural in construction, often attributive)
    • sur le big data (oups) : Le Slow blog de Serge

    Je vais faire tout mon possible pour ne plus utiliser des anglicismes pourris car cela nuit gravement à l’environnement.

    Je vais faire tout mon possible pour ne plus utiliser des anglicismes pourris car cela nuit gravement à l’environnement…

  • Krim et Poujadas aussi…

    Ce billet à pour point de départ deux événements qui mettent le code au devant de la scène.

    Tout d’abord, le code est entré au « Journal de 20h » de France 2 le mardi 26 mars, à travers un reportage relatant  le développement de l’apprentissage du code par de jeunes lycéens du Bronx. Cette information, fait suite au propos de B. Obama sur la nécessité d’apprendre à CODER.

    Retrouver ce bon reportage dans le journal de 20h de France 2  « Je pense donc je code«  ou comment démocratiser le langage informatique aux USA.

     Le Président de la République, dans son discours lors de sa visite de la Silicon Valley a dit « qu’en France, vous savez les lourdeurs…. » Soit, mais il est important de comprendre (et d’agir en conséquence) que dans le numérique ça va pas vite, sa fonce… donc l’urgence est à l’action!

    Le même jour Tariq Krim du CNNum a rendu un superbe rapport sur les codeurs. Son titre: Les développeurs, un atout pour la France.

    img_tkrimTariq Krim, Photo : Conseil national du numérique

    Ce rapport rappelle les contributions les plus significatives et importantes de français, à l’internet ou à l’iPhone ainsi qu’à de très nombreuses petites start-up américaine qui sont devenues grandes. Il analyse l’absence de start-up disruptive en France au delà des habituelles remarques sur le marché américain, les caractéristiques de la SV ou des VC, en mettant en lumière le rôle joué par le code – en fait la technicité – dans l’écosystème de l’innovation du numérique. Il pointe aussi les travers de nos grands groupes pas toujours innovants, le fait qu’il ne faut pas nécessairement 100 ingénieurs pour faire un logiciel de niveau mondial et que les résultats de Quaero sont toujours attendus…

    Comme pour dans  tout bon rapport remis à un Ministre qui se respecte, on trouve aussi des recommandations. Il y a celles qui poussent à faire entrer la technologie dans la démarche IT de nos administrations avec la création d’une feuille de route technologique et la promotion de développeurs avec de hautes responsabilités dans les projets numériques. Pour les développeurs, ce sont des évidences, mais pas pour les promoteurs des projets du moins pas avant  l’échec pour cause de non compréhension des enjeux technologiques du projet !

    La première recommandation, me paraît essentielle. Les développeurs sont considérés comme des exécutants, alors que les succès des entreprises passent souvent – même si ce n’est pas suffisant – par l’excellence et la maitrise de la technologie. Il est donc nécessaires de revaloriser dans les entreprises ces fonctions par la reconnaissance des développeurs. Pour progresser dans une entreprise au niveau reconnaissance, salaire et/ou responsabilité, nos ingénieurs ne devraient pas obligatoirement devenir « manager ». Le monde académique a déjà bougé dans cette direction avec la prise en compte dans certains postes de chercheur de la dimension développement. Mais la route est longue. Il reste du chemin à faire là aussi.

    La dernière recommandation prône de favoriser l’ouverture de nos frontières aux développeurs des autres pays. Cette mesure est essentielle car elle renforce le tissu technologique de l’écosystème du numérique en France et lui (r)apportera plus que le repli sur soi.

    Pierre Paradinas

    PS : Le rapport liste les contribution d’une centaine de développeurs. Le nombre de femmes chez les développeurs est vraiment faible.

     

  • En toute modestie

    Le provincial peut s’émerveiller en ce moment devant la fresque qui recouvre l’intégralité de l’interminable corridor qui relie Montparnasse à Bienvenüe. Cette fresque, intitulée le Monde en équation est proposée par le CNRS.

    Sur plus de cent mètres les superbes images de synthèse illustrent des textes qui nous expliquent ce que physiciens, chimistes, mathématiciens, biologistes peuvent faire des données, modélisations et simulations numériques.sans_les_mainsL’exposition permet également de noter l’extrême modestie de l’informaticien qui laisse croire aux Parisiens, aux provinciaux et aux touristes que le tout peut se faire sans une science informatique, sans algorithmes, sans analyse des données, sans recherche en image.

    Colin de la Higuera

  • Bravo Leslie Lamport, Prix Turing 2013

    Le 18 mars dernier, la société savante ACM a dévoilé le nom du lauréat 2013 du prestigieux prix Turing. Il s’agit du Dr. Leslie Lamport, chercheur à Microsoft Research. Leslie est d’ailleurs membre du laboratoire INRIA-Microsoft situé à Palaiseau. Le prix Turing est souvent considéré comme l’équivalent du prix Nobel pour l’informatique, les Nobel ayant eu le mauvais goût d’oublier l’informatique. Notons que, comme ils ont aussi oublié les mathématiques, nous sommes en très bonne compagnie.

    Le père du calcul réparti

    De la même façon que l’on peut dire que E.W. Dijkstra est le père de la synchronisation (entres autres), on peut dire que Leslie Lamport est le père du calcul réparti, activité qui, par sa nature même, met en jeu plusieurs machines qui doivent coopérer pour réaliser un but commun.

    lesliePage personnelle de Leslie Lamport

    Les résultats de Leslie Lamport sont impressionnants. Il a été le premier à poser les problèmes qui fondent le calcul réparti, à en donner les concepts fondamentaux et à proposer les premiers algorithmes qui soient véritablement répartis. On lui doit entre autres le concept d’horloge logique, de sûreté (safety), de vivacité (liveness), de fautes byzantines ou d’atomicité.

    Leslie Lamport n’a pas résolu les problèmes qu’il se posait lui-même mais les problèmes qui se posaient dans son domaine de recherche. Alliant de façon remarquable travaux théoriques et applications pratiques, il a notamment créé le langage TLA+ (temporal logic language). Il est aussi le concepteur du logiciel de préparation de documents LaTeX.

    Le Prix Turing lui est décerné « for advances in reliability and consistency of computing systems« .

    Michel Raynal, Irisa, Institut Universitaire de France, professeur à l’Université de Rennes 1

    Pour en savoir plus : Communiqué officiel de l’ACM sur l’attribution du prix Turing 2013 à Leslie Lamport.

  • L’enseignement ISN en 2013, une preuve que l’informatique se décline aux deux genres

    L‘Informatique et science du numérique (connue sous l’abréviation ISN) est ce nouvel enseignement de spécialité de terminale série scientifique qui permet aux jeunes d’apprendre les sciences informatiques, donc de maîtriser le numérique et de découvrir qu’il y a de beaux métiers techniques ou non sur ce secteur économique majeur (ces nouveaux métiers du numérique représenteraient plus de 1 million d’emplois [ref] et environ 25% de notre croissance économique [ref], plusieurs milliers d’emploi restent à pourvoir chaque année [ref]).

    Cette spécialité ISN est proposée pour la seconde année grâce à l’investissement parfois héroïque des professeurs qui se sont formés à cette nouvelle discipline (presque uniquement sur leur temps libre) dans le cadre d’une coopération profonde et puissante avec des centres universitaires et de recherche dans chacune des Académies. Parmi les lycéens de terminale, 10 000 élèves en 2012 et presque 15 000 en 2013 ont choisi cet enseignement. Cela semble être un véritable succès. Toutefois, cela est encore considéré comme une « expérimentation ».

    Ce succès est à relier à celui d’un concours « libre » (rien à gagner, mais le plaisir de faire un bon score) sur l’informatique organisé par un petit groupe d’informaticiens motivés. Ce n’est pas une compétition « geek », mais un concours ludique, accessible à tous, qui montre comment l’informatique peut être amusante et variée avec la représentation de l’information, la pensée algorithmique, des jeux de logique, … Ce « concours Castor informatique » a intéressé pas moins de 170 000 jeunes cette année et double son public en France chaque année depuis trois ans. Un grand succès et une très belle mixité avec 48% de filles.

    Les statistiques de l’enseignement d’Informatique et sciences du numérique pour 2013 montrent elles aussi une progression sensible et un intéressant équilibre des genres :

    • à la rentrée 2012, 10 035 élèves avaient choisi ISN, dont 2 010 filles (soit 20,0 %)
    • à la rentrée 2013, 14 511 élèves ont choisi ISN, dont 4 170 filles (soit 28,7 %)
    • une progression globale de +44,6 % et de +107,5 % pour les filles

    Un succès !

    Philippe Marquet

  • Minimalisme numérique

    En musique, en architecture un courant minimaliste existe, il influence et structure ces activités… et dans le numérique, qu’en est-il ?

    La simplicité – évidente aujourd’hui – des menus à partir de la pomme en haut à gauche de l’écran ou la simple application calculette étaient présents dès 1984 lors de la sortie du Macintosh. Dans la biographie de Steve Jobs, le lien avec les courants minimalistes du Bauhaus ou des maisons californiennes de Eichler est explicitement mentionné.

    320px-Eichler_Homes_-_Foster_Residence,_Granada_Hills

    On retrouve aussi des recherches et particularités d’informatique minimale, algorithmes simples qui peuvent rimer avec performances ou expressivité minimale de problème complexe via la récursivité…

    Les liens hypertextes sont aussi une forme de minimalisme renvoyant sur les informations pertinentes…

    Un bouquet d’applications très utilisées aujourd’hui est l’expression d’un minimalisme dans les applications numériques. Ces applications sont paradoxalement minimales.

    Il y a celle qui n’échange que 140 caractères, ce qui est moins que le SMS de base en téléphonie mobile de première génération ! Celle qui permet de voir seulement une photo quelques instants – et qui a refusé de tomber dans le giron de Facebook. Celle qui partage des photos entre ami(e)s ou qui généralise les échanges courts de messages (texte, photo, son…) et dont la valeur capitalistique est tout sauf minimale ! Et toutes celles qui permettent d’échanger un logement, prêter sa voiture…

    320px-WhatsApp_logo.svg

    Leurs interfaces et fonctions sont simples. On ne parle pas ici de l’infrastructure de mise en œuvre, qui peut être complexe, ni des données d’usage connectées, mais de leur proposition fonctionnelle. Où est la valeur ? Elle est dans la simplicité/force du service ou dans la base d’utilisateurs qui se comptent pour Whatapps par exemple en centaines de millions d’utilisateurs référencés.

    Quelle est la prochaine idée simple qui fera fureur ? Celle que tout le monde voudra et aura. Qui sera l’acteur, acheteur pour ne pas être dépassé par un concurrent et conforter sa base d’utilisateurs…

    Le coin des curieux : pour remonter à une des sources de la musique minimale, il faut écouter Moondog, à la radio ou dans un disque hommage  chez TraceLabel.

    Par Pierre Paradinas

     

  • Enseigner la science informatique à l’école ?

    EcoleMercredi 12 mars, jour des enfants, l’émission Rue des Écoles sur France Culture avait pour thème un sujet qui fait beaucoup débat en cette année 2014 : l’enseignement de la science informatique à l’école.

    A cette occasion, 3 invités dont deux qui sont des habitués de binaire sont intervenus ; Gérard Berry, Professeur au Collège de France et Claude Terosier, ingénieure, co-fondatrice de « Magic Makers« . Le troisième, que vous découvrirez bientôt sur binaire, est David Roche, professeur d’Informatique et Science du Numérique à Bonneville.

    Écouter l’émission

    M-A Enard

  • Informatique [nom féminin]

    Septembre 2013.  Superbe cru. 2 nouvelles doctorantes (indiennes) sur les 6 nouveaux. Si je me réjouis de compter désormais 2 femmes sur la douzaine d’étudiants en thèse de mon équipe, je suis navrée de constater cette bien faible diversité dans la discipline, largement sinistrée du point de vue de la parité. Et de plus en plus. Aux États-Unis, la proportion d’étudiantes dans les cursus d’informatique de l’enseignement supérieur était de 37% en 1984 (effet  lune de miel, propre à l’introduction d’une nouvelle discipline) pour diminuer,  lentement mais surement,  à 29% en 1989, 26% en 1997, et osciller aujourd’hui autour des 10%.

    Pourquoi si peu de femmes en informatique  et surtout que faire pour inverser la tendance ? Pourquoi une science si jeune, si dynamique, qui offre une telle diversité de carrières, est-elle à ce point boudée par les jeunes filles ? Quelle est donc cette incompatibilité entre l’informatique et les femmes ? Pourquoi observe-t-on une dégradation de la situation ? Comment faire pour venir à bout des clichés ? Il y a manifestement un terrible malentendu qu’il convient de dissiper avant qu’il ne soit trop tard. En cette veille de la journée internationale des droits de la femme,  penchons-nous sur ce désamour des jeunes filles pour l’informatique, alors que nous savons tous que notre science n’a pas de sexe.

    Avant de stigmatiser l’informatique, il convient de rappeler qu’elle subit le même sort que la plupart des sciences « dures »  comme la physique ou les mathématiques, causé par des stéréotypes tenaces de la société à l’égard de ces sciences, même si la chimie et la biologie ont à la faveur de je ne sais quel miracle opéré le tournant de la féminisation. Comme si disséquer une grenouille était plus gracieux que  résoudre une équation. Aucune de ces activités n’est  féminine, ni masculine du reste, n’en déplaise à ceux qui ont récemment déclaré la guerre aux velléités des institutions d’œuvrer pour l’égalité à l’école.

    Il est évident que lorsque les étudiants arrivent dans le supérieur, il est déjà bien trop tard. Les connexions se sont déjà opérées différemment dans ces petits cerveaux des années auparavant.  J’aime pourtant à penser que les nouvelles générations seront épargnées. Comment féminiser notre discipline en attendant de les voir débarquer dans le supérieur ?

    Si les clichés regorgent dans la société sur le fait que certains métiers sont typiquement masculins, le cas de l’informatique est aggravé par quelques idées reçues qu’il convient d’éclairer :

    Idée reçue  n°1 : L’informaticien  est un geek.  Enlisé dans ses lignes de code, négligé et asocial. Nous avons suffisamment de modèles féminins et masculins pour démontrer l’éclectisme et l’ouverture d’esprit des informaticien(ne)s. Ada Lovelace, considérée comme le « premier programmeur » et Grace Hopper, pionnière de la compilation, n’ont rien de geeks ; Alan Turing le père de l’informatique, s’habillait très correctement et s’intéressait autant à l’évolution qu’à la cryptographie ; Melissa Mayer dirigeait l’équipe de Search de Google avant d’être à la tête de Yahoo et on l’accuse à l’envi d’être trop sexy (faut savoir) ; Zuckerberg sous ses airs de gamin est un redoutable homme d’affaire.

    Idée reçue n°2 : L‘informaticien code toute la journée, rivé à un écran austère, au fin fond d’un sous-sol. Les  Facebook, Google et autres monstres de l’informatique sont des environnements plus jeunes, vivants et colorés les uns que les autres. Certes on écrit des programmes quand on fait de l’informatique, mais on conçoit  également les algorithmes de demain, en équipe, on les prouve, on traite l’information, de l’ADN aux posts des réseaux sociaux, on analyse les comportements des internautes, on interagit avec de nombreuses autres disciplines comme la biologie, la médecine, la finance. Il arrive même que l’on n’ait pas besoin de machine.  Et si on passe du temps devant un ordinateur, dans beaucoup d’autres métiers, ça n’a l’air de gêner personne.
    Idée reçue n°3 : Le monde de l’informatique est sexiste. Certes l’informatique est largement dominée par les hommes (et de plus en plus car si les femmes boudent ces filières, les hommes s’y dirigent de plus en plus) mais c’est une discipline bien trop jeune pour être trop sexiste, loin par exemple du mandarinat qui sévit dans d’autres, qui pourtant attirent les femmes. À mon humble niveau, je n’ai observé dans les laboratoires néerlandais, anglais ou français que j’ai fréquentés, aucun machisme ambiant et jamais ma carrière, à l’instar de celles de beaucoup de mes collègues,  n’a été freinée par le fait d’être une femme.

    Idée reçue n°4 : Il faut faire des études d’ingénieur pour faire de l’informatique et c’est un métier de garçon. Nous y voilà, précisément là où le bât vraiment blesse. Certes, les cursus d’ingénieurs mènent à l’informatique,  mais on peut y arriver aussi par des études de mathématiques ou d’informatique à l’université. Il y a bien longtemps qu’on sait que les cerveaux féminins n’ont rien à envier à leurs alter-egos masculins, pour réussir à l’école, y compris dans les disciplines scientifiques.  On connaît les travers sociétaux qui  jouent sur les différences, elles sont là ne nous méprenons pas, pour formater l’esprit des jeunes. L’informatique n’a malheureusement pas le monopole de cette barrière sociétale. Faisons confiance aux filles, apprenons leur à se faire confiance. Un article récent paru dans Science et Avenir (30/01/2014),  fait état de  « la menace du stéréotype » : un chercheur de l’Université d’Arizona a fait passer un examen de mathématiques à deux groupes comptant autant d’hommes que de femmes : le premier groupe a été informé que le succès dépendait généralement du sexe (au sens où les hommes réussissaient mieux, pour cette expérience), au deuxième groupe on a expliqué que les résultats étaient généralement indépendants du sexe. Les résultats des filles du premier groupe étaient catastrophiques, équivalents à ceux des garçons dans le deuxième groupe. Les garçons, eux ont mieux réussi dans le premier groupe (il est probable que des préjugés inversés auraient eu un effet, inverse, mais les stéréotypes ambiants au sujet des sciences sont bien ceux-là). L’étude conclue que le «  stéréotype avait un effet dévastateur chez les filles et stimulant chez les garçons. » La route est longue !

    Idée reçue n°5 : L’informatique, comme les jeux vidéos, c’est pour les garçons.  Les jeux vidéos ne sont plus l’apanage des garçons, et quand bien même, il n’a jamais été démontré de corrélation entre les aptitudes aux jeux vidéos et en informatique. Et puis,  l’informatique c’est pour les jeunes bien d’autres choses que les jeux vidéos. C’est aussi les réseaux sociaux où les statistiques montrent une dominance de l’activité des jeunes filles d’ailleurs, les moteurs de recherche, les applications mobiles, le graphisme, etc. Et là de me révolter contre les photos d’un catalogue proposant des séjours thématiques aux enfants et adolescents qui montrent exclusivement des garçons pour les différents stages d’informatique. Je vous laisse deviner de quel sexe est l’ado  sur la  photo du stage de danse de l’été 2014.

    Et j’en passe. Tout ceci est d’autant plus frustrant que l’informatique est une science jeune qui ne devrait pas faire l’objet de préjugés de temps plus anciens. Dans l’imaginaire collectif cela reste une science d’hommes – on a même parfois du mal à la faire accepter comme une science d’ailleurs, en France, peut-être parce que certains rayons de supermarchés sont intitulés « informatique ». Si on trouvait à l’hypermarché du coin un rayon science physique, cela affecterait peut-être un peu le prestige d’Einstein. Faire intégrer que l’informatique,  théorique où pratique, peut épanouir aussi  les femmes reste un défi.   Il faut des modèles, des actions, relooker la discipline,  la démystifier.

    Les statistiques  sont formelles et confirment que cette tendance s’aggrave dans toutes les universités du monde occidental. Aussi soucieuses de la parité qu’elles soient, les institutions académiques ne peuvent que constater que les candidates manquent cruellement.  On le note assez clairement dans les jurys de recrutement ou sur les bancs des cours de master. Par exemple en France, la proportion du nombre de femmes diplômées des écoles d’ingénieur est passée de 5% à plus de 25% de 1975 à 2000, elle continue de diminuer en informatique, après un pic à  près de 20% dans les années 80, elle est repassée à 10% (source : ticetsociété.revues.org, 5(11)). La position particulière de l’informatique dans les cursus d’enseignement supérieur et plus encore secondaire, où l’informatique n’est enseignée que très tardivement, n’y est probablement pas étrangère. L’introduction de l’enseignement dans le secondaire  est un excellent début. Il faudra cependant plusieurs années pour récolter les fruits de ces réformes dans le supérieur.

    Et ailleurs ? Si  l’Europe (la France est du reste mieux placée que la Suisse ou la Belgique) et l’Amérique du Nord subissent le même sort, étonnement la situation est très différente dans un certain nombre de pays : à Singapour les femmes sont majoritaires, en Europe de l’Est et au Maghreb, la parité est beaucoup plus respectée. Alors même que certains de ces pays affichent souvent des inégalités entre hommes et femmes, y compris dans la loi. Un peu comme si lorsque nécessité fait loi, on est moins enclin à chipoter sur le genre des disciplines : quand ce qui importe vraiment est de faire des études supérieures et  de se former,  on ne s’offre pas le luxe de savoir si notre cursus a l’air assez  féminin.

    La prise de conscience est générale et de nombreux programmes existent dans le monde pour encourager les femmes à faire de l’informatique.  Les universités américaines en particulier se penchent régulièrement sur le problème. Par exemple, en 1995, CMU  (Carnegie Melon University)  a augmenté la proportion de femmes de 7% à 42% en prenant des mesures particulières de sensibilisation, en changement l’image de l’informatique, en faisant des campagnes agressives de recrutement et en se penchant sérieusement sur les éléments qui rebutaient les femmes à s’engager dans cette voie (collaboration avec des sociologues, interviews d’étudiants,…). Il en résulte un groupe particulièrement actif de  femme en informatique à CMU (women@scs).
    La bonne nouvelle idée est peut-être celle  de l’une des plus progressistes et prestigieuses universités américaines, Berkeley, celle  de  réinventer les cours d’informatique. A Berkeley, le nouveau cours d’informatique s’appelle Beauty and Joy of Computing, qu’importe cet intitulé peut-être exagérément glamour, l’effet est là et au fond c’est ce qui importe, en attendant de vivre dans une société qui arrête de modeler différemment nos petits en fonction de leur sexe. Cette classe de Berkeley compte 106 femmes et 104 hommes.  C’est donc possible, en 2014. La clé du succès de cette classe a été de moderniser le style des cours, de revisiter la manière d’enseigner l’informatique, au delà de la programmation, de se pencher sur l’impact et la pertinence de l’informatique dans la société, de commencer chaque cours en discutant un article récent lié à la technologie, etc. Alors même que le but n’était pas d’attirer uniquement les femmes, chaque élément qui aurait pu les dissuader a été soigneusement évité. Et c’est un succès.

    Tentons nous aussi le revirement, expliquons que faire de l’informatique ne sous entend pas  pondre du code à longueur de journées, isolé avec un PC, en Tee-shirt délavé, faisons visiter nos labos, expliquons les algorithmes et leur importance  dans  les écoles primaires. Profitons de la  dynamique de l’informatique, de sa constante évolution,  de son ubiquité dans la société, des défis majeurs qui ne cessent de s’offrir à notre discipline, pour faire évoluer son image. Là où les jeux vidéos, les jeux en ligne où les téléchargements en pair à pair attiraient en majorité les garçons qui monopolisaient les ordinateurs familiaux, l’usage de l’ordinateur aujourd’hui est désormais pour une bonne part consacrée à une utilisation sociale et culturelle du Web, garçons et filles se disputent désormais le portable de Maman. Nous sommes à un tournant de l’informatique, à l’ère des réseaux sociaux, du Big Data, de la bio-informatique massive. Surfons (agressivement) sur cette réelle opportunité de changer l’image de l’informatique auprès des plus jeunes, de faire évoluer nos cours et séduire garçons et filles.

    Enfin, soyons pragmatiques, l’informatique est tellement transversale, qu’elle est probablement l’une des disciplines les plus prometteuses en terme d’emploi, nos jeunes filles ne peuvent s’offrir le luxe de laisser les hommes seuls occuper ce terrain !

    Anne-Marie Kermarrec, Directeure de recherche Inria

     

  • L’informatique: pour nous, les femmes!

    Un petit billet à l’occasion de la semaine de la journée internationale des droits des femmes.

    Sylvie Boldo

  • La physicienne et la prof d’informatique

    Elle ne s’appelle pas Christelle ou Estinna, mais elle enseigne réellement au lycée de G. C’est bien une histoire vraie.

    Son métier ? Professeure de physique-chimie. À là la ! La physique-chimie. Non mais pourquoi embêter des jeunes qui vont devenir avocat, journaliste ou vedette d’une émission de télé-réalité avec de la physique-chimie ?

    Il se trouve qu’au XXe siècle à l’ère industrielle, tout le monde, même nos grands mères ou notre plombier, a appris une science «tout à fait inutile» pour eux mais complètement indispensable pour leur permettre de comprendre, s’approprier, adapter ou créer les nouveaux objets que l’ère industrielle engendrait. Elles et ils ont appris de la physique-chimie. Et la France est devenue une nation industrielle dont aéronautique, les transports, … sont en bonne place sur la scène internationale, car tous les métiers ont comme compétence marginale des notions de physique-chimie.

    Oui mais concrètement, dans ma vie de tous les jours, à quoi bon ?

    Voici un exemple de notion de physique-chimie inutile mais «indispensable» ? 1393347747_Black_carPeu d’entre nous se souviennent «que l’énergie cinétique croit au carré de la vitesse» ! Mais tout le monde sait une chose : si presque en panne d’essence avec ma voiture il faut choisir entre rouler le plus vite possible jusqu’à la prochaine station pour maximiser les chances d’éviter la panne sèche ou paradoxalement rouler lentement vers cette même station, la quasi totalité des gens va choisir la bonne réponse. Le concept d’énergie consommée et son lien avec la vitesse du moteur est compris par chacun-e, même l’explication physique est très lointaine (y comrpris pour des informaticiens 🙂 ).

    C’est ce que notre collègue professeure explique probablement quand une ou un jeune lui demande, mais Madame, pourquoi ? Et c’est étonnant et parfois complètement rigolo la physique (par exemple comme notre collègue nous en explique un élément ici avec une-bouteille-a-la-mer).

    Maintenant, notre professeure (qui a suivi l’option informatique au lycée de la seconde à la terminale de 1990 à 1993, avant que cette option ne disparaisse purement et simplement) sait que le monde a changé, que nous ne sommes plus à l’ère industrielle mais sommes à l’âge numérique. Elle qui a vu sa mère radiologue, il y a 30 ans, reprendre sa formation pour passer de la radiographie à l’échographie. Alors comment faire pour que nos enfants ne considèrent pas comme « magique » le fait d’être localisé ou le fait de deviner grâce à nos données Facebook qui de nous a des tendances à la schizophrénie [ref] ? La réponse est toute simple : en enseignant l’Informatique [ref] et les Sciences du Numérique : l’ISN (voir son manuel pour en explorer le contenu). Pour maîtriser et pas uniquement consommer le numérique. Et en deux ans de formation et auto-formation, cette professeure est devenu aussi prof’d’ISN. Et son pire ennemi ce n’est pas la motivation des jeunes. Eux, comprennent bien facilement qu’apprendre les fondements du numérique va les aider au quotidien et ils pressentent aussi que le numérique ouvre à pleins de métiers nouveaux. Son pire ennemi c’est que la société des adultes a cru à un immense mensonge collectif.

    Au XXIe siècle à l’ère numérique1393347776_teddy_bear_toy_2, ceux qui nous vendent des objets numériques matériels ou logiciels ont réussi à nous convaincre d’une chose énorme : inutile d’apprendre les sciences informatiques et mathématiques qui ont engendrés les technologiques du numérique, il suffit de savoir les consommer. Donc apprendre les usages suffit. Et la France est devenue une nation sans aucun grand développement numérique matériel venant de son pays. Va t-elle aussi perdre la bataille des grands produits et plateformes logiciels ? Tandis que depuis des années en Inde, en Suisse, en Tunisie, … et depuis un an en Grande-Bretagne l’informatique et les sciences du numériques (ISN) sont devenues la «physique-chimie» du XXIe siècle à apprendre à nos enfants, la France commence seulement à rattraper son retard sur ces sujets.

    Et concrètement dans mon quotidien, à quoi bon apprendre cette ISN ?

    Voici un exemple de notion d’informatique inutile mais «indispensable». 1393347490_malicious_codeQuand on me demande mon mot de passe Facebook ou Twitter, pour être sûr que ce n’est pas une “fausse” page destinée à me pirater, il faut et il suffit (sauf rarrissime situation) de regarder l’adresse Internet qui doit commencer par les 25 caractères «https://www.facebook.com» ou bien par les 20 caractères «https://twitter.com» uniquement, sinon c’est une adresse pirate. Si je comprends le langage qui définit les adresses Internet alors ce geste m’est naturel, sinon je ne vais même pas me poser la question et rester “effaré” devant le vol de mes identifiants. Et si j’apprends la règle ci-dessus comme une recette toute faite (apprentissage par les usages) alors je vais tomber dans le piège suivant si la parade n’est pas sur la liste de ce qu’on m’a fait apprendre par cœur. Si en revanche j’ai appris un peu de science informatique alors cette “astuce” va me paraitre évidente et surtout je serai prête ou prêt à trouver par moi-même la parade au problème suivant.

    Oui, mais quel défi ! Enseigner (enfin !) des sciences du 21ème siècle .. sans professeur formé, ni manuel disponible ? En pleine crise budgétaire ? Orthogonalement à d’autres disciplines bien “établies” ? Vous voulez rire ! En fait, et bien : oui. Ça a été plutôt épique, mais parole : on a aussi bien rigolé.

    Dans la majorité des académies, à la suite des leçons inaugurales de scientifiques comment Gérard Berry, enseignant-chercheurs universitaires ou des organismes de recherche se sont mobilisés pour déployer plus de 50 heures par an de formation auprès de chaque professeur concerné. Autour de Gilles Dowek, un manuel pour la formation des enseignants, puis un premier manuel scolaire ont été créés, avec un modèle économique ouvert, ère numérique oblige. Un site de ressource et de partage et d’échange a été fondé, et nourri de multiples ressources existantes ou crées à cet effet (conférences vidéo, documents de référence, ..). Sans oublier la revue Web de culture scientifique )i(nterstices, qui s’ouvre à l’ISN. Avant cela, le choix de ce qui serait à enseigner a fait l’objet d’une profonde réflexion, tandis depuis des années de grands collègues s’étaient mobilisés. Plus bas niveau, des chercheurs, qui vont présenter régulièrement, leurs travaux aux lycéens ou qui les aident pour les TPE, et qui sont en rapport avec des professeurs, ont convaincus ces derniers à de se lancer dans l’aventure. Ce fut le cas de notre professeure, qui suite à une conférence, s’est laissée convaincre.

    Tout fut-il parfait ? Ô non ! Il y eu des obstacles, des réussites et probablement des loupés, mais nous avons collectivement avancé. Les vrais héros de cette épopée ? Les professeur(e)s eux-mêmes, qui ont osé commencer à apprendre une nouvelle spécialité, et dont la curiosité intellectuelle et la volonté d’enseigner l’avenir à nos enfants les ont conduit à prendre ce risque professionnel et intellectuel. Quelle exemplarité, tout de même : ces femmes et ces hommes qui doivent convaincre nos enfants qu’apprendre est une nécessité, ont donné l’exemple collectif que cela est possible quelque soit le nombre des années.

    Une anecdote ? 1393347584_CoolNous voilà dans un lycée dit “technique”, Un prof (initialement de physique) est devant ses élèves de seconde générale en “option de découverte scientifique” (dont quelques geeks, et oui !). De manière très factuelle, il les informe que cette année là, c’est “avec eux” et en leur apprenant, qu’il s’initiera lui-même à la programmation informatique. Trois secondes de silence, dû à l’étonnement collectif. Puis la réponse tombe de la bouche d’une des deux filles de la classe, dans un assentiment général tacite : «Ah ouais M’sieur ? Total respect.». Du coup, même pas besoin du chercheur venu pour aider : l’enseignement sera un succès.

    Grâce à ces “profs”, petit à petit, des notions comme celle “d’information numérique” sera aussi bien comprise que le fut la notion d’énergie au 20ème siècle. On parle ici d’apprendre des connaissances, et d’apprendre à apprendre à travers des projets. L’aventure n’est pas que de transmettre de nouveaux savoirs, mais aussi de nouveaux savoir-faire. Les abstractions de l’informatique s’apprennent en les manipulant expérimentalement à travers des exercices de programmation, mais aussi de spécification, conception, etc..

    Et voilà que notre professeure qui n’est pas seulement prof mais aussi parent, commence à apprendre la programmation à ses enfants avec Scratch, et la robotique avec le charmant robot thymio ! Et trouve que ce serait bien si l’informatique était enseignée dès l’école primaire !

    Propos recueillis auprès des professeurs d’ISN de l’Académie de Nice par Thierry Viéville avec la complicité et la contribution d’Estelle Tassy, professeure ISN, Lycée Amiral de Grasse.

    En savoir plus :

  • Le sens des images

    image-henrimaitre2.1Terkiin Tsagan Nuur, Khangaï, Mongolie Henri Maître

    Suite de l’entretien d’Henri Maître, professeur émérite à ParisTech réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan (lire l’article précèdent)

    Binaire : Dans le traitement de l’image reste encore de nombreux champs à défricher. Pour toi, c’est quoi le Graal ?

    Henri Maître : Le Graal, pour moi c’est très clair : c’est dans la sémantique. Depuis le début du traitement de l’image, des gens ont été interpelés par le fait qu’il y a d’une part la forme de l’image (les pixels, c’est noir, blanc, rouge ou vert, ça a des hautes fréquences, des basses fréquences, des contours, textures) et il y a le contenu, le message que l’on veut faire passer. Entre les deux on ne sait pas comment ça se passe. Cette dialectique entre ce qui est intelligent dans l’image et ce qui est simplement l’emballage de l’intelligent est quelque chose qui n’est pas résolu mais dont les gens se sont bien rendu compte. Détecter un cancer du sein sur une radiographie, ça ne peut généralement pas se faire sur une image seule. Il faut à côté connaître les antécédents de la personne. C’est pour ça que les médecins ont tout à fait raison de ne jamais laisser les ordinateurs faire les diagnostics eux-mêmes. Les ordinateurs et le traitement de l’image ne peuvent donner que des pistes en disant : « Cette zone-là me semble susceptible de présenter des tumeurs malignes. » Et puis le médecin, lui, il va voir son dossier et compléter l’examen en mettant les radioscopies sur l’écran, car lui saura faire le mélange complexe entre l’information de radiométrie et l’information hautement sémantique portant sur l’âge et le contexte clinique de la patiente. Ce problème-là était déjà clair dans les années 70-75 quand on a pris le problème. Maintenant nous progressons, mais lentement. La sémantique reste toujours mal cernée. Tu tapes Google, tu tapes Charles de Gaulle et tu ne sais toujours pas ce que tu vas avoir. Tu risques d’avoir un porte-avions. Ou un quartier de Paris. Ou un aéroport. Ou peut-être le général que tu cherchais ! Ou alors il faut lever l’ambiguïté : ajouter de force la sémantique : « aéroport Charles de Gaulle » ou « général Charles de Gaulle », ces mots ajoutés forcent le sens que personne malheureusement ne sait aujourd’hui trouver dans l’image. C’est là un enjeu colossal pour nous aider à exploiter les immenses ressources qui se cachent dans la toile.

    B : Ça progresse en utilisant évidemment des techniques de traitement de l’image mais ça progresse aussi en utilisant, d’autres technologies comme les bases de connaissances ?

    HM : Oui. On tourne autour du problème : « image ou intelligence artificielle ? » depuis des années, depuis 30 ans au moins, parce qu’en parallèle de problèmes de bas niveau du traitement de l’image, d’algorithmique liée à la détection des formes et des objets présents dans l’image, les gens s’interrogent sur la façon de représenter cette connaissance. Au début, on procédait en utilisant des règles, des grammaires, sans grands succès ? Puis des systèmes à base de connaissance. Vous aviez des très bons chercheurs à l’INRIA comme Marc Berthod ou Monique Thonnat qui ont développé pendant des années des systèmes intelligents pour reconnaître des formes sur ce principe. On disait : « Un aéroport, ça a des pistes, des bâtiments et des hangars ». Ces modes de raisonnement, qui sont bien datés, ont été abandonnés, malgré des efforts considérables, et des résultats non négligeables, ils ont montré leurs limites. Après, on a basculé sur d’autres systèmes des systèmes coopératifs de type multi-agents. Les résultats n’ont pas été bien meilleurs. Actuellement, on est d’une part revenu très en arrière vers des techniques de reconnaissance statistique et très en avant en mettant en scène des ontologies de traitement de l’image. Ces ontologies sont là pour mettre des relations intelligentes entre les divers niveaux d’interprétation et vont permettre de piloter la reconnaissance. Actuellement, c’est parmi les choses qui fonctionnent le mieux lorsqu’elles s’appuient sur une classification de bas niveau de qualité comme en procurent les algorithmes purement probabilistes issus du machine learning. Néanmoins, il est clair que, dans les images, il y a une partie de compréhension beaucoup plus complexe et plus difficile à traiter que dans le langage parlé ou dans l’écrit.

    B : D’où vient la difficulté ? De la géométrie ?

    HM : Une grande partie de la difficulté provient de la variabilité des scènes. Prenons le simple exemple d’une chaise, terme sémantiquement simple et peu ambigu qui se décline en image par une très grande variété d’objets, chacun étant lui-même dans des contextes très variés.

    image-henrimaitre2.2Photo Henri Maître Street Art Paris

    B : C’est beaucoup plus compliqué que de reconnaître le mot chaise, même dans dix langues différentes.

    HM : Oui, exactement.

    B : La prochaine frontière ?

    HM : Actuellement un problème préoccupe les traiteurs d’image, la possibilité de représenter une scène avec beaucoup moins de pixels que ce que réclame le théorème de Shannon (qui fixe une borne suffisante mais pas du tout nécessaire en termes de volume d’information utile pour la reconstruction d’un signal). C’est ce qu’on appelle le «compressed sensing». C’est à la fois un très difficile problème mathématique et un redoutable défi informatique. De lui pourrait venir un progrès très important dans notre capacité d’archivage des images et pourquoi pas de leur manipulation intelligente.

    B : Merci pour cet éclairage. Tu es quand même à Télécom et donc tu ne vas pas couper à une question sur les télécommunications. Vu de l’extérieur, pour quelqu’un qui n’y connaît pas grand-chose là-dedans, on a l’impression que, à un moment donné, les télécoms aussi ont basculé dans le numérique et que, maintenant, il n’y a plus beaucoup de distinctions entre un outil de télécom et un ordinateur. En fait, c’est l’ordinateur qui est devenu le cœur de tout ce qui est traitement des télécoms. C’est vrai ou c’est simpliste ?

    HM : Non, ce n’est pas simpliste. C’est une vue qui est tout à fait pertinente. Mais pendant que les télécoms sont venues à l’informatique, l’informatique a été obligée de venir aux télécoms : il est clair que si l’ordinateur est au cœur des télécoms, le réseau est au cœur de l’informatique moderne, c’est probablement plus des télécoms que de l’informatique.

    B : C’est un mariage ? Un PACS ?

    HM : Voilà. Cette assimilation des deux s’est faite de façon consentie aussi bien d’un côté que de l’autre. Il reste un cœur d’informatique qui n’utilise pas du tout les concepts des télécoms, et des domaines des télécoms qui n’intéressent pas les informaticiens, mais un grand domaine en commun qui s’est enrichi des compétences des uns et des autres. C’est la convergence. La convergence qui était annoncée depuis très longtemps.

    B : Donc, puisque là on parle de convergence, on parle aussi d’une convergence avec la télévision…

    HM : Qui est plus lente et qui est moins assumée, actuellement, dans la société. Parce que certes, probablement dans beaucoup de foyers en particulier dans ceux de nos étudiants, il y a une convergence totale où l’on capte la télé sur le web, sur un téléphone ou sur une tablette, mais il y a quand même encore beaucoup de foyers français qui réservent un seul appareil à la télévision, qu’elle soit hertzienne ou sur fil. Pour eux, il y a une convergence technique (dont d’ailleurs ils ont des occasions de se plaindre), mais elle est restée cachée.

    B : C’est juste une question de temps. On est bien d’accord ?

    HM : C’est une question de temps, c’est ça. C’est une question de génération.

    B : OK. Pour passer au présent, maintenant tu es prof émérite. À quoi passes-tu ton temps et qu’est-ce qui te passionne encore ? Dans la recherche, si ça te passionne encore.

    HM : Je reviens lentement à la recherche. J’ai eu une interruption longue : quatre ans où je me suis entièrement consacré à de l’administration de la recherche. Et c’est extrêmement long pour un chercheur. J’ai pris en charge la direction de la recherche, la direction du LTCI et la direction de l’école doctorale. Trois secteurs, dans des périodes très troublées par de multiples chantiers où il y avait beaucoup boulot. J’ai donc eu une coupure très importante et je suis en voie de réadaptation : je suis en train de réapprendre les outils du chercheur débutant. Du coup, et tant qu’à faire que se remettre à niveau, j’explore des nouveaux axes. Je me suis plongé depuis quatre mois, sur ce qu’on appelle la photographie computationnelle. C’est quoi ? Ce n’est pas une nouvelle science, mais une démarche scientifique qui cherche à tirer profit de tout ce que la technologie a fait de nouveau dans l’appareil photographique, aussi bien au niveau du capteur, des logiciels embarqués, des diverses mesures pour faire autre chose qu’une « belle image » (ce qui est la raison commerciale de ces nouveaux appareils). Quel genre de chose ? des photos 3D, des photos mises au point en tout point du champ, ou avec des dynamiques beaucoup plus fortes, des photos sans flous de bouger, … et l’idée est bien de mettre ça dans l’appareil de Monsieur Tout-le-Monde.

    B : Alors, question de néophyte : J’aurai plus de réglages à faire ? Ça va faire beaucoup plus automatiquement ou ça va me demander des réglages voire de programmer ?

    HM : On ne sait pas encore. C’est une piste pour permettre à chacun de faire des photos normalement réservées au professionnel. Une autre piste est de mettre ces fonctions à la disposition des bons photographes comme un « mode » supplémentaire disponible à la demande. Pour l’instant ce sont des usines à gaz qui ne peuvent quitter le labo de recherche. Il y a aussi une évolution qu’il faut prendre en compte : l’appareil photo est de plus en plus un « terminal intelligent » du web. D’ailleurs si vous achetez un appareil un peu haut de gamme, la première chose à faire est de le mettre sur le web pour télécharger les dernières versions des logiciels aussi bien du boîtier que des objectifs.

    B : Le système se met à jour.

    HM : Oui, ce qui est quand même assez stupéfiant. Moi j’avoue, en être resté pantois : ton appareil recharge les lois de commande sur la balance du blanc ou la correction des aberrations chromatiques, et ton objectif la stratégie de stabilisation et de mise au point. Bien sûr, sur cette lancée, on voit apparaître des officines qui te proposent aujourd’hui des logiciels pour faire le démosaïcage mieux que Canon ou Nikon, pour te proposer une application dédiée.

    B : Donc on pourrait imaginer des appareils photos qui, comme notre téléphone portable, pourraient se brancher avec des applications qu’on irait télécharger, acheter à droite et à gauche.

    HM : Exactement. Tu veux acheter le truc qui te donne la 3D ? On te donne la 3D. Tu es intéressé par la détection de choses particulières, avoir systématiquement dans toutes tes images une indexation des tags urbains (moi je suis passionné de street art), ça me le fait automatiquement, des choses comme ça. On pourrait faire ça. Pour l’instant, c’est encore inaccessible pour le néophyte…

    B : Mais un jour, peut-être, avec des interfaces de style téléphone intelligent ?

    HM : Oui. Aujourd’hui, même s’il a le lien wifi avec le réseau, l’appareil photo moderne n’en abuse pas. Mais il est déjà doté d’un calculateur très puissant et pourrait faire bien plus. Aujourd’hui, ton appareil photo fait la mise au point tout de suite ainsi que le choix d’ouverture et la balance du blanc. Il analyse la scène, décide s’il est en intérieur ou en paysage, en macrophoto ou en portrait. Il trouve les pondérations des sources. Il fait la mise au point sur les quelques indications que tu lui donnes. Si jamais tu lui dis : « c’est un visage que je veux », il te détecte le visage. Il y en a qui détectent le sourire. Ils font le suivi du personnage et corrigent la mise au point. Tout ça, en temps réel. Ce qui n’est pas encore beaucoup exploité dans les appareils photos, c’est le GPS et la wifi. Le GPS marque uniquement les images, mais il pourrait te dire que tu es place Saint-Marc et que ce que tu as pris en photo c’est le Campanile.

    B : On pourrait imaginer aussi qu’il se charge de reconnaître des tags qu’il y a sur les gens. Des tags électroniques. RFID, des choses comme ça.

    HM : Oui, tout à fait. Ça pourrait se faire très bien ; il faudrait bien s’entendre sur ce que l’on y met.

    B : Jusqu’à quel point sera-t-on dirigé ? Est-ce que je serai forcé d’avoir un horizon horizontal ? Pourrais-je le choisir autrement ?

    HM : C’est une vraie question. Mon appareil photo, ici, est en manuel presque en permanence. Il sait tout faire. Mais je choisis de garder le contrôle la plupart du temps. Mais pour ceux qui font de la montagne par exemple, avoir le nom de tous les sommets, c’est pas mal. Souvent, tu te dis : « Mince, où est-ce ça ? Je ne sais plus bien. » Moi j’aimerais bien que mon appareil photo me taggue les montagnes.

    B : Comme tu aimerais bien, quand tu rencontres quelqu’un, qu’en le mettant sur ton appareil photo il te dise le nom de la personne.

    HM : Ça, ça me gêne plus. Et de ce côté-là, j’avoue que je ne pousse pas trop à la roue. Je suis même assez opposé. Mais pour les paysages je n’ai pas l’impression de pénétrer à son insu dans l’intimité de quelqu’un.

    image-henrimaitre2.3Photo Henri Maître Street Art Paris

    B : On voit sur ta page web que tu voyages beaucoup et que tu rapportes plein de photos. Est-ce que tu penses que ta profession, ton métier ont changé ta vue sur le monde ?

    HM : Oui, beaucoup, c’est sûr. Alors comment est-ce que ça l’a changée ? D’abord j’ai relativisé l’importance de l’image. Prendre des milliers d’images dans un voyage, c’est très facile. Par contre, en garder dix pour un album ou une expo pose de vraies questions … Comment en garde-t-on dix ? On se pose pour chacune la question : qu’est-ce qui la distingue des autres et ça permet de remettre l’homme dans le processus de création de l’image, car s’il ne coûte plus rien de faire la photo, l’acte créateur qui célèbre la valeur de telle ou telle image, renaît au moment de la sélection. Dans toutes les images qu’on fait la plupart, soyons clair, sont sans intérêt, et pourtant ne se distinguent guère des quelques autres que l’on garde. Je ne vais pas aller beaucoup plus loin, car cela nous entraînerait dans des développements ennuyeux. Mais je vais faire une petite digression qui semble n’avoir que peu de lien mais relève du même débat. On parlait tout à l’heure de notre travail avec les musées. Il m’a amené dans les galeries et j’en suis sorti fasciné par l’évolution de la peinture occidentale (je ne connais pas assez les autres cultures pour m’y aventurer). Je trouve que la peinture nous renvoie aujourd’hui le dialogue de l’homme dans le débat husserlien : « Qu’est-ce qui est à moi dans l’image et qu’est-ce qui est au monde dans l’image ? Je capte donc c’est à moi, mais en même temps, c’est de la lumière qui m’est envoyée donc ce n’est pas à moi »… Partons du Haut Moyen-Âge et des œuvres en grande majorité d’inspiration religieuse. Au centre et en haut, c’est l’idée de Dieu, l’idée de grandeur, l’idée de beau ; les vilains sont par terre, ils sont tout petits. Les autres sont grands, ils sont en lumière, ils ont toujours le même visage, iconique, … On représente des idées beaucoup plus que des choses ou des gens. Et puis, le Quattrocento a fait sa révolution, introduisant le monde tel qu’il est dans ce que les gens en pensent. Avant, les peintres représentaient le monde tel qu’ils le voulaient et après le Quattrocento, ils ont commencé à le représenter tel qu’il était. Ils ont introduit bien sûr la perspective, la couleur délicatement dégradée, les ombres, la personnalisation des visages, des détails, souvent banals. Comme si brutalement le monde s’était précipité sur la toile. Ca a duré jusqu’au milieu du XIXe siècle, poussant régulièrement la capacité de reproduire le réel jusqu’aux Pompiers. Mais les impressionnistes ont dit : « Non, ce n’est pas ça qu’il faut… Replaçons l’image dans ce qu’elle doit être. Représentons dans l’image ce qu’on veut représenter, ce qui est derrière l’apparence mais qui en fait la nature particulière, ce qui n’est pas porté par l’image. ». Ce n’était qu’un début qui s’est poursuivi inexorablement avec les fauves, les cubistes puis les abstraits. On a perdu alors les éléments inutiles, les détails, les contours (Cézanne, Manet). Si l’ombre tourne dans la journée supprimons la (Manet, Gauguin). Juxtaposons les instants (Braque, Bacon), juxtaposons les aspects (Picasso). Je trouve ça absolument fascinant. Et je pense que nous, traiteurs d’images, on a vraiment beaucoup à apprendre pour voir comment les peintres ont petit à petit éliminé de la scène qu’ils observent des choses qui sont, entre parenthèses, artificielles. Les ombres, qui tournent dans la journée. Pourquoi ? Parce que l’ombre n’est pas propre à l’objet qu’on veut représenter. L’ombre est propre à l’instant où on le regarde, mais ce n’est pas ça qu’on voit. Au contraire, d’autres regardent la lumière, et font disparaître la cathédrale qui n’est que le prétexte à la lumière, comme l’escalier n’est que le prétexte du mouvement. Toutes ces choses-là, je pense que ce sont des guides pour ceux qui font du traitement de l’image pour leur indiquer le plus profond de la sémantique que l’on va retrouver dans les images. Ça leur montre qu’ils ont du boulot. Pour moi, c’est absolument naturel que les impressionnistes soient apparus quand la photo s’est imposée.

    B : En même temps que la photo ?

    HM : J’imagine le peintre de 1835 : « Mais qu’est-ce que je fais avec ma peinture, à dessiner mes petits pois, mes petits légumes, mes petites fleurs ? À quoi je sers ? » Alors qu’avec une photo, on a exactement la scène telle qu’on la voit. Ça ouvre grand les marges de manœuvre de la peinture, pour représenter les scènes qu’on observe. Quand je parle de sémantique, la sémantique la plus complète, ça peut être effectivement très compliqué.

    B : As-tu des regrets ? Si c’était à refaire ?

    HM : Je ne me suis pas encore trop posé la question. Non, je n’ai pas beaucoup de regrets. Évidemment, j’ai des regrets d’avoir passé trop de temps dans des combats stériles, plus ou moins politiques, plus ou moins scientifiques, d’avoir trop consacré de temps aux démarches administratives. J’ai perdu beaucoup de temps, c’est sûr. Mais je ne regrette pas par contre d’être monté au créneau des tâches fonctionnelles car il faut que les scientifiques s’en chargent si l’on ne veut pas que se ressente très bas dans la vie des laboratoires un pilotage technocratique ou managériale qui peut faire beaucoup de dégâts sous une apparente rationalité. Oui, j’aurais pu faire autre choses. Qu’on me donne dix vies et je referai dix vies différentes, c’est sûr.

    B : Est-ce que tu aurais aimé être physicien ou être autre chose ? Peintre ? Photographe ?

    HM : J’aurais aimé être ingénieur agronome et m’occuper de forêts, si possible outre-mer. Rien à voir avec l’image ! Je me rends compte que je suis bien mieux dans la nature et dans la campagne que dans un laboratoire.

     image-henrimaitre2.4Photo Henri Maître Street Art Paris

    B : nous vous invitons à parcourir le mini-portail du monde d’Henri Maître qui regorge d’images de tout horizon. Bon voyage !

  • De l’holographie à l’image numérique

     

    (original)
    (résultat)

    Effet spécial sur une séquence vidéo : suppression automatique d’un personnage. A. Newson, A. Almansa, M. Fradet, Y. Gousseau, P. Pérez – Télécom ParisTech et Technicolor

    Henri Maître est Professeur émérite à Télécom ParisTech où il était jusque récemment Directeur de la Recherche. C’est un spécialiste du traitement d’images et de reconnaissance des formes. Il nous raconte son parcours qui conduit aux fonctions si sophistiquées des appareils photos modernes et au Graal, « la sémantique des images ». Il nous fait partager sa passion pour ces aspects si dynamiques de l’informatique, le traitement numérique du signal et de l’image et sa vision sur l’évolution et les perspectives qui s’offrent à l’image.

    Entretien avec Henri Maître réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan.

    Binaire : Bonjour Henri Maître. Pour commencer, peux-tu nous raconter comment tu es devenu chercheur en traitement du signal, jusqu’à devenir directeur de la recherche à Télécom.
    Henri Maître : Si je fais partir le début de ma carrière de mon expérience d’étudiant à Centrale Lyon, où j’ai étudié essentiellement les maths appli et la mécanique des fluides, on est loin de ma recherche future. Mais en parallèle, je me suis passionné pour l’holographie, l’optique et la physique des images… Le point commun entre l’holographie et la mécanique des fluides, c’est la transformée de Fourier tridimensionnelle et les traitements qui tournent autour… Dans les premières années de 70, ce n’était pas l’outil courant de l’ingénieur et je pensais pouvoir mettre à profit cette double compétence à l’ONERA pour l’étude par holographie des écoulements, mais ça n’a pas marché et comme je cherchais à me rapprocher de Paris, j’ai fait un stage en holographie numérique à l’ENST, l’actuel Télécom ParisTech qui démarrait une activité sur ce sujet.

    B : Et tu t’es plu à Télécom ; tu y es resté toute ta carrière ?
    HM : Oui. J’ai commencé en mars 1971 et j’ai été remercié en mars 2013 ! Et j’ai même droit à une petite rallonge avec un poste émérite sur place. Ce qu’on me proposait, c’était du traitement de l’information et c’était de l’holographie. Comme je n’étais pas un grand spécialiste de l’optique, j’ai été à l’Institut d’Optique faire un DEA d’optique cohérente dans une superbe équipe qui était pilotée par Serge Lowenthal à l’époque, c’était vraiment le haut du panier mondial en holographie. L’École des Télécoms était en train de créer ses labos. Le premier labo avait été monté par Claude Guéguen et Gérard Battail deux ans auparavant en traitement du signal et en théorie du codage. Jacques Fleuret montait un labo d’holographie et de traitement optique des images juste avant mon arrivée, montage auquel j’ai participé.
    Replaçons nous dans le contexte des années 70. L’ordinateur fonctionnait bien. Il avait quand même beaucoup de mal à travailler sur des images trop grosses pour sa mémoire, les temps d’entrée/sortie étaient considérables et la piste de l’optique laissait entrevoir du temps réel sur de larges images, sans avoir besoin de les transformer par une numérisation. On espérait à l’époque pouvoir faire des traitements très compliqués. Les Américains avaient déjà fait des systèmes optiques de reconstruction d’images de radar à vision latérale embarqués dans des avions. Il y avait des systèmes de reconnaissance de routes ou de rivières en télédétection, de caractères pour le tri postal, de cellules pour l’imagerie médicale. C’était la piste concurrente du traitement de l’image par ordinateur

    B : Une image ne tenait pas dedans ?
    HM : Non, alors, l’image ne tenait pas dans l’ordinateur. Les temps de calcul étaient très longs mais surtout les entrées et sorties étaient très lourdes. Disposer d’une mémoire d’image était une grande fierté pour une équipe (à Télécom comme à l’Inria ou au CNRS). Pierre Boulez est venu voir chez nous ce qui pouvait être utile pour son prototype de 4X qu’il faisait développer alors à l’IRCAM. Notre mémoire, c’était un truc qui faisait 40 cm sur 40 cm sur 20 cm, et sur lequel il y avait 512 x 512 x 8 octets distribués dans des dizaines de boîtiers. Ça permettait d’afficher une image en temps réel devant des spectateurs émerveillés. Pour l’analyse, on passait par un microdensitomètre, prévu pour analyser des spectrogrammes, mais modifié pour balayer le film selon les deux dimensions. On lançait l’analyse le soir (elle durait 8 h et il fallait éviter les vibrations et les lumières parasites ; grâce au ciel il n’y a pas de métro rue Barrault !). Pour sortir les résultats on collait côte-à-côte des morceaux de listings où les teintes de gris provenaient de la superposition de caractères et l’on prenait ça en photo à 20 mètres en défocalisant un peu pour lisser les hautes fréquences.
    Donc, le traitement numérique de l’image existait déjà mais de façon balbutiante : il y avait quelques équipes en France. Je pense à Albert Bijaoui à l’Observatoire de Nice, à Serge Castan à Toulouse, à Daniel Estournet à l’ENSTA ; et Jean-Claude Simon, faisait venir tous les ans dans son château de Bonas la fine-fleur internationale de la reconnaissance des formes. Mais je ne faisais pas de traitement numérique d’images alors. On calculait par ordinateur des filtres complexes par holographie numérique que l’on introduisait dans des montages optiques en double diffraction sur des tables de marbre. Une semaine de calcul du filtre puis quinze jours d’expérimentation en optique pour décider qu’il fallait changer de paramètre du filtre et recommencer le cycle. Ce n’était pas tenable. On a donc décidé de simuler le traitement optique … et on est donc arrivé au traitement numérique !

    B : Les débuts du traitement numérique d’image ?
    HM : Oui, On simulait le filtre optique mais le filtre optique, ce n’était jamais qu’un filtre de corrélation que l’on faisait par une double transformée de Fourier. A l’époque, une double transformée de Fourier, ça vous prenait deux heures sur la machine, même si Cooley-Tukey étaient passés par là. On s’est rendu compte que c’était infiniment plus efficace que de le faire en optique. Que c’était plus rapide, plus souple et que finalement les nouveaux systèmes d’affichage d’image (des oscillos qu’on modulait devant un polaroïd), ou les mémoires d’image devenaient opérationnels. Et effectivement, honnêtement, le bilan scientifique, c’est que les méthodes optiques de traitement des images n’étaient pas compétitives face au traitement numérique. Mon collègue Jacques Fleuret a continué à faire du traitement plutôt optique pour des applications spécialisées ; on a continué à utiliser nos tables d’holographie, en marbre, nos bains photo, nos émulsions, mais on a multiplié les terminaux, gonflé notre mémoire et renforcé notre réseau.
    Je suis parti une année sabbatique en Allemagne dans un labo d’optique cohérente en pôle position dans la communauté de l’holographie, celui d’Adolf Lohmann. Mon cours expliquait le traitement numérique des images à des opticiens.

    B : C’était en quelle année ?
    HM : En 1980. Et je suis revenu avec une étiquette de traiteur numérique des images et à partir de là, je n’ai plus fait que ça.

    fetal_modelingModélisation anatomique d’un fœtus : l’opérateur choisit le stade de croissance,
    l’orientation globale dans l’utérus et la position des membres.
    S. Dahdouh, J. Wiart, I. Bloch, Whist Lab, Télécom ParisTech et Orange Labs.

    B : Est-ce que c’est correct de dire qu’aux alentours des années 80, le traitement de l’image a basculé ou commencé à basculer vers le numérique ?
    HM : La piste du traitement numérique remonte à 1965 et ses résultats sont déjà très nombreux en 1980 mais, effectivement, dans les années 80, le traitement numérique des images est la solution au problème alors qu’avant, elle était une des solutions possibles. Il y avait eu beaucoup plus de crédits dans le traitement optique car les militaires surtout de l’autre côté de l’Atlantique, mettaient beaucoup d’argent pour avoir des traitements embarqués en temps réel. Par contre, le traitement numérique a mis plus de temps car les infrastructures (calculateurs assez puissants, composants, …) n’étaient pas là. Comment est-ce que le traitement numérique est passé devant ? Incontestablement, c’est la conquête spatiale américaine qui a fait basculer le traitement numérique au premier plan.

    B : Et techniquement des choses comme la baisse du coût des mémoires ?
    HM : Bien sûr, l’évolution des composants surtout …. Mais qu’est-ce qui a entraîné l’autre ? Je ne sais pas. Il y a une chose extrêmement intéressante à voir rétrospectivement. Dans les années 70 à 80, lors de la compétition féroce entre les Américains et les Russes pour l’espace, les Américains, partis en retard, ont rattrapé les Russes à coups de technologie très avancée. Les Russes, eux, ont continué à faire une politique s’appuyant sur leurs points forts de base dans laquelle ils envoyaient des hommes dans l’espace. L’essentiel de la conquête de l’espace des Américains, comme des Russes, était destinée à améliorer la surveillance de l’autre. Les Russes le faisaient avec des jumelles depuis les satellites. Ils observaient des cibles, préparées sur des plannings, après des entraînements spécifiques qui leur permettaient de détecter, suivre et identifier les bateaux qui se trouvaient dans un port pendant les quelques minutes où la cible était en visibilité. Résultat : les Russes ont acquis une compétence extraordinaire sur la biologie dans l’espace, les capacités et les évolutions du corps humain, les effets de la gravité sur les performances du système visuel, le fait que, par exemple, la rétine, en apesanteur, ne voit pas les mêmes couleurs de la même façon. Pendant ce temps les Américains envoyaient des caméras prendre des photos et développaient des machines de traitement de l’image pour les exploiter. On voit le résultat quelques années plus tard : les Américains dominent complètement ce marché de la télédétection en haute résolution, tandis que les Russes ont acquis un savoir-faire exceptionnel sur les longs séjours des cosmonautes.
    Cet effort particulier des Américains lancé dans les années 70 à 75 commençait à retomber en pluie fine sur les universités et les labos de recherche. Dans les années 80, le traitement numérique des images était bien établi et, évidemment, s’appuyait sur l’informatique à fond.

    B : Est-ce le progrès du matériel qui a précipité le développement du traitement numérique d’image ou l’inverse ?
    HM :
    Les deux ont été vrais : l’exemple de la mémoire d’image est typiquement un point sur lequel le traitement de l’image a demandé des choses qui n’existaient pas à l’industrie des composants et les progrès ont bénéficié à l’ensemble de l’informatique. C’est probablement aussi le cas des disques à très haute capacité qui servent aujourd’hui avant tout à la sauvegarde des films et des images du grand-public, mais aussi à des applications commercialement moins porteuses mais potentiellement très riches comme les grandes bases de données du web.

    B : Et, à cette époque, tu es où ?
    HM : À Télécom ParisTech, l’ENST d’alors. Serge, c’est peut-être là d’ailleurs qu’on s’est connus ?
    Serge : J’y étais élève. Et tu étais mon prof.

    B : Qu’est-ce qui a évolué dans la recherche, en ce qui concerne le traitement du signal, de l’image, entre ce qui se faisait disons, dans les années 80, et ce qu’on fait maintenant ? Est-ce que c’est juste qu’on le fait mieux ou est-ce qu’il y a eu de nouveaux sujets qui ont émergé, des nouvelles pratiques ?
    HM : C’est assez clair : jusqu’aux années 85-90, le traitement de l’image était porté par des applications qui étaient très consommatrices de gros moyens informatiques. C’était l’imagerie satellitaire, j’en ai déjà parlé : pour la défense, la surveillance, la cartographie. On pouvait le mâtiner d’applications civiles, du genre surveillance des ressources terrestres, suivi des cultures, des forêts, … mais, en gros, c’était quand même essentiellement piloté par des applications militaires. Deuxièmement : l’imagerie médicale. Marché très important démarré avec l’analyse des radiographies et le comptage cellulaire. C’est à ce moment la naissance de la tomographie, de l’imagerie ultrasonore, de l’IRM. Une véritable révolution dans le domaine de la santé, qui renouvelle totalement le diagnostic médical. Matériels très chers, développés par des entreprises hautement spécialisées et très peu nombreuses. Le traitement des images dans ce domaine, c’est du travail de super pros qui s’appuient sur une très étroite relation avec le corps médical. Troisième domaine d’application très professionnel, les applications de traitement de l’image pour les contrôles dans les entreprises : surveillance des robots, lecture automatique dans les postes, dans les banques, pilotage des outils. Si c’est de plus petite taille, ça reste quand même très professionnel.
    Ce tableau s’applique, jusqu’aux années 90. Et là, la bascule s’est produite avec la démocratisation de la photo numérique dans des applications liées au web, à la photo personnelle, aux individus et au grand public, Bref le marché de la société civile. Là, on a trouvé des gens qui se sont intéressés aux mosaïques d’images, à la reconstruction 3D, à la reconnaissance de visages simplement pour des applications familiales ou entre amis.

    B : Les photographes amateurs et les réseaux sociaux ?
    HM : Oui, les réseaux sociaux. Ça ne s’appelait pas encore comme ça, mais c’était bien ça. Cette profusion d’images numériques dans les téléphones, les ordinateurs, les tablettes a fait basculer le traitement de l’image des domaines professionnels au domaine du grand public. Aujourd’hui, c’est le grand public qui tire, c’est très clair. Les développements des matériels, les appareils photos … Tout le monde a son appareil photo à 15 mégapixels, c’est absolument incroyable quand on voit le temps qu’il a fallu pour avoir une image numérique de 100 koctets !. Tous mes cours, commençaient par : « Une image, c’est 512 x 512 pixels.». Une base d’images numériques (comme celle du GdR Isis en France), c’était 30 images. Maintenant, tout le monde a sur son disque dur, des centaines d’images de plusieurs méga-octets. Ça, c’est le nouveau contexte du traitement de l’image. Je pense que cette nouveauté-là réagit très fortement sur les métiers du traiteur d’image. Si vous vous intéressez au renseignement militaire vous aurez probablement autant de renseignements en allant naviguer sur Google Earth qu’en envoyant des mecs se balader sur le terrain ou en lançant un nouveau satellite espion.

    B : Et la science là-dedans ? Est-ce qu’il reste des problèmes durs ? Des problèmes ouverts, le Graal du traitement de l’image aujourd’hui ? Ou bien, est-ce que le plus gros est fait, qu’il ne reste plus qu’à nettoyer ici ou là ?
    HM : Les problèmes nouveaux, oui, on a plein, parce qu’à la fin du siècle précédent, on considérait que si on voulait faire une application, la première chose qu’on demandait, c’est qu’il y ait des professionnels qui prennent les images avec du matériel pro. On se mettait toujours dans un contexte professionnel. Typiquement, pour la radiographie médicale, on achète un appareil à 15 millions d’euros, on prend deux techniciens à temps plein toute l’année et on fait des images dans des conditions parfaitement contrôlées. Donc on se met dans les meilleures conditions d’acquisition de l’image et à partir de là, bien sûr, on tire bon an mal an de bons résultats. Bon an mal an, parce que ce n’est pas si facile que ça. Mais dans les conditions naturelles de la vie : l’éclairage, l’attitude, le mouvement, le bruit, varient sans contrôle et rendent la tâche plus complexe. On dispose cependant de beaucoup plus d’images et de capteurs bien meilleurs et il faut réinventer les algorithmes avec ces nouvelles données. Naissent ainsi des problématiques nouvelles, extrêmement intéressantes, mais difficiles. Il faut trouver les bons invariants, jouer avec les lois de distribution pour détecter les anomalies, savoir faire abstraction des problèmes de géométrie. Et tout cela doit être caché à l’utilisateur qui n’a aucun intérêt aux invariants projectifs, aux matrices fondamentales, aux hypothèses a contrario …

    B : Passons à un autre sujet. Au départ, tu étais physicien. Ensuite, tu es passé au traitement de l’image. Nous, on te revendique maintenant comme informaticien, mais quel est ton point de vue à toi ? Est-ce que tu te considères comme informaticien, ou sinon, qu’est-ce que tu es ? Dans le cadre général de la classification des sciences, tu te places où ?
    HM : Je me sens tout à fait bien dans le monde de l’informatique, mais je revendique d’avoir non seulement une culture mais une sensibilité et une compétence qui vont au-delà, en particulier vers la physique, mais pas seulement. Par exemple je suis extrêmement soucieux de me maintenir en physique à un niveau qui soit suffisant, car je pense qu’on ne peut pas faire, dans mon domaine, de bonnes choses si on ne sait pas ce qu’est une réflectance, une albédo, ou une source secondaire.

    B : Toute l’optique ?
    HM : Une bonne partie de l’optique. Savoir ce qu’est une aberration, un système centré. Donc l’optique est importante. J’ai des sensibilités dans d’autres domaines : autour de la perception, du fonctionnement du cerveau, comment on traite la sémantique…

    B : Des sciences cognitives ?
    HM : Oui, ça pourrait relever de la science cognitive et c’est très important pour traiter les images. On ne peut pas parler d’image sans avoir une petite compétence en psycho-physiologie de la perception.

    B : Est-ce que tu pourrais nous dire comment tu as vu l’enseignement changer au cours de ta carrière à Télécom et comment tu vois le futur de cet enseignement dans un monde où on parle beaucoup de MOOC et de choses comme ça qui font couler beaucoup d’encre ?

    mexicoMesure par interférométrie radar de la subsidance du bassin de Mexico
    due à l’appauvrissement de la nappe phréatique : P. Lopez-Quiroz, F. Tupin, P. Briole
    Télécom ParisTech et Ecole Normale Supérieure 

    HM : Puisque l’on destine cet entretien à la communauté de l’informatique, parlons d’elle tout d’abord. Cet enseignement m’a longtemps semblé beaucoup trop utilitaire à l’école. Afin de se laisser le temps d’aborder les domaines les plus pointus des réseaux, des mobiles ou des services en ligne, on passait très vite sur des fondements théoriques qui me semblent cependant indispensables pour structurer une carrière orientée par exemple vers le développement de très grands systèmes ou de réseaux complexes. Je vois d’un très bon œil que, dans le cadre de notre participation à l’Idex de Paris Saclay nous puissions confronter notre expérience pédagogique à celle d’équipes qui ont dans ce domaine de l’enseignement supérieur de l’informatique de très beaux résultats. J’en attends d’une part une nouvelle pédagogie beaucoup plus en profondeur pour un petit nombre d’élèves destinés à y consacrer leur première carrière, d’autre part pour tous les autres un renforcement net de leurs compétences par une meilleure compréhension des enjeux du numérique.
    Je ne crois pas beaucoup à l’effet des MOOC dans ce domaine. Je les réserverais plutôt pour des domaines où la pédagogie est moins primordiale, peut-être vers les applications.

    B : Qu’est-ce qui t’a le plus intéressé dans ta carrière ?
    HM : La plus passionnante des expériences a été de travailler avec les laboratoires de recherche des musées de France, et en général c’est vers les applications que j’ai trouvé les plus grandes satisfactions, en frottant mes connaissances de traiteur d’image aux compétences d’experts d’autres domaines, qu’ils soient dans la restauration des peintures, dans la cartographie urbaine ou dans la détermination de l’altimétrie de la Guyane.

    poussinEtude de la géométrie d’une œuvre de Georges de la Tour
    (Saint Joseph Charpentier,  Louvres)
    mettant en évidence les principes de construction.
    JP Crettez, Télécom ParisTech et Réunion des Musées Nationaux.

    B : Tu as des exemples d’applications que tu as réalisées ?
    HM : C’était avec les laboratoires de recherche des musées de France. Ça s’appelle maintenant le C2RMF. On a lancé dans les années 83-88 les bases des grands projets européens d’archivage des musées. On a essayé de mettre sur pied non pas des standards mais des critères qui permettent d’établir ces standards, sur la résolution spatiale, l’éclairage, la colorimétrie des bases de données de peintures. Nous étions les partenaires du Louvre et on a travaillé avec l’Alte Pinakothek à Munich, la National Gallery de Londres, et la Galleria degli uffizi de Florence, bien avant que Google s’intéresse au projet. Des projets européens, on en a monté cinq ou six sur les peintures mais aussi sur les objets à 3D, les statues et les vases C’était passionnant et particulièrement stimulant de discuter avec des conservateurs qui ne voulaient surtout pas voir leurs peintures ramenées à un boisseau de pixels.

    HM : Un autre exemple de ce qui m’a beaucoup plu : définir la façon d’indexer les images de la nouvelle famille de satellites Pléïades qui a une résolution de 50 à 75 cm au sol, (toutes les minutes et demi, il tombe 640 méga-octets). Les gens ne peuvent plus traiter les images pour voir individuellement ce que chacune contient. On s’est posé la question de savoir comment indexer les images automatiquement quand elles arrivent, de façon à pouvoir répondre à des questions que l’on se posera dans 10 ans ou 20 ans. Il y a une grande partie de l’information qui est contrainte parce qu’on connait précisément la géographie, donc on sait que ce n’est pas la même chose si on observe du côté de Bakou ou de la Corne de l’Afrique. Mais derrière, il faut pouvoir identifier les champs, les rivières, les zones urbaines, les réseaux routiers, … Savoir s’il y a encore de la neige, ou du vent de sable, de telle façon qu’après, quand on recherchera des images, on retrouve toutes celles qui présentent une configuration identique. Pour cela, il a fallu tout construire de zéro car ça n’a bien sûr qu’un lointain rapport avec les bases de données d’images sur le web. On est obligé de faire des indexations hiérarchiques parce qu’il faut à la fois être précis lorsqu’on a trouvé la zone d’intérêt et rapide pour traiter des milliers d’images, chacune couvrant 1000 km2. Il a fallu discuter avec les utilisateurs : agronomes, géologues, urbanistes, cartographes, pour savoir comment faire les classes. Les gens qui s’occupent d’agronomie, veulent connaître le blé, l’orge, le riz, alors que, comme traiteur d’images, si j’ai reconnu des céréales, je suis très content ! Tu vas voir les urbanistes. Ils te disent : «Moi, je veux les quartiers résidentiels, les quartiers d’affaire, les banlieues, les zones commerciales, industrielles, etc. » et ainsi de suite. Il faut savoir quelles sont les classes qui sont raisonnablement utilisables et donc les questions que la société peut avoir face à l’image. Et je pense qu’à ce niveau-là, l’informatique a encore du boulot devant elle. Elle a encore du boulot parce qu’on va encore lui en poser des questions de ce type. La question n’est pas encore à l’ordre du jour sur le web « social », mais ça ne saurait tarder. Il n’y a qu’à voir comment à ce jour est indexée la musique pour comprendre où se situe le problème. Classer Brel dans la « musique du monde », pourquoi pas, mais qui en est satisfait ?

    B : Dans la suite de l’entretien, Henri Maître partagera sa vision de l’évolution de l’image et des perspectives sociétales qu’elle peut avoir. Nous vous donnons rendez-vous demain pour découvrir sa vision…

    maitreHenri Maitre, © Serge Abiteboul

  • L’informatique s’installe au Collège de France

    college1Source : Collège de France

    Qu’est-ce que le Collège de France ?

    Le Collège de France est une institution résolument originale au plan mondial. Créé en 1530 par François 1e pour libérer la pensée de la scholastique universitaire, c’est une université entièrement libre d’accès, sans étudiants ni examens. Quarante-quatre professeurs permanents élus par leurs pairs y dispensent actuellement leurs cours sur autant de chaires, ce dans les grands domaines de la connaissance : mathématiques et sciences numériques, sciences du vivant, physique et chimie, sciences humaines, histoire et littérature. Ils ont pour seules contraintes de dispenser un cours nouveau tous les ans, représentant « le savoir en train de se constituer », tout en conduisant une recherche de pointe dans leur domaine et en s’ouvrant à ceux de leurs pairs. Leurs cours sont complétés par un nombre égal de séminaires donnés par des personnalités extérieures. Les chaires permanentes sont complétées par des chaires annuelles, cinq actuellement, qui explorent de nouveaux domaines de la connaissance et de l’action. La plupart des cours sont téléchargeables en vidéo sur le site du Collège et au travers de plusieurs réseaux internationaux de diffusions de contenus.

    L’entrée de l’informatique au Collège

    L’informatique est entrée pour la première fois au Collège de France en 2007-2008 lors de la deuxième édition de la Chaire d’innovation technologique Liliane Bettencourt, que j’ai eu l’honneur de tenir cette année-là, tout en gardant mon poste industriel de directeur scientifique de la société Esterel Technologies. La science informatique n’avait jamais été enseignée au Collège de France, et sa connaissance par le grand public restait fragmentaire, beaucoup confondant science, technique et usage dans un méli-mélo quelque peu confus.
    Après une leçon inaugurale embrassant le sujet de façon assez large et illustrant la force de la science informatique et la nécessité de son enseignement, j’ai eu l’idée de travailler à la façon du début du 20e siècle, sous forme de « leçons de choses » dédiées à autant de pans centraux de l’informatique : algorithmes, circuits, langages de programmation, systèmes embarqués, vérification de programmes, réseaux et images, le tout accompagné de douze séminaires associés aux sujets du jour et d’un colloque final. Le lien fort entre le collège de France, France-Culture et d’autres radios m’a permis de compléter le cours par plusieurs émissions de radio, exercice que j’apprécie particulièrement car il donne vraiment le temps à l’invité de s’exprimer et laisse de l’autre côté les yeux, les mains et l’esprit libres à l’auditeur.
    A la suite du succès rencontré par cette première chaire, Inria et le Collège de France ont décidé de créer en commun et pour cinq ans une chaire annuelle « Informatique et sciences numériques », qui vient d’être renouvelée pour trois ans. J’ai encore eu l’honneur (et la charge) d’inaugurer cette chaire, avec un cours plus technique intitulé « Penser, modéliser et maîtriser le calcul informatique ». J’ai centré mon discours sur le fait qu’il y a un gouffre entre écrire un programme qui marche à peu près et un programme qui marche vraiment, en insistant sur le fait que seule une approche scientifique peut permettre d’atteindre le second objectif.
    Les années suivantes, la chaire s’est poursuivie par les cours de Martin Abadi (Université de Santa Cruz et Microsoft Research) sur « La sécurité informatique », Serge Abiteboul (Inria et ENS Cachan) sur « La science des données, de la logique du premier ordre à la toile », et Bernard Chazelle (Université de Princeton) sur « Les algorithmes naturels ».
    Cette année 2013-2014, le cours sera donné par Nicholas Ayache (Inria Sophia-Méditerranée) sur le thème « Des images médicales au patient numérique ». Il présentera les progrès extraordinaires de l’imagerie médicale et de la chirurgie robotisée, ainsi que l’évolution vers un patient numérique personnalisé permettant de mieux comprendre les maladies et leur traitement grâce à une modélisation informatique fine de l’anatomie et de la dynamique des organes. Je ne peux que recommander au lecteur de suivre ce cours, qui montrera bien comment l’informatique change complètement les façons de penser dans un domaine qui lui était autrefois tout à fait étranger.

    college2

    Photo : Collège de France

    La chaire permanente « Algorithmes, machines et langages »

    En 2012, devant l’importance du sujet et de son évolution et devant le succès des cours des chaires annuelles d’informatique, le Collège de France a décidé de créer une chaire permanente d’informatique « Algorithmes, machines et langages » et de me la confier. J’ai choisi de consacrer mes cours à un sujet relativement peu exploré par les approches traditionnelles mais qui devient de plus en plus central dans nombre d’applications : la gestion du temps et des événements dans les systèmes informatiques.
    Les algorithmes et langages classiques s’attachent surtout à la notions de calcul sur des données, et ne traitent le temps et les événements que du bout des lèvres : le temps est vu comme un impôt à payer pour le calcul, les événements comme des choses qu’il convient de traiter avec des primitives ad hoc pour les intégrer le plus simplement possible dans l’exécution séquentielle des programmes. Ceci correspond bien à la conception initiale de l’ordinateur comme super-machine à calculer. Mais, dans un autre monde, l’ordinateur est plutôt vu comme une « machine à réagir ». C’est le cas dans toutes les applications de contrôle de systèmes physiques (avions, automobiles, robots, etc.), où informatique et automatique sont étroitement associées et où le respect des temps de réaction est une contrainte primordiale. C’est aussi le cas pour les circuits électroniques les interfaces hommes-machines, désormais omniprésents, la simulation de système physiques, maintenant à la base de la création d’objets de toutes sortes, l’orchestration d’activités Web, indispensable pour les applications modernes construites par compositions de services existants et commandées par nos téléphones ou autres terminaux sensibles, et même la composition musicale, où les compositeurs contemporains mettent en interaction les merveilleux interprètes humains et les fantastiques possibilités de l’informatique pour produire de nouveaux sons. Tous ces systèmes sont maintenant rassemblés sous le nom de « systèmes cyber-physiques ». Nous allons assister à l’explosion de leur nombre et de  leurs interconnexions à travers le fameux « Web des objets » qui se développe exponentiellement. Il se trouve que la recherche française est en pointe dans ce domaine depuis plus de 30 ans, et fait ce qu’il faut pour le rester. C’est donc un excellent domaine pour le Collège de France, que je détaillerai ultérieurement

    Gérard Berry, Professeur au Collège de France

    college3Plaque en hommage à Claude Bernard, sous les fenêtres de son laboratoire au Collège de France à Paris.  Photo Collège de France. Jebulon

  • La datamasse s’invite Quai de Conti

    mammothLe mammouth Wooly au Royal BC Museum
    Victoria, British Columbia. Wikemedia

    Vidéos de la conférence-débat de l’Académie des sciences « La Datamasse : directions et enjeux pour les données massives »

    • Introduction,  Patrick Flandrin, CNRS, ENS Lyon
    • À la découverte des connaissances massives de la Toile, Serge Abiteboul,  Inria, ENS Cachan
    • Des mathématiques pour l’analyse de données massives, Stéphane Mallat, ENS Paris
    • La découverte du cerveau grâce à l’exploration de données massives, Anastasia Ailamaki, École polytechnique fédérale de Lausanne
    • Big Data et Relation Client : quel impact sur les industries et activités de services traditionnelles ? François Bourdoncle, co-fondateur et CTO d’Exalead, filiale de Dassault Systèmes

     Serge Abiteboul

     

  • Les blagues sur l’informatique #10

    Une blague d’informaticiens que vous ne comprenez pas?
    Un T-shirt de geek incompréhensible?
    Binaire vous explique (enfin) l’humour des informaticien(ne)s!

    Désolé(e), les blagues IPv4 sont épuisées.

    IPv4 est la version 4 (en fait la première largement déployée) du protocole de communication entre ordinateurs utilisé par Internet. Une adresse IPv4 est représentée sous la forme de quatre nombres décimaux (entre 0 et 255) séparés par des points comme par exemple 8.8.8.8. Pour simplifier, on peut considérer que les adresses IPv4 vont de 0.0.0.0 à 255.255.255.255, ce qui fait 232 soit un peu plus de 4 milliards d’adresses. Il n’y en a donc pas une pour chaque humain sur Terre! Et au vu du nombre d’équipement connectés, c’est peu ! Depuis 2011, il n’y a plus de blocs d’adresses IPv4 disponibles, ce qui explique la blague.

    Voici pour illustrer l’en-tête IPv4:

    En-tête IPv4Copyright Wikipedia
    Plusieurs solutions à ce problème existent, notamment la récupération d’adresses attribuées généreusement autrefois, l’utilisation de sous-réseaux, ou l’utilisation du protocole IPv6
    qui autorise 2128 adresses (au lieu de 232), ce qui fait plus de 1038 adresses soit plus de 100 milliards de milliards de milliards de milliards d’adresses.

    Voici pour comparer l’en-tête IPv6. Notez la taille largement supérieure de l’adresse!

    En-tête IPv6Copyright Wikipedia
     

    Voir aussi IPv4, Épuisement des adresses IPv4, Internet, le conglomérat des réseaux.

    Sylvie Boldo

  • L’ordinateur, un crayon pour créer

    L’ordinateur, un crayon pour créer

    Quand mon fils a eu 8 ans, j’ai eu l’idée de lui apprendre à programmer. Comment cette idée m’est-elle venue ? Pour les 15 ans de la promotion de mon école d’ingénieur, des camarades ont interviewé des acteurs du monde des télécoms sur les transformations passées et à venir. Ça a été un choc de revoir l’impact des technologies du numérique sur l’ensemble de la société. En quinze ans, avec internet, les smartphones et les tablettes, les objets portant en eux des programmes informatiques sont devenus omniprésent dans notre vie quotidienne au point de transformer nos modes de vie. Aujourd’hui nous achetons sur internet, nous échangeons sur les réseaux sociaux, nous télé-déclarons nos impôts, nous écoutons de la musique sur des plateformes en ligne… Et ces changements continuent à s’accélérer, nous demandant de nous adapter sans cesse.

    L’un des intervenants a conseillé d’apprendre à ses enfants à programmer. Cela m’a semblé tout d’un coup une évidence. J’avais appris à programmer en école d’ingénieur, ce qui est de fait très tard. Programmer est accessible aux jeunes enfants car pour eux c’est un jeu de création et de construction, qui plus est sur un support qu’ils adorent, l’ordinateur. Plus ils se familiarisent tôt avec la programmation informatique, mieux ils appréhendent les concepts de logique associée à cette discipline ; séquençage, conditions, boucles… Apprendre à programmer permet aux enfants de devenir acteurs dans un monde de plus en plus pénétré de technologies, et pas uniquement consommateurs. Sans être une développeuse, il m’a toujours semblé que je savais naviguer dans le monde actuel parce que je comprenais ce que je manipulais lorsque j’utilisais de près ou de loin un ordinateur, et ce que l’on pouvait attendre de la technologie.

    C’était il y a un peu plus d’un an. J’ai alors cherché un atelier extra-scolaire pour mon fils. J’ai été sidérée de ne rien trouver, même à Paris, pas le moindre atelier pour enfant sur ce thème. De là est née l’idée qui devait changer ma vie, celle de créer moi-même ce qui n’existait pas et qui m’apparaissait une nécessité : des ateliers où les enfants créent leurs jeux, leurs propres histoires avec l’ordinateur, tout en apprenant à programmer, et j’ai démarré les ateliers Magic Makers.

    Des outils adaptés pour les enfants

    J’ai commencé à rechercher quel outil adapté aux enfants je pourrais utiliser. J’ai choisi d’utiliser un des plus connus et des plus efficaces, comme en témoigne la grande communauté d’éducateurs qui l’utilise dans le monde. Scratch est un logiciel développé par le Lifelong Kindergarten au sein du Media Lab du MIT (Massachussetts Institute of Technology). Ce qui est intéressant avec Scratch, c’est d’abord qu’il est extrêmement intuitif et ludique. Les enfants adorent.

    Les commandes se présentent sous forme de blocs que les enfants assemblent simplement avec la souris. On y anime les personnages que l’on a choisis, on les fait apparaitre, disparaître, interagir parler… Le résultat est tout de suite visuel et concret pour les enfants. En créant, ils sont confrontés à des problèmes de logique: ils obtiennent le résultat désiré parce qu’ils ont trouvé une façon efficace d’enchaîner les instructions, dans le bon ordre, avec les bonnes conditions d’actions. Coder, programmer, c’est simplement donner des instructions à une machine pour produire un résultat. Le faire avec Scratch permet aux enfants d’appréhender ce fonctionnement et de se l’approprier.

    L’autre intérêt de Scratch, ce sont les idées sur lesquelles s’appuie sa conception, qui se retrouvent dans la façon de l’utiliser. Scratch est avant tout conçu comme un outil d’apprentissage au sens large, au-delà de l’apprentissage de la programmation. C’est avant tout un outil pour apprendre à apprendre : expérimenter, chercher des solutions, se tromper et recommencer, partager sur le site en ligne et apprendre par la collaboration auprès des autres scratchers. L’équipe du Lifelong Kindergarten s’appuie sur des travaux en sciences de l’éducation, notamment du chercheur Seymour Papert qui met en avant l’apprentissage par l’expérimentation.

    Créer

    L’enjeu des ateliers est la créativité. Le code est un moyen. Dans les ateliers Magic Makers, les enfants expérimentent toutes sortes de choses que l’on peut créer avec un ordinateur. J’aborde les projets dans un ordre qui permette de confronter les enfants à une complexité croissante.

    Nous avons tout d’abord mis en scène des histoires. Cela permet d’apprendre les bases nécessaires pour créer un projet, et d’appréhender déjà les notions de séquencement. Ils trouvent la manière de déclencher des actions en comptant le nombre de secondes au bout desquelles un personnage doit apparaître ou dire sa réplique. Les enfants inventent leurs personnages, ils les créent en dessinant, ou même en pâte à modeler, et ils utilisent ensuite le code pour l’animer. Ils sont très fiers de ces premiers résultats.

    Forts de ce succès, nous abordons ensuite la création de jeux vidéos. Cela fait appel à des concepts plus élaborés : il faut piloter un personnage, et déclencher des actions quand certaines conditions se réalisent, comme par exemple compter des points quand on touche un objet que l’on doit ramasser, et faire disparaitre cet objet, puisqu’on l’a ramassé. Il est passionnant de voir les enfants se prendre au jeu, et trouver un moyen de donner forme à ce qu’ils ont en tête. Ou tout simplement de recréer des jeux qui leur plaisent.

    En fin de compte, quand je repense aux quinze années écoulées, et que je pense aux quinze années à venir, je me dis qu’il faut fournir aux enfants les outils dont ils auront besoin. Et plus que des outils, une façon de les appréhender comme outils de création.

    Claude Terosier. Magic Makers.