Catégorie : Industrie

  • Plus silencieux que la grande muette

    Après avoir présenté la certification de systèmes informatiques à l’occasion d’un article de binaire et l’émergence de débats sur le fait que les états doivent ou pas déléguer certaines de leurs prérogatives dans la sécurité numérique. Binaire a reçu le point de vue de deux collègues à propos d’un des acteurs de ces questions : l’ENISA. L’agence européenne de sécurité des réseaux est une agence de cybersécurité, qui est au centre de ce débat.
    Pierre Paradinas

    L’agence européenne de sécurité des réseaux ne craint plus sa disparition

    https://www.enisa.europa.euOn a presque oublié son existence :  l’Union Européenne dispose d’une agence de cybersécurité, l’ENISA. On ne l’a jamais beaucoup entendue mais ce n’est pas sa faute : son rôle opérationnel a été limité dès sa naissance, par la volonté des grands Etats membres qui voyaient d’un mauvais œil une incursion européenne dans leur sécurité nationale.

    C’est aussi la raison pour laquelle l’ENISA a été la seule agence européenne avec un mandat non permanent, à l’issue duquel son existence était chaque fois remise en question. Elle était de ce fait incapable de se projeter dans le futur et de développer une vision.

    Son mandat actuel se termine en 2020 (il a commencé en 2013 : ces 7 ans de mandat sont le maximum jamais attribué à cette agence) mais en septembre la Commission a proposé une nouvelle stratégie pour la cybersécurité qui fait la part belle à cette agence. Son budget annuel doublerait : de 11,2 à 23 millions € et son personnel passerait de 84 à 125. L’agence aurait aussi un rôle opérationnel pour coordonner la réaction des Etats membres en cas de cyber-attaque.

    L’ENISA va aussi être un acteur clé pour la cyber-certification. Si on veut considérer la sécurité dès la conception du produit (on parle alors de « security by design »), la certification est nécessaire mais chaque état membre, s’il s’en préoccupe, le fait à sa sauce.  Il y a bien la norme ISO 15408 qui sert de socle à un accord international (le Common Criteria Recognition Arrangement ou CCRA) de reconnaissance mutuelle mais seuls 13 Etats membres  l’ont signé et seuls deux niveaux de certifications sur sept sont reconnus mutuellement. Avoir une certification propre à chaque état membre est évidemment insupportable pour la Commission qui y voit une entrave au marché unique. Chaque Etat membre doit mettre en place une autorité chargée d’accréditer des organes qui peuvent délivrer les certificats. Ainsi c’est l’ENISA qui serait chargée de préparer le contenu de ces certifications en coopération avec un groupe d’experts constitué des autorités d’accréditation. À moins d’être obligatoire via une autre législation de l’Union, la certification resterait volontaire. En gardant un caractère volontaire à la certification, la Commission veille à ne pas imposer cette lourdeur aux services ou produits peu critiques et dont le prix augmenterait de ce fait. S’il y a une certification européenne en place, les Etats membres ne pourront plus avoir une certification nationale propre. Un fabricant pourra aller chez l’organe d’accréditation de son choix.

    La directive « cybersécurité  » avait déjà revu à la hausse le champ de responsabilité de l’ENISA en la transformant en cheville ouvrière pour son implémentation et son suivi. C’était une bonne raison de transformer l’ENISA en agence permanente.

    Dans sa proposition de régulation qui fixe le contour de l’ENISA, nouvelle formule, cette dernière aura les compétences suivantes :

    • Développer une politique cohérente européenne de sécurité de l’information et dans d’autres secteurs sensibles (énergie, transport, finance) et dans les domaines de l’identité électronique et des services de confiance;

    • Améliorer de la capacité de réponse de l’Union Européenne et de ses Etats membres en cas d’attaque (1);

    • Conseiller le nouveau centre de recherche en cybersécurité : le European Cybersecurity Research and Competence Centre qui verra le jour en 2018;

    • Faciliter la coopération entre les Etats membres volontaires (on imagine de fait que peu de grands Etats le feront), en analysant en cas d’incident des informations reçues des Etats membres pendant leur déroulement.

    Justifier un rôle pour l’ENISA

    La Commission justifie une action au niveau de l’Union Européenne via le test de subsidiarité, qui doit prouver qu’une action au niveau européen ne peut qu’être plus efficace comparée au niveau national. Ce qui, quand on parle de sécurité est une une gageure, les arguments devront être solides pour résister aux grands Etats membres qui ont, c’est vrai, entériné lors d’un conseil européen la nécessité pour l’Europe de se doter d’une cyber-stratégie.

    Pour la Commission, les réseaux, les systèmes d’information, les infrastructures critiques sont toutes interconnectées au niveau européen. Aucun pays ne peut plus gérer seul un cyber-incident qui se propagera automatiquement à tous ses voisins de surcroit. Vu ainsi, il ne s’agit pas comme le prétendent d’aucuns d’un transfert de compétences qui privent les Etats membres de leur capacité d’analyse [1]. Accepter une coordination de l’Europe, c’est faire un premier pas vers l’Europe de la défense qui nous a tellement manqué. La France, qui est le plus crédible des Etats membres en la matière, peut montrer la voie.


    Charles Cuvelliez, École Polytechnique de Bruxelles (ULB), Jean-Jacques Quisquater, École Polytechnique de Louvain, UCL

    Pour en savoir plus:

    Review of ENISA Regulation and laying down a EU ICT security certification and labelling, European Commission, July 7, 2017

    Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on ENISA, the « EU Cybersecurity Agency », and repealing Regulation (EU) 526/2013, and on Information and Communication Technology cybersecurity certification ( »Cybersecurity Act »), Brussels, 13.09.2017

    [1] Les Etats ne doivent pas déléguer leur sécurité numérique  Nicolas Arpagian / directeur scientifique du cycle Sécurité Numérique à l’INHESJ, Les Echos du 30.11.2017

    (1) On peut se demander pourquoi elle ne devient pas elle-même cette capacité de réponse, une option qui figurait dans une consultation à son égard. Elle doit se contenter de contribuer à l’établissement d’ISACS (Information Sharing and Analysis Centres) par secteur en diffusant bonnes pratiques et guidance.

  • T’as pas cent balles (ransomware) ?

    Nous avons demandé à Hélène Le Bouder et Aurélien Palisse chercheur.e.s rennais de nous parler d’un sujet d’actualité : les ransomware. Ces nouveaux logiciels à la propagation virale, qui vous réclament de l’argent pour ne pas détruire vos données… De quoi s’agit-il ? Pierre Paradinas.

    À propos de Ransomware

    Les ransomware (logiciels de rançon) ne cessent de se développer. Ils représentent l’une des plus grandes menaces du monde informatique d’aujourd’hui; mais que sont-ils exactement ? Un ransomware chiffre les données d’un ordinateur, puis demande à son propriétaire d’envoyer une somme d’argent en échange de la clé cryptographique permettant de les déchiffrer. Les ransomware infectent les ordinateurs via internet et attendent un signal pour s’activer. Ainsi 80% d’entre eux parviennent à chiffrer toutes les données d’un utilisateur en moins d’une minute. Les autorités conseillent de ne pas payer, afin de ne pas encourager des activités criminelles. Il est important de noter que le paiement d’une rançon ne garantit pas la récupération de ses données.

    Une étude, estime que plus de 25 millions de dollars ont été payés ces dernières années. Le prix des rançons varie de 50 à 300 euros. La rançon peut atteindre plusieurs milliers d’euros comme en juin 2017 pour un groupe industriel.

    Les cybercriminels souhaitent être payés en utilisant une monnaie virtuelle difficilement traçable, comme le bitcoin. Des moyens de paiement plus hétéroclites ont déjà été utilisés dans le passé comme des cartes cadeaux Amazon, ou des SMS surtaxés.

    Certains anti-virus permettent de détecter un ransomware avec des résultats plus ou moins efficaces. Notons que Windows 10 inclut une protection contre les ransomware.

    Les chercheur.e.s ne connaissant pas à ce jour de solutions acceptables [3, 1] principalement pour des raisons de performance. En effet, la détection se base sur le comportement des applications vis à vis du système de fichiers. Par exemple, un grand nombre de fichiers renommés ou de dossiers/fichiers explorés peuvent être liés au comportement d’un ransomware. L’apprentissage automatique (machine learning) est très utilisé, notamment par ShieldFS un outil développé par des chercheurs italiens. Le principal problème des solutions académiques est le déclenchement intempestif de fausses alertes : de nombreux programmes sont suspectés d’être malveillants à tort.

    © Inria / Photo C. Morel

    Au Laboratoire de Haute Sécurité d’Inria à Rennes, une plateforme (Malware’O’Matic) constituée de plusieurs ordinateurs est dédiée à ce thème de recherche. Le but est de développer une contre-mesure plus performante qu’un antivirus traditionnel en termes de taux de détection (99% de ransomware détectés) et de rapidité d’exécution.

    Des données chiffrées ont une répartition proche d’une répartition aléatoire. Aussi nous utilisons des tests statistiques de détection d’aléa pour détecter le processus de chiffrement. Une version plus aboutie, permettant de limiter le nombre de fausses alertes est actuellement en cours de développement avec un effort particulier pour limiter l’impact sur les performances de l’ordinateur.

    Aujourd’hui la plupart des études se focalisent sur les menaces courantes et ne se projettent pas sur les menaces futures. Les ransomware actuels sont assez frustres mais ils risquent d’évoluer d’une part en complexité et d’autre part vers de nouvelles cibles comme les téléphones. Des travaux récents [2] montrent que des techniques d’apprentissage supervisé utilisées pour détecter les logiciels malveillants peuvent aussi être utilisées pour concevoir des logiciels furtifs et les rendre ainsi indétectables par les antivirus actuels. Il est important pour le monde de la recherche de ne pas se cantonner aux problèmes actuels et d’anticiper des solutions pour l’avenir.

    Hélène Le Bouder (MdC à l’IMT-Atlantique), et Aurélien Palisse (doctorant chez Inria)

    Pour aller plus loin, écoutez le Podcast d’Aurélien sur le sujet des ransomware sur )i(nterstices

    Références

    1. A. Continella, A. Guagnelli, G. Zingaro, G. De Pasquale, A. Barenghi, S. Zanero, and F. Maggi. ShieldFS : A self-healing, ransomware-aware filesystem. In Proceedings of the 32nd Annual Com- puter Security Applications Conference. ACM.
    2. I. Rosenberg. Improvements in Obfuscation and Detection Techniques of Malicious Code. PhDthesis, The Open University, 2016.
    3. N. Scaife, H. Carter, P. Traynor, and K. R. Butler. Cryptolock (and drop it) : stopping ransomware attacks on user data. In Distributed Computing Systems (ICDCS), 2016 IEEE 36th International Conference on, pages 303–312. IEEE, 2016.
  • Chiffre, sécurité et liberté

    Serge Abiteboul et Pierre Paradinas interviewent le Général Desvignes, spécialiste de sécurité et ancien Directeur du Service Central de la Sécurité des Systèmes d’Information (SCSSI) devenu aujourd’hui l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) et aussi appelé à l’époque les services du Chiffre. La sécurité informatique est un sujet de plus en plus essentiel quand l’informatique prend de plus en plus de place dans nos vies. Nous abordons ici avec Jean-Louis Desvignes un aspect essentiel, celui de la libération du chiffrement.

    Quand des voix au plus haut niveau parlent d’interdire le chiffrement, il nous parait important d’ouvrir la question. Les propos relayés ici ne reflètent pas nécessairement l’opinion de l’équipe du blog Binaire. Parlons-en !

    Photo : La Myosotis, Archives de l’ARCSI

    B : Jean-Louis, comment devient-on Directeur du Chiffre ?

    JLD : j’étais simple lieutenant dans les transmissions et le chef de corps m’a trouvé en train de changer un fusible d’une machine à chiffrer en panne (c’était une Myosotis). Personne ne s’intéressait au chiffre, en tous cas pas moi. Je me suis retrouvé dans un stage de chiffrement et j’ai aimé le coté matheux. Plus tard, j’ai découvert l’histoire du chiffre pendant la première guerre mondiale. Tout le monde a entendu parler de Turing mais beaucoup moins de Painvin. Et je me suis passionné pour le sujet.

    Le lieutenant Georges Painvin

    Photo : Annales des Mines

    Pendant la guerre de 14-18, la maîtrise cryptographique de l’armée française l’aide considérablement à décrypter les messages ennemis, lui procurant un avantage très important sur l’ennemi. En 1914, le premier décryptage est fait par le commandant Louis Thévenin qui donne aux alliés un avantage important dès le début du conflit. Le décryptage d’un radio télégramme allemand par le lieutenant Georges Painvin s’est ainsi révélé déterminant pour contrer une des dernières offensives allemandes. Évoquant ce lieutenant, Georges Clemenceau aurait prétendu qu’à lui tout seul il valait un corps d’armée. [Wikipedia 2017]

    J’ai fait une école d’ingénieur, Supelec et je me suis retrouvé responsable de réseau de communications. Je me suis pris au jeu de protéger le réseau. C’est comme cela que je suis arrivé au chiffre. Je suis devenu chef de projet pour réaliser le réseau de transmissions de données de l’armée de terre. J’ai alors mis la sécurité du réseau au centre de mes préoccupations allant jusqu’à imposer le chiffrement de tous les échanges entre le centre de gestion et les commutateurs. J’avais au demeurant choisi le protocole X25 utilisé par le réseau public Transpac ; à l’époque, c’était le réseau le plus développé au niveau mondial et il me paraissait plus sérieux que celui du balbutiant Internet dont les paquets se perdaient ou tournaient en rond.

    Internet n’est ni fait ni à faire

    B : Tu as vu les débuts d’Internet.

    JLD : Effectivement. J’ai d’ailleurs hésité à le prendre pour modèle car il était censé résister à la destruction de nœuds suite à un bombardement nucléaire ! J’ai considéré qu’il valait mieux se prémunir d’un dysfonctionnement probable que d’une vitrification non certaine…   15 à 20 ans après mon choix pour X25, l’IP l’a malheureusement emporté, et  c’est la source des nombreux déboires aujourd’hui.  Il nous faut vivre avec, bien qu’il soit structurellement peu sécurisé.

    Un autre point me semble important. Le réseau tactique Rita, en matière de sécurité, fut pour moi un exemple à éviter. Il avait été conçu comme une forteresse, un réseau fermé.  D’abord le chiffrement d’artère retenu laissait en clair les communications dans les nœuds et dans les extensions. Et puis fatalement il fallut l’ouvrir pour accéder à d’autres ressources et alors : plus de protection ! Je reste  convaincu  qu’il vaut mieux concevoir des réseaux ouverts d’emblée, que l’on sécurise de différentes façons, que des réseaux fermés vulnérables dès lors que vous êtes arrivés à les pénétrer.

    B : Que peut-on faire maintenant avec Internet ?

    JLD : On ne peut évidemment pas faire table rase de l’existant. On peut par exemple ajouter des couches de protection pour obtenir une sécurité de bout en bout. J’ai d’ailleurs à l’époque milité pour des systèmes de chiffrement  protégeant les « tuyaux » en créant ces fameux tunnels à travers ce dangereux no mans land. Mais pour ce qui est d’une refonte radicale ce n’est pas pour demain.

    Photo : J-L Desvignes, La une de Le Monde Informatique

    B : Nous arrivons à la question principale que nous voulions te poser. Tu penses qu’il ne fallait pas libérer le chiffrement comme Lionel Jospin l’a fait en 1999 ?

    JLD : Tel que cela a été fait, je pense que c’était une grave erreur. Nous avons bradé un avantage que beaucoup d’autres États nous enviaient : une législation qui avait pris en compte très tôt que le recours aux techniques cryptographiques allait poser un problème de sécurité intérieure et non plus seulement un problème de sécurité extérieure traité par des services de renseignement richement dotés et équipés pour y faire face. Nous étions dans cette situation confortable où nous pouvions nous permettre d’assouplir notre position pour répondre au besoin de protection lié au développement des NTIC tandis que les autres pays devaient au contraire durcir la leur. Or notre police s’était mise en tête de maintenir le régime de quasi prohibition du chiffre utilisant déjà le funeste  slogan : « ceux qui n’ont rien à cacher n’ont pas besoin de chiffrer ! »

    Pour tenter de concilier les deux objectifs éternellement contradictoires – liberté versus sécurité – j’ai proposé d’étudier la mise en œuvre du concept du « séquestre des clefs » parfois appelé des « tierces parties de confiance ». Une bataille de décrets s’en suivit, avec des manœuvres visant à limiter la viabilité  des tiers de confiance qui ne réussirent pas à décourager les candidats. Cette nouvelle législation française était examinée avec la plus grande attention  par la communauté internationale : l’OCDE, l’UE, nos Alliés mais aussi des pays asiatiques et même la Russie…

    Hélas! Un changement politique vint mettre un terme à cette tentative d’instituer un contrôle démocratique et transparent des moyens cryptologiques. La libéralisation « du 128  bits » en janvier 1999 tua dans l’œuf l’initiative et conduisit naturellement les services de renseignement à recourir à la connivence avec les firmes informatiques.  Le patron de la NSA vit certainement dans ce renoncement français le prétexte qu’il attendait pour lancer sa maison dans la plus incroyable opération d’espionnage technologique qui sera révélée par Snowden. Le gouvernement français qui croyait par son audace « booster » son industrie cryptologique ne fit que favoriser l’industrie et l’édition de logiciels américaines.

    On a libéré le chiffrement. Avec notamment la montée du terrorisme, les voix se sont élevées pour dire alors que les terroristes utilisaient le chiffrement. Ils le faisaient probablement. Comme tout le monde peut le faire… Avec le terrorisme, l’opinion publique a changé : la sécurité est devenue plus importante que la liberté. Alors, aujourd’hui, le climat sécuritaire ambiant amène encore certains responsables politiques notamment en France, à prôner le recours à ces logiciels affaiblis voire l’interdiction du chiffrement comme au bon vieux temps où le chiffre était considéré comme une arme de guerre de deuxième catégorie.

    B : Aujourd’hui la plupart des outils avec du chiffrement que nous utilisons sont américains. N’est-ce pas ?

    JLD : oui et ils contiennent probablement des « backdoors (*) » qui sont au service du gouvernement américain, tout comme les matériels chinois ont probablement des « backdoors » au service de leur gouvernement. On ne peut plus faire confiance ni à l’un ni à l’autre. Tout cela était terriblement prévisible. Si on autorise le chiffrement pour tous, les états qui le peuvent vont essayer de garder une longueur d’avance en installant des « backdoors ». Le système encourage les arrangements occultes entre industriels et services de renseignement. Au siècle dernier, les « backdoors » existaient. Elles sont passées au mode industriel.

    B : Les systèmes d’information en France sont-ils bien sécurisés ?

    JLD : on a en gros deux types de méthodes. Les méthodes préventives qui essaient d’empêcher les attaques, et comme on sait qu’on en laissera sans doute quand même passer, des méthodes curatives qui permettent de réagir quand on est attaqué, de gérer la crise. On est peut-être allé trop loin dans le curatif. Il faut plus de prévention.

    Quand on conçoit des systèmes informatiques, on se doit de les sécuriser. Évidemment, le même niveau de sécurité n’est pas nécessaire pour un produit grand public et un logiciel utilisé, par exemple, par la défense nationale. On peut obtenir des « certificats » de sécurité. (Voir encadré : La certification de produit informatique.) Malheureusement, on a baissé les exigences sur ces certificats.

    Avec la carte à puce, la France est devenue un des champions de la vérification de la sécurité. Au début, par exemple dans des cartes comme Moneo, le niveau de sécurité était assez bas. De vraies compétences se sont développées pour aboutir à d’excellents laboratoires d’évaluation agréés par l’ANSSI (+).

    Serge Abiteboul et Pierre Paradinas

    (*) Une backdoor (littéralement porte de derrière) d’un logiciel, ou « porte dérobée » en français, est une partie d’un logiciel, un trou de sécurité, qui n’est pas connue de son utilisateur et qui permet à d’autres de surveiller secrètement ce que fait le programme, voire d’avoir accès à ses données.

    (+) L’ « Agence nationale de la sécurité des systèmes d’information » (ou ANSSI) est un service français rattaché au Secrétaire général de la défense et de la sécurité nationale, qui assiste le Premier ministre en matière de défense et de sécurité nationale. Cette agence, en plus de la sécurité des systèmes d’informations de l’État, a une mission de conseil et de soutien aux administrations et aux opérateurs d’importance vitale, ainsi que celle de contribuer à la sécurité de la société de l’information, notamment en participant à la recherche et au développement des technologies de sécurité et à leur promotion.

    La certification de produit informatique

    La certification permet d’attester qu’un produit atteint un niveau de sécurité parce qu’il peut résister à un niveau d’attaque donné. Cette certification repose sur la vérification de la conformité du produit et sur des tests d’intrusion.

    L’ANSSI propose deux types de certifications.

    Le premier appelé Certification de Sécurité de Premier niveau est réalisé à partir de tests d’intrusion, il requiert un investissement limité en terme de coût du développement du produit.

    Le second appelé Critères Communs permet de certifier un produit selon 7 sept niveaux d’assurance de sécurité (Evaluation Assurance Level). Le niveau 1 ou EAL1 correspond à un niveau d’attaque faible. À partir du niveau 4-5, la sécurité du développement lui même est pris en compte, enfin au niveau EAL7, niveau d’attaque le plus élevé, le développement doit faire appel à des techniques formelles pour réaliser le produit.

    Les évaluations des produits sont faites vis-à-vis d’un objectif de sécurité. Les évaluations sont réalisées par des CESTI qui sont des entreprises indépendantes des développeurs des produits et des commanditaires des évaluations. Ces évaluations conduisent à l’émission d’un certificat.

    La reconnaissance internationale de ces certificats est à l’origine des Critères Communs, dont l’objectif est de structurer cette reconnaissance croisée à travers un accord de entre 25 pays. Cet accord permet la reconnaissance jusqu’au niveau 2. Il y a un accord plus restreint en terme de nombre de pays qui reconnait des certificats jusqu’à EAL4, et même pour certains domaines techniques particuliers jusqu’à EAL7.

    L’intérêt de ces reconnaissances mutuelles, si vous êtes un industriel est que vous pouvez faire un produit dans un pays et obtenir un certificat qui sera valide dans plusieurs pays sans devoir refaire d’évaluations. De même pour un client d’un produit vous pouvez avoir une meilleure confiance dans le produit que vous achetez.

    Photo : J-L Desvignes
  • Prolog est orphelin

    Nous venons d’apprendre le décès d’Alain Colmerauer et il nous semble important de dire quelle était sa place dans le paysage de l’informatique mondiale. Alain est l’inventeur du langage Prolog, qui a joué un rôle clé dans le développement de l’IA, il se trouve que plusieurs binairiens ont programmé avec ce langage, pour leur recherche ou pour payer leurs études ainsi que de proposer des extensions. Un collègue ami d’Alain, Philippe Jorrand, Directeur de recherche émérite au CNRS, nous parle de son parcours. Pierre Paradinas.

    Photo : Alain Colemrauer

    Alain Colmerauer était un ancien de l’IMAG (Institut d’Informatique et de Mathématiques Appliquées de Grenoble), devenu une personnalité scientifique de premier plan par le rayonnement international de l’œuvre majeure de sa recherche, le langage PROLOG.

    Alain Colmerauer était un élève de la première promotion de l’ENSIMAG, diplômée en 1963. Il a débuté sa recherche au Laboratoire de Calcul de l’Université de Grenoble, l’ancêtre du LIG. Dans sa thèse, soutenue en 1967, il développait les bases théoriques d’une méthode d’analyse syntaxique. Puis, pendant son séjour de deux ans à l’Université de Montréal, c’est en imaginant une utilisation originale des grammaires à deux niveaux (les « W-grammaires »), qu’il a établi les bases embryonnaires de ce qui allait devenir PROLOG.

    De retour en France en 1970, il accomplit ensuite toute sa carrière à l’Université de Marseille, où il devient professeur. C’est là, au Groupe d’Intelligence Artificielle du campus de Luminy, qu’il forme avec détermination une petite équipe de jeunes doctorants, puis d’enseignants-chercheurs, pour développer la PROgrammation en LOGique. Sous sa direction, c’est ce petit groupe qui a élaboré les fondements théoriques de cette approche originale de la programmation, puis conçu et mis en œuvre les versions successives du langage qui allait connaître un succès international et être la source d’un courant de recherche fertile : PROLOG I, PROLOG II, PROLOG III où les contraintes linéaires venaient rejoindre la logique puis Prolog IV avec une théorie d’approximation plus aboutie, des contraintes sur les intervalles, et un solveur.

    Prolog III, manuel de référence, Prologia, Marseille, 1996

    Par ailleurs, le langage Prolog sera adopté par le projet d’ordinateur de 5ème génération développé par le MITI au Japon dont l’objectif était de créer une industrie et les technologies de l’intelligence artificielle à la fin des années 80. Une entreprise PrologIA, distribuera le langage dans ses différentes version.

    Alain Colmerauer a toujours été un esprit original. Il se défiait de tout ce qui peut ressembler à une pensée unique, et n’hésitait pas à exprimer des idées parfois iconoclastes, mais souvent fécondes. Il croyait à ce qu’il faisait, et sa ténacité lui a souvent été utile face à quelques difficultés institutionnelles et à l’incrédulité de collègues plus installés que lui dans les modes scientifiques. Pour ceux qui l’ont bien connu pendant de longues années, Alain était un ami solide.

    Alain Colmerauer est décédé à Marseille, le vendredi 12 mai 2017.

    Philippe Jorrand, DR émérite CNRS

    Pour aller plus loin :

  • Qwant, aux armes citoyens !

    Qwant est une start-up française qui propose un moteur de recherche du web. Google domine tellement ce marché. Y-a-t-il de la place pour un autre concurrent ? D’autres y sont bien arrivés comme Baidu en Chine et Yandex en Russie. Mais ce sont les résultats de choix politiques, dans des pays où la liberté du commerce est hésitante. Est-ce possible en France ? En Europe ? Nous pensons que oui. Voyons comment.

    Un moteur de recherche compétitif techniquement

    La technique informatique pour construire un moteur de recherche est maintenant bien connue. Les moyens matériels nécessaires – des data centers – sont devenus standards. Il faut « juste » d’excellents ingénieurs et de solides moyens financiers. Les ingénieurs sont là. Quant aux capitaux, la société vient de lever 18,5 M€ auprès de la Caisse des Dépôts et du groupe de médias allemand Axel Springer – ce dernier ayant eu par le passé des différends avec Google sur l’utilisation d’extraits de ses articles sur Google News. Avec en sus 20 M€ d’un prêt de 2015 de la Banque européenne d’investissement encore disponibles, Qwant a de quoi voir venir.

    Qwant est un moteur de recherche relativement classique : des robots parcourent le web pour découvrir des pages intéressantes et indexent le contenu de ces pages. Vous posez une question, et Qwant vous propose « des » pages qui contiennent ces mots.

    Le classement des résultats, c’est l’art du domaine. Si les pages intéressantes ne sont pas dans les premiers résultats, l’internaute passera à un autre moteur. Qwant utilise, comme les autres, une combinaison de critères : PageRank (introduit par Google) qui classe chaque page suivant sa popularité dans le graphe du web (c’est-à-dire la galaxie de liens qui relient les pages web les unes aux autres), un classement qui s’appuie sur la manière dont la page est référencée, le contenu de la page : si le texte “près” d’un pointeur vers une page contient le mot “Romorantin”, il est raisonnable de penser que la page parle de Romorantin. Une particularité de Qwant est de tenir compte également de ce qui se dit dans les réseaux sociaux comme Twitter et Facebook. Cela permet notamment au moteur d’être réactif en tenant compte de l’actualité : vous auriez cherché “Barcelone” il y a peu, Qwant vous aurait suggéré des résultats d’actualités concernant le Mobile World Congress en journée, et à l’inverse sur le célèbre club de foot en soirée.

    Un petit bout du Web autour de Wikipédia. Wikipédia.

    Sans entrer dans les détails, les résultats de Qwant peuvent satisfaire un internaute, ce qui est indispensable pour ne pas finir dans les poubelles glorieuses de l’Histoire. La page de résultat est différente de celle de Google, moins épurée, plus riche, plutôt efficace avec ses trois facettes : recherche du web, actualités et réseaux sociaux.

    Développer un tel moteur coûte cher en machines et en gestion de ces machines. Très grossièrement, pour indexer deux fois plus de pages, il faut deux fois plus de machines qui indexent. Si le nombre d’internautes qui utilisent Qwant double (ce que nous leurs souhaitons régulièrement), il faut doubler le nombre de machines qui travaillent à calculer les réponses aux requêtes. Les pics de requêtes constituent d’ailleurs l’une des difficultés majeures pour tout moteur de recherche, à l’image de la horde de nombreux lecteurs qui se précipiteront pour essayer Qwant après la parution de cet article, et une plus grosse affluence encore quand Qwant passera au JT de TF1 ou de France 2.

    Qwant Junior, pour les enfants, évite la violence et la pornographie, recommande la science et la culture. Validé par l’Éducation nationale qui souhaite que les écoles et collèges le privilégient.

    Une difficulté supplémentaire réside dans le changement d’échelle du service. Pour une analogie, considérons une entité (entreprise, administration, etc.) qui gère un millier d’employés et fonctionne parfaitement. Si cette structure se développe et passe à dix mille employés, il vous faudra sans doute revoir son organisation. Et bien, c’est pareil pour un service logiciel, quand il change d’échelle (multipliant par exemple par 10 le nombre de ses serveurs), son organisation demande le plus souvent à être reconçue.

    S’il est encore loin de Google en volume de pages, le moteur de Qwant joue d’ores et déjà dans la cour des grands, avec 2,6 milliards de requêtes reçues l’année passée, simplement via le bouche à oreille. Il indexe aujourd’hui plus de 200 millions de pages par jour, ce qui le place, par exemple, dans la même ligue que Yandex. Il est bien implanté en France (déjà 2% de « parts de marché » chez nous) et en Allemagne, et s’attaque à de nouvelles langues et de nouveaux pays, avec par exemple un développement rapide en Italie, en Espagne… et même au Brésil. Chaque pays est un défi : il faut comprendre les requêtes les plus populaires du pays, et comment « cliquent » les internautes. C’est ce qui va enrichir le classement des résultats, un passage obligé pour « satisfaire » l’internaute. On comprend donc mieux pourquoi « l’installation » dans un nouveau pays nécessite 4 à 6 mois de rodage.

    Incohérent ou cohérent ? Il faut soutenir Qwant. Incohérent car l’ambition est démesurée, les moyens minuscules si on les compare aux moteurs de recherche d’Alphabet ou Microsoft. Incohérent aussi car c’est l’occasion de questionner nos usages sans privilégier la facilité ou l’efficacité immédiate et donc gagner en maîtrise. Cohérent toutefois car nous avons enfin l’occasion de tester un service que nous étions nombreux à appeler de nos vœux : alternatif, performant, pensé et développé « bien de chez nous ». Stéphane Distinguin, Président du pôle de compétitivité Cap Digital

    Pourquoi Qwant

    Tout cela représente énormément de travail, des investissements lourds. Pourquoi l’internaute changerait-il ses habitudes quand, finalement, Google répond assez bien à ses besoins ?

    Quand vous allez sur un moteur comme Google, vous êtes fliqué. Le moteur de recherche garde toutes les informations qui vous concernent. C’est un peu pour vous aider avec des réponses personnalisées. C’est beaucoup pour vous proposer des publicités ciblées. Et un peu aussi pour monétiser vos informations personnelles. C’est inquiétant car cela ouvre la porte à des manipulations dans les résultats. Le moteur peut le faire pour favoriser commercialement certains services ; Google a d’ailleurs été poursuivi pour cela par le Communauté européenne. Le moteur pourrait aussi favoriser le soutien ciblé de points de vue politiques, religieux… Et puis la personnalisation peut nous figer dans nos opinions, nos choix, nos communauté, chacun se retrouvant alors enfermé dans sa propre « bulle informationnelle ».

    Depuis ses débuts, Qwant n’a jamais dévié d’un principe fondateur : ne garder aucune information sur l’internaute. C’est dans l’ADN de l’entreprise. Et c’est déjà une bonne raison pour changer de moteur de recherche.

    Qwant est plus réservé sur une autre valeur éthique : la transparence. Nous avons posé la question à Eric Léandri, un spécialiste de sécurité et de moteurs de recherche, CTO de Qwant : pourquoi ne pas rendre public l’algorithme de classement ? Eric nous a répondu : « le cœur de notre classement, l’algorithme « Iceberg », est déjà public. Tout ne l’est pas pour rendre plus difficiles les tentatives de manipulation de notre classement. » Bon, c’est aussi l’« excuse » utilisée par Google. Mais Qwant ne manipule pas le classement de ses résultats et cela est vérifiable « de l’extérieur ». De plus, Eric ajoute que leur équipe travaille sur des techniques (basées sur la blockchain) pour solidifier suffisamment la technique de classement, pouvoir la rendre public et la distribuer.

    Les moteurs de recherche ont pris une importance considérable dans nos vies. C’est à travers eux que la plupart du temps nous nous informons. C’est par leur entremise que nous réalisons une part de plus toujours plus conséquente de nos achats. Quand l’un d’entre eux, par exemple Google, capture la quasi-totalité de ce marché en Europe et accumule des volumes d’information considérables sur les internautes, il est des raisons de s’inquiéter de risques de réduction de nos libertés et de possibles distorsions de l’économie. C’est pour cela que certains acteurs, comme le Conseil national du numérique dans un rapport de 2014, prônent la neutralité de telles plateformes. Chacun comprend d’autant mieux ce qui pousse des acteurs européens, Etats comme entreprises, à soutenir Qwant dans son développement.

    Tout cela a de quoi susciter l’enthousiasme, mais point de salut pour Qwant sans source de revenus suffisante… et en même temps compatible avec ses engagements. Quel modèle économique peut résoudre l’équation ? L’affiliation simple. Les internautes trouvent un classement neutre des réponses, la société tire ses revenus de liens sponsorisés, en toute transparence. Ces annonces sont séparées du reste des réponses et ne concernent que le shopping (30% des requêtes en moyenne).

    A une époque pas si lointaine, c’est le modèle qui suffisait à faire la richesse de Google, comme nous l’explique Eric Léandri : « c’est le vieux truc, le business model du Google du début des années 2000, celui qui marchait bien. » Et puis Google peu à peu s’est transformé, en construisant un univers particulier, une alternative privée au web public. La firme de Mountain View n’est pas la seule à vouloir « privatiser » le web. Si nous insistons ici surtout sur cette société, c’est que nous parlons moteur de recherche. Pour les réseaux sociaux, nous parlerions de Facebook, pour les applications mobiles d’Apple, pour l’hôtellerie de TripAdvisor…

    Il est vraiment rafraîchissant de voir un moteur de recherche alternatif décoller en Europe. Non seulement il est mauvais de dépendre d’un seul acteur en situation de monopole, mais en plus Google est financé par la publicité ciblée et il piste donc tous ses utilisateurs, contrairement à Qwant. Je souhaite donc à Qwant un immense succès ! Tristan Nitot, fondateur de l’association Mozilla Europe, désormais chez Cozy

    Vous pouvez le faire !

    Des intérêts commerciaux tout à fait compréhensibles poussent les grandes entreprises du  web à se construire des domaines particuliers, à y capturer les internautes. L’intérêt collectif est de promouvoir un web universel et libre. Pour ce faire, les Etats disposent de lois et des règlements, mais qui sont lents à adopter et complexes à mettre en oeuvre. L’internaute est le client et le client est roi. Non ? Les grandes entreprises aussi puissantes qu’elles puissent nous paraître dépendent de nous. Nous disposons, chacun d’entre nous, d’une arme simple et efficace : « notre bon vouloir ». Alors arrêtons de nous lamenter sur les menaces sur nos vies privées que présenterait tel ou tel service ! Arrêtons d’attendre que quelqu’un résolve les problèmes à notre place ! Choisissons !

    Vous pouvez aller, dès aujourd’hui, sur votre navigateur préféré et choisir Qwant.com comme moteur de recherche par défaut ! (Faites-vous aider s’il le faut.) Qwant vous ouvrira les portes du web. Qwant ne vous fliquera pas. Qwant est européen et paie ses impôts en Europe.

    Nous l’avons déjà fait. A vous !

    Serge Abiteboul, Inria et ENS Paris, Tom Morisse, FABERNOVEL

    PS : précisons pour prévenir des remarques de certains lecteurs que :

    • nous n’avons aucun intérêt quelconque dans Qwant, et
    • nous sommes conscients que ce ne sera pas facile pour Qwant.

    Mais nous vous proposons de croire, avec nous, que c’est possible.

  • 50e anniversaire du Plan Calcul

    Pour les passionnés d’histoire, le CNAM organise un Séminaire d’Histoire de l’informatiqueLe prochain séminaire traite du Plan Calcul. Ça se passe le  jeudi 13 avril 2017 de 14h30 à 17h00, dans l’amphi C « Abbé Grégoire » du CNAM, 292 rue Saint-Martin, 75003 Paris. Inscription obligatoire auprès de : isabelle.astic(@)cnam.fr. Un ami de binaire, Pierre Mounier-Kuhn, nous parle du Plan Calcul. Serge Abiteboul, Pierre Paradinas

    Vidéos du séminaire (onglet séminaire)

    Un demi-siècle de politique française en informatique

    Au début des années 1960, l’industrie électronique française affrontait une concurrence états-unienne de plus en plus redoutable dans les composants semi-conducteurs et les ordinateurs. Les multinationales comme IBM ou Texas Instruments, profitant du traité de Rome et d’accords commerciaux transatlantiques, multipliaient les investissements directs en Europe et y vendaient leurs produits déjà bien amortis sur le marché nord-américain. Ce « défi américain » allait bientôt inspirer aux experts et aux gouvernements européens des réflexions alarmistes sur le « fossé technologique » qui se creusait entre les deux rives de l’Atlantique.

    De l’affaire Bull au Plan Calcul

    Au printemps 1964 éclate l’affaire Bull : le principal constructeur européen de systèmes informatiques subit une crise, l’une des plus graves de l’histoire industrielle française. Plusieurs montages échafaudés sous l’égide gouvernementale avec des banques et des firmes d’électronique achoppent, et Bull préfère passer sous le contrôle de General Electric. C’est vécu comme une défaite économique par le gouvernement gaulliste, au moment où l’on commence à percevoir l’informatique et les télécommunications comme des secteurs stratégiques, « le système nerveux » des nations modernes.

    Les comités d’experts qui cherchaient une solution aux problèmes de Bull, et qui disposent de crédits de R&D, bâtissent un montage de rechange en s’efforçant de rapprocher les petites entreprises françaises constituées depuis une décennie pour produire des ordinateurs. Leur mission est presque impossible : il s’agit de combiner la politique d’indépendance gaulliste, les intérêts des industriels concurrents abonnés aux subventions et les desiderata des grands clients du secteur public. Leur activisme en faveur d’une politique de l’informatique reçoit une justification supplémentaire lorsque Washington décrète un embargo sur les supercalculateurs commandés par la division militaire du CEA. Il aboutit, fin 1966-début 1967, au lancement d’un des plus grands projets de la Ve République, officialisé par une convention Plan Calcul le 13 avril 1967.

    Une Délégation à l’informatique est créée au niveau gouvernemental comme maître d’œuvre du Plan. Une Compagnie internationale pour l’informatique (CII), filiale des groupes privés CGE, Thomson et CSF, fusionne deux petits constructeurs de calculateurs scientifiques avec pour mission essentielle de développer une « gamme moyenne de gestion » et de participer à terme à la constitution d’une informatique européenne. Le dispositif est complété l’année suivante par la création d’une société pour les périphériques, d’une autre pour les composants  résultant de la fusion des filiales spécialisées de Thomson et de CSF. Et d’un Institut de recherches en informatique et automatique (IRIA, devenu depuis Inria), seul survivant aujourd’hui de cet ambitieux programme.

    Signature de la convention Plan Calcul le 13 avril 1967 par Michel Debré, Ministre de l’Économie et des Finances, avec les patrons de l’industrie électronique française et des start-ups d’informatique. Photo : Archives Bull.

    De la CII à Unidata

    La CII démarre difficilement, soutenue à bout de bras par les subventions et les achats préférentiels des administrations, mais déchirée par des conflits internes résultant d’une fusion forcée. Elle vend d’abord surtout des machines développées en Californie par son partenaire Scientific Data Systems (SDS). Puis cette firme d’ingénieurs réalise des systèmes techniquement avancés (séries Iris, Mitra et Unidata), les premiers ordinateurs commerciaux en circuits intégrés d’Europe. Les axes de développement visent les ordinateurs temps réel, les systèmes en réseaux, les périphériques magnétiques. La CII tentera même d’assembler un gros quadri-processeur, atteignant les limites de la technologie de l’époque.

    Iris 50 présenté au salon de l’informatique Sicob (septembre 1968). Les anciens de la CII associent leurs souvenirs du Sicob 1968 avec celui de « l’Iris 50 en bois », maquette d’exposition dont les seuls éléments en état de marche étaient les périphériques d’origine américaine. Les concurrents ont pu ironiser : « au moins sur cette machine, les problèmes de parasites pourront être traités au Xylophène ». Une fois mis au point, cet ordinateur moyen sera vendu à plusieurs centaines d’exemplaires, production honorable à l’époque. Photo : Archives historiques Bull.

    Après une reprise en mains managériale en 1970, le champion national semble avoir son avenir assuré. Cherchant à devenir un constructeur normal sur le marché, la CII remporte des succès commerciaux hors du secteur public et à l’export, et négocie des accords avec d’autres constructeurs européens. De son côté l’IRIA, s’il a connu lui aussi un démarrage cahoteux, abrite notamment l’équipe qui développera le réseau Cyclades, l’un des prédécesseurs d’Internet. Quant à la Délégation à l’informatique, elle soutient les premières grandes SSII françaises en veillant à ce qu’elles ne passent pas sous contrôle américain, et initie les premières expériences de la programmation au lycée. L’ambiance générale du Plan Calcul favorise aussi l’extension de l’enseignement de l’informatique dans toutes les universités et écoles d’ingénieurs, avec la création de nouveaux diplômes (maîtrises, doctorats, MIAGE, etc.) pour répondre à la demande massive d’informaticiens.

    En 1973 la CII s’associe avec Siemens et Philips dans Unidata, constructeur européen d’ordinateurs, qui produit rapidement une nouvelle gamme compatible IBM. Toutefois ce nouveau meccano industriel pose autant de problèmes qu’il en résout – les demandes de subventions continuent pour financer la croissance de la firme. Le Plan Calcul dépendait du volontarisme des gouvernements gaulliens et de la prospérité économique française. Or l’élection de Valéry Giscard d’Estaing coïncide avec le premier choc pétrolier, tandis qu’une coalition d’industriels français se ligue contre la CII et Unidata. Une série de décisions gouvernementales conduit à tuer la configuration européenne et à la remplacer par une configuration franco-américaine : la CII est absorbée en 1976 par Bull (entre temps revendue par GE à Honeywell). Deux ans plus tard, Cyclades, réseau d’informaticiens, est mis en extinction pour faire place au réseau conçu par le corps des Télécommunications : Transpac, dont le terminal le plus connu sera le Minitel.

    Nœud de réseau Cyclades-Cigale à l’université de Grenoble, au centre CII-IMAG (1974). Cette photo associe deux réussites incontestables du Plan Calcul : le réseau Cyclades, réalisé à l’IRIA par l’équipe de Louis Pouzin, et le mini-ordinateur CII Mitra 15, conçu sous la direction d’Alice Recoque. Photo : Archives Bull

    La fin du Plan Calcul ne sonne pas pour autant le glas des politiques technologiques ou industrielles dans le numérique. D’une part celles-ci se déploient avec succès dans les télécommunications. D’autre part les socialistes, arrivés au pouvoir en 1981, lancent une « filière électronique » et une nouvelle vague de restructurations assorties de nationalisations. Ces ambitions se heurteront vite aux réalités et à la concurrence irrésistible des « petits dragons » asiatiques. Les préoccupations qui motivèrent le Plan Calcul, il y a cinquante ans, inspirent toujours au XXIe siècle des projets, généralement à l’échelle européenne, de maîtrise du Big Data et de l’internet, de « systèmes d’exploitation souverains », de soutien à l’éducation comme aux entreprises du numérique.

    Pierre Mounier-Kuhn, CNRS & Université Paris-Sorbonne

    Bibliographie

    • Pierre Bellanger, La Souveraineté numérique, Éditions Stock, 2014.
    • Laurent Bloch, Révolution cyberindustrielle en France, Economica, coll. Cyberstratégie, 2015.
    • Jean-Pierre Brulé, L’Informatique malade de l’État, Les Belles-Lettres, 1993.
    • Emmanuel Lazard et Pierre Mounier-Kuhn, Histoire illustrée de l’informatique,  (préface de Gérard Berry, professeur au Collège de France), EDP Sciences, 2016.
    • Pierre Mounier-Kuhn,  L’Informatique en France de la seconde guerre mondiale au Plan Calcul. L’Émergence d’une science, préface de Jean-Jacques Duby, Presses de l’Université Paris-Sorbonne, 2010.
    • Jean-Michel Quatrepoint et Jacques Jublin, French ordinateurs. De l’affaire Bull à l’assassinat du Plan Calcul, Alain Moreau, 1976.
  • Les algos : ni loyaux, ni éthiques !

    Nous prenons de plus en plus conscience de l’importance que les algorithmes ont pris dans nos vies, et du fait qu’il ne faut pas accepter qu’ils soient utilisés pour faire n’importe quoi. Nous entendons de plus en plus parler de régulation, de responsabilité, d’éthique des algorithmes. François Pellegrini, professeur au LaBRI à Bordeaux, nous a fait part de critique d’éléments de langage,  de son point de vue. Nous avons pensé que cela devrait intéresser nos lecteurs. Serge Abiteboul, Pierre Paradinas.

    Crédit : Marion Bachelet – Inria

    De plus en plus, dans le débat public, apparaissent les termes de « loyauté des algorithmes » ou d’« éthique des algorithmes ». Ces éléments de langage sont à la fois faux et dangereux.

    Ils sont faux parce que les algorithmes n’ont ni éthique ni loyauté : ce sont des constructions mathématiques purement abstraites, conçues pour répondre à un problème scientifique ou technique. Ils appartiennent au fonds commun des idées, et sont de libre parcours une fois divulgués.

    Ils sont dangereux, parce qu’ils amènent à confondre les notions d’algorithme (l’abstrait), de programme (ce que l’on veut faire faire à un ordinateur) et de traitement (ce qui s’exécute effectivement et peut être soumis à des aléas et erreurs transitoires issues de l’environnement).

    Toute activité de recherche s’inscrivant dans un contexte socio-culturel, les questions éthiques ne sont bien évidemment pas absentes des étapes de conception. Les scientifiques qui, en 1942, travaillaient à l’optimisation de la fission nucléaire incontrôlée, savaient bien qu’ils participaient à la création d’une arme. Pour autant, si la décision de participer à un projet scientifique relève de choix moraux individuels, la question de l’usage effectif des technologies doit être traitée au niveau collectif, à la suite d’un débat public, par la mise en place de législations adaptées.

    Ces éléments de langage focalisent donc improprement le débat sur la phase de conception algorithmique, alors que l’enjeu principal concerne les conditions de mise en œuvre effective des traitements de données, majoritairement de données personnelles. Ce sont les responsables de ces traitements qui, en fonction de leur mise en œuvre logicielle et de leurs relations économiques avec des tiers, choisissent de rendre un service déloyal ou inéquitable à leurs usagers (comme par exemple de calculer un itinéraire passant devant le plus de panneaux publicitaires possible).

    Cela est encore plus évident dans le cas des algorithmes auto-apprenants. La connaissance de l’algorithme importe moins que la nature du jeu de données qui a servi à l’entraîner dans le contexte d’un traitement spécifique. C’est du choix de ce jeu de données que découlera l’existence potentielle de biais qui, en pénalisant silencieusement certaines catégories de personnes, détruiront l’équité supposée du traitement.

    L’enjeu réel de ces débats est donc la régulation des rapports entre les usagers et les responsables de traitements. Un traitement ne peut être loyal que si son responsable informe explicitement les usagers, dans les Conditions générales d’utilisation de ses services, de la finalité du traitement, de sa nature et des tiers concernés par les données collectées et/ou injectées. Cette « transparence des traitements » (et non « des algorithmes ») a déjà été instaurée par la loi « République numérique » pour les traitements mis en œuvre par la puissance publique ; il est naturel qu’elle soit étendue au secteur privé. La description fonctionnelle abstraite des traitements n’est pas de nature à porter atteinte au secret industriel et rassurera les usagers sur la loyauté des traitements et l’éthique de leurs responsables.

    « Mal nommer les choses, c’est ajouter au malheur de ce monde », disait Camus. N’y participons pas. Laissons les algorithmes à leur univers abstrait, et attachons-nous plutôt aux humains et à leurs passions.

    François Pellegrini

    Pour aller plus loin, la Société informatique de France et la CERNA organisent le 19 juin 2017 une journée commune intitulée « Une éthique des algorithmes : une exigence morale et un avantage concurrentiel ».  Cette journée entre dans le cadre de la consultation nationale coordonnée par la CNIL Ethique et numérique : les algorithmes en débat.

  • BBC micro:bit – Quand la télé britannique promeut la créativité informatique

    SONY DSC

    On retrouve une nouvelle fois Alan Mc Cullagh notre ami irlandais du Vaucluse (Orange) qui nous avait conté l’histoire de la carte RaspberryPi. Cette fois, il nous parle d’un projet de la  « BeeB » qui a marqué des générations, propulsant à nouveau de petits matériels simples et pas chers pour accéder aux joies de la programmation et du faire soit même (« DiY »). Et chers/chères lecteurs/lectrice : vous y apprendrez aussi d’où vient le processeur de votre smartphone… Pierre Paradinas.

    Un peu d’histoire

    Au début des années 80, le groupe de chaînes publiques au Royaume-Uni, la « British Broadcasting Corporation », dite BBC, lança un appel à projet pour créer un ordinateur éducatif à destination des écoliers et des écoles. Une jeune entreprise de Cambridge « Acorn » (« gland » en anglais) fut retenue pour créer cette plateforme. Le « BBC Micro » était né. Beaucoup de personnes qui ont grandi à cette époque dans les « îles britanniques » (y compris moi-même en Irlande) peuvent remercier ces pionniers d’avoir favorisé nos premiers pas dans l’informatique au sein des établissements de l’enseignement publique. On peut lire l’engouement que j’avais déjà à l’âge de 5 ans dans mon bulletin scolaire ! Dans la même période, ici en France, nous avons connu une initiative comparable avec le Plan Informatique pour Tous basé sur des micro-ordinateurs Thomson MO5 (et TO7/70).

    Photo @tyrower. Le BBC micro:bit

    Plus récemment, quand les membres fondateurs du Raspberry Pi commencèrent à concrétiser leurs rêves d’un nano-ordinateur éducatif, ils voulurent y inscrire en guise de clin d’œil le label « BBC ». Ce droit ne leur fut pas octroyé ; néanmoins un journaliste high-tech de la célèbre « Corporation » sur son blog et sur la chaîne YouTube leur donna un coup de projecteur qui lancera le mouvement autour du Raspberry Pi.

    L’histoire se répète

    En 2012, trente ans plus tard, la BBC s’est « remis dans le bain » en lançant un objectif très ambitieux : envisager un « ordinateur de poche programmable permettant aux enfants d’explorer la créativité technologique ». Elle voulait formuler une réponse à la fracture numérique et aux lacunes perçues des compétences informatiques des citoyens. Dans l’environnement fertile des startups technologiques du Royaume Uni et inspiré par l’énergie des « makers » et « programmeurs » autour des cartes « hackables » comme l’Arduino, le Raspberry Pi, Beaglebone et bien d’autres, la BBC a de nouveau monté une initiative d’éducation numérique dans la continuité du projet « Make It Digital » (créer le numérique). Ils ont su rapidement rassembler une trentaine de partenaires et des industriels. Aujourd’hui, ces partenaires sont réunis dans la Fondation Micro:bit.

    bbcmicrobit-2
    Photo @tyrower.

    Un million de cartes micro:bit ont déjà été fabriquées  pour équiper gratuitement les élèves de « Year 7 » (âgé de 11-12 ans – équivalent de la 6e en France) au Royaume Uni (ainsi que leur enseignants). La plateforme est désormais disponible  en ligne et de nombreux fournisseurs britanniques la distribuent depuis l’été 2016. La distribution en France devrait s’officialiser normalement courant 2017 (gardons un œil sur kubii.fr). Le prix de vente de la carte seule est actuellement de £13 (ce qui revient à un peu moins de 16€). Il existe aussi différents kits comme l’ensemble pour « invention électronique » à £37,50 (≈45€).

    bbcmicrobit-3
    Photo @tyrower. La carte ne pèse que 8g et contient : un processeur : CPU 32-bit ARM® Cortex™ Mo; avec la connectivité Bluetooth (BLE) ou Filaire (USB) ; un accéléromètre et une boussole ; un afficheur et des Led …

    La prise en main

    Pour l’utiliser, on peut créer son script via plusieurs interfaces de programmation. Une fois compilé et le « code machine » généré en format «*.hex » (du binaire compréhensible par la machine), il suffit de « glisser-déposer » depuis un ordinateur vers le  micro:bit connectée (ce dernier est reconnu comme un « disque externe ») ou de transférer par Bluetooth à partir d’un smartphone ou d’une tablette. Après un redémarrage du micro:bit, le script est lancé et le code s’exécute!

    bbcmicrobit-4
    Photo @tyrower. Et pour programmer, on peut utiliser : MicroPython (Python) ; Code Kingdoms (JavaScript) ; Block Editor Microsoft (logique similaire à Scratch/Snap/Blockly) ; Touch Develop (interface pour écran tactile) ; PXT Microsoft (blocks/JavaScript) Yotta (C/C++) ; … et connecter un mobile : Android (micro:bit Samsung app, micro:bit Blue app) ou iOS.

    A travers le site officiel, des tutoriels en ligne, des présentations YouTube et d’autres ressources, les jeunes peuvent facilement trouver de quoi s’inspirer pour apprendre à exploiter toutes les fonctionnalités du micro:bit. La réussite de cette action dépendra de l’engagement non seulement des jeunes mais surtout de l’énergie et de la passion du corps enseignant. Heureusement, avec la mise à disposition de ressources pédagogiques adaptées qui facilitent la prise en main ce type de réalisation est accessible à un grand nombre de personnes. La force de ce projet est qu’avec une trentaine de partenaires engagés et compétents dans divers secteurs un très grand nombre de supports, guides, projets, idées et ressources sont d’ores et déjà à disposition gratuitement et librement à tous. Evidemment, il va falloir plusieurs années pour voir si les objectifs ont été vraiment atteints mais les retours des premiers trimestres sont positifs.

    “From little acorns great oaks grow” (de petits glands de grands chênes poussent)

    Pour boucler la boucle, j’aimerais revenir sur les racines des projets éducatifs informatiques de la BBC et leurs premiers partenaires. La petite entreprise « Acorn », dont on a fait référence tout au début de cet article, a aujourd’hui grandi pour devenir un grand « chêne » ! Elle s’est transformée et est devenue un des acteurs les plus importants dans le monde des smartphones et des objets connectés/embarqués (« embedded ») qui nous entourent. La technologie Acorn est devenue Acorn/Advanced Risc Machines, mieux connue sous le trigramme « ARM ». La vente de puces et de processeurs basés sur leurs architectures de silicium ne cesse pas de croître ; atteignant 15 milliards d’unités rien qu’en 2015 ! Le processeur au cœur du micro:bit est de la même famille, il s’agit d’un 32-bit ARM® Cortex™ M0 qui intègre les fonctionnalités dernier cri de connectivité Bluetooth Low Energy. ARM est présent en France, surtout à Sophia Antipolis en région PACA, où une douzaine de salariés sont actifs dans le Code Club France afin d’animer des activités d’initiation à la programmation via Scratch dans le périscolaire. Code Club est également un partenaire du micro:bit.

    bbcmicrobit-5
    Photo @tyrower. Des salariés volontaires d’ARM à Sophia Antipolis aident dans l’animation de Code Club en France – activités péri- et parascolaire d’initiation à la programmation.

    Peut-être qu’un ordinateur éducatif développé par France Télévisions n’est pas pour demain, mais on peut rêver qu’un jour le grand public, à commencer par les plus jeunes, s’intéressera aux enjeux de l’informatique et des technologies du numérique grâce à un projet dans l’esprit du micro:bit.

    Éducation Informatique et Matériel
    À la rentrée 2014, le ministère de l’éducation en Grande-Bretagne (« Department of Education ») a mis à jour les programmes scolaires anglais pour y inclure formellement l’informatique (« Computer Science / Coding ») en tant que matière. Ce changement se faisait en réponse aux débats et rapports tels que celui de la « Royal Society » (2012). En France, nous connaissons des appels similaires comme celui de l’Académie des Sciences (2013). Aujourd’hui, nous continuons à chercher les réponses de demain. Avec l’introduction du code à l’école chez nous depuis la rentrée 2016 et grâce à des initiatives comme « Class’Code » et « 1, 2, 3… Codez ! », nous allons dans la bonne direction. En Angleterre, l’accent a été mis plus sur la formation et la pédagogie que sur des achats massifs. Si les constats au bout de 2 ans  sont parfois mitigés chez nos voisins, ces changements commencent à néanmoins porter ses fruits. Les anciens cours « ICT » de dactylographie et d’utilisation de suites bureautiques ont en général évolué vers des choses plus fondamentales, pour donner une compréhension profonde de l’objet informatique et numérique. Outre-manche, s’il a bien eu des investissements récents dans l’infrastructure et le matériel pour l’éducation numérique dans les établissements britanniques, la priorité a été clairement mise ailleurs que sur le « hardware ». Dans cet esprit, le plus grand avantage du projet Micro:bit est que le support peut être facilement interfacé avec les équipements existants. Il n’y a pas besoin d’acheter de « systèmes compatibles » ou de logiciels propriétaires car la plupart des plateformes, même vétustes, peuvent servir d’office dans l’apprentissage, voire dans l’innovation et la création avec la carte. On peut même voir là-dedans un petit geste pour la planète – un peu de retro-compatibilité et de minimalisme dans notre monde d’obsolescence programmée et de la Loi de Moore. Le Micro:bit est 18 fois plus rapide que le BBC Micro des années 80, 617 fois plus léger, 440 fois plus petit et consomme 1000 fois moins (environ 30mW même avec les DELs allumées).

    Alan McCullagh (Code Club France)

     

  • Les algorithmes de recommandation

    Nous vous invitons à découvrir  le principe de fonctionnement des algorithmes de recommandation, ceux utilisés pas les grandes plateformes de vente du Web qui vous disent ce qu’ont acheté les autres acteurs ou qui vous enferment dans une bulle informationnelle. Nous nous concentrons ici sur les aspects techniques et auront sans doute d’autres occasions de considérer des aspects sociétaux, comme l’importance de la recommandation sur les résultats d’élections. Nous avons demandé  à Raphaël Fournier-S’niehotta, spécialiste de ces algorithmes, de nous en dire plus. Pierre Paradinas

    Dans les jours qui ont suivi l’annonce des résultats de l’élection présidentielle, le 8 novembre dernier, la polémique a enflé : comment  la plupart des sondeurs et des journalistes avaient-ils pu autant sous-estimer le nombre d’électeurs de Donald Trump ? Ceux-ci représentent au final quasiment la même proportion d’Américains que ceux d’Hillary Clinton. Les réseaux sociaux, Facebook en tête, ont été pointés du doigt, accusés d’avoir enfermé de nombreux utilisateurs dans une « bulle personnelle d’information ». Chacun d’entre eux ne verrait avant tout que des contenus proches de ses idées, le conduisant à ignorer l’existence d’autres personnes aux avis opposés. Ces ”bulles” sont créées par les algorithmes de filtrage et de recommandation mis en place pour sélectionner les contenus affichés sur le réseau social.

    clintonfb
    Figure 1 – REUTERS/Mike Segar

    Un peu d’histoire

    L’apparition des ordinateurs, à la moitié du XXe siècle, a permis de numériser l’information, en commençant par les ouvrages stockés dans les bibliothèques. Une suite naturelle a consisté à développer les moyens d’automatiser la recherche dans ces ouvrages : c’est ainsi que sont nés les premiers moteurs de recherche. Avec la création du Web en 1989, la taille des collections documentaires est progressivement devenue colossale. À tel point que les requêtes effectuées renvoyaient trop de résultats, et les utilisateurs ne pouvaient envisager de les consulter tous. Plutôt que de s’en remettre exclusivement au seul classement effectué par les machines, l’idée est venue de réintégrer des humains dans le processus, par l’intermédiaire de leurs avis.

    En 1992, Paul Resnick et John Riedl, deux chercheurs en informatique, ont proposé le premier système de recommandation, pour les articles d’Usenet*. Ce système collecte des notes données par les utilisateurs lorsqu’ils lisent des articles. Ces notes sont ensuite utilisées pour prédire à quel point les personnes n’ayant pas lu un article sont susceptibles de l’apprécier. Cette recommandation automatisée repose, comme hors ligne, sur l’évaluation par les pairs : si les amis d’Alice lui suggèrent de lire un livre qu’ils ont aimé, il est probable qu’elle le lise et l’apprécie aussi, davantage qu’un livre que ses proches n’auraient pas lu ou pas aimé.

    Un peu de technique

    Ce principe, à l’origine des premiers systèmes de recommandation, s’appelle le ”filtrage collaboratif”. L’idée qui sous-tend cet algorithme est la suivante : si Alice a des idées similaires à Bob sur un sujet, alors il y a des chances qu’Alice partage son avis sur un autre sujet, plutôt que celui de quelqu’un pris au hasard.

    Lorsqu’un système veut proposer des objets intéressants à Alice, il doit tâcher de prédire ses opinions sur ces objets. Il collecte les avis des utilisateurs sur les objets qui constituent sa collection. Les ”objets” sur Facebook, ce sont les statuts et articles partagés ; sur Amazon, ce sont les produits ; ce sont des morceaux de musique ou des films sur Spotify ou Netflix. Les avis collectés peuvent être explicitement donnés par les utilisateurs du système, comme le sont les ”likes” Facebook, les notes sur Netflix, les favoris sur Twitter, etc. Ils peuvent aussi être extrapolés à partir de l’observation du comportement de l’utilisateur : temps passé sur une page, achat d’un livre, visionnage d’un film. Cet ensemble de ”notes” constituent une représentation (plus ou moins fidèle) des centres d’intérêts de l’utilisateur. Elle permet d’enrichir le profil (déjà constitué des noms, professions, âge, genre, etc.).

    L’étape suivante consiste à rechercher les utilisateurs qui ont les avis les plus similaires à ceux d’Alice, en se servant des notes de chacun. Le système détermine ensuite facilement les objets que ces utilisateurs ont vus mais qu’Alice n’a pas encore consultés. Avec leurs avis, il est ensuite possible d’estimer la note qu’elle pourrait donner à chacun de ces objets. L’algorithme n’a alors plus qu’à rassembler ces notes, les trier de la meilleure à la moins bonne, et afficher les 5 ou 10 objets les mieux classés.

    Mathématiquement, il existe de nombreuses variations sur la façon d’effectuer la détermination des utilisateurs les plus proches (combien en retient-on, comment estime-t-on la proximité d’opinions, etc.) ainsi que la prédiction des notes (moyenne simple, moyenne pondérée, etc.). La représentation commune repose sur une matrice, dont chaque ligne correspond à un utilisateur, et chaque colonne correspond à un produit. Chaque case de la matrice de coordonnées (i,j) contient la note que l’utilisateur i a attribué à l’objet j.

    matrice
    Figure 2 – L’utilisateur u1 a donné la note de 5 à l’objet i3, la note de 2 à l’objet i4. Le système de recommandation doit tenter de prédire les notes là où les cases sont vides.

    Une manière de prédire la note d’un utilisateur i pour un objet j est d’agréger les notes de tous les autres utilisateurs sous la forme d’une moyenne, celle-ci étant pondérée par un score de similarité. Ainsi, plus les avis passés sont similaires, plus l’avis de cette personne compte dans le calcul, et inversement. Pour vous impressionner, voici une formule qui peut être utilisée pour estimer la  note :

    equation

    (où dans la formule, r^ij  désigne la note de l’utilisateur i sur l’objet j que l’on cherche à estimer, r ̄i  est la moyenne des notes de l’utilisateur i, U est l’ensemble des utilisateurs, les ωu′,i sont les scores de similarité entre les utilisateurs.) Même si vous ne comprenez pas, reconnaissez-lui une certaine esthétique !

     

    Bien entendu, ces techniques ont été raffinées et améliorées durant les vingt dernières années. Il s’avère en pratique que calculer des similarités entre utilisateurs est souvent très complexe. Il est plus efficace de renverser le problème en cherchant d’abord des similarités entre produits. C’est ce que fait Amazon en indiquant les articles que ”les clients ayant achetés cet article ont aussi acheté”. L’expérience prouve que les résultats sont beaucoup moins probants.

    amazon
    Figure 4 – Des recommandations de produits sur Amazon.

    Quelques difficultés à surmonter

    Les systèmes de recommandation automatisés posent divers problèmes techniques à leurs concepteurs. Il est en effet régulièrement nécessaire d’évaluer les opinions de millions d’utilisateurs sur des dizaines de milliers de produits. Effectuer les comparaisons de chaque ligne de la matrice avec toutes les autres nécessite beaucoup d’opérations, coûteuses en terme de performance. Si certains éléments du calcul peuvent être conservés et réutilisés, d’autres doivent tenir compte des mises à jour de la matrice (quand les utilisateurs notent un objet, par exemple). La taille des systèmes a aussi un autre effet qui diminue la possibilité de proposer des recommandations pertinentes : chaque objet n’a généralement été noté que par un ensemble très réduit de personnes, rendant délicate la recherche d’utilisateurs similaires. (En d’autres termes, la matrice est pleine de zéros ; on parle de matrice très « creuse »).

    Outre ces problèmes de dimension, pour lesquelles diverses techniques ont été développées, les systèmes de recommandation doivent confronter d’autres difficultés. comme, par exemple, le ”démarrage à froid ». C’est ce qui désigne le problème particulier que posent les nouveaux utilisateurs du système. Comme on ne sait rien d’eux, comment leur faire des recommandations pertinentes ? Il faut se limiter à leur recommander des objets populaires (les meilleures ventes, par exemple) au risque de leur recommander des produits qu’ils ont déjà ou qui ne les intéressent en rien.

    Nous mentionnerons un dernier problème majeur, la diversité, ou plutôt l’absence de diversité. Cela se manifeste à deux niveaux, global (pour tout le système) et local (pour chaque utilisateur).

    L’absence de diversité globale consiste à ne recommander  aux utilisateurs que les objets populaires. Un objet très peu vu ne reçoit que peu de notes et ne se retrouve quasiment jamais recommandé. Inversement, recommander systématiquement des objets populaires conduit à accroitre encore leur popularité.

    L’absence de diversité locale consiste à ne recommander à un utilisateur que des objets en rapport avec les centres d’intérêts que le système lui connaît. Cet effet se renforce de lui-même avec le temps. Ainsi, un amateur de films d’horreur aura peu de chances de se voir proposer des comédies romantiques ou, dans un autre contexte, un partisan d’Hillary Clinton à se voir exposé à des articles en faveur de Donald Trump.

    Pour compenser l’absence de diversité, il est bien entendu possible de modifier l’algorithme au cœur du système, par exemple, pour introduire plus de sérendipité pour l’utilisateur ou pour mieux équilibrer les profits commerciaux entre tous les vendeurs qui proposent des produits.

    Les algorithmes ne sont que des transpositions informatiques de règles adoptées par des humains. Lorsque celles-ci ne nous satisfont pas, nous pouvons les faire évoluer…  et du coup transformer les algorithmes qui leurs sont associés.

    Raphaël Fournier-S’niehotta, maître de conférences en informatique au Conservatoire national des Arts et Métiers.

    (*) Usenet est un système de discussion en ligne, que l’on peut voir comme l’ancêtre des forums actuels (voire de la fonctionnalité ”Groupes” sur Facebook)

    À propos de l’analyse du rôle de Facebook dans l’élection américaine:

    Pour aller plus loin:

    • L’auteur de ces lignes est membre du projet ANR Algodiv, qui étudie la diversité au sein des algorithmes de recommandation ;
    • Un atelier interdisciplinaire sur les systèmes de recommandation aura lieu les 22 et 23 mai prochains à Paris ;
    • Sur l’impact social et politique des algorithmes de filtrage, outre les travaux de Dominique Cardon (Science-Po/Medialab), également membre d’Algodiv, les lecteurs intéressés pourront lire le blog du chercheur Olivier Ertzscheid ;
    • Pour approfondir les connaissances sur les divers algorithmes mis en œuvre, les annales de la conférence ACM RecSys constituent une référence.
  • La SIF à bloc !

    Le 15 novembre 2016, la SIF (Société Informatique de France) a organisé une deuxième journée sur la Blockchain : émergence d’une nouvelle forme de confiance numérique. Récit et séance de rattrapage pour ceux qui n’ont pas eu la chance d’y être.

    La journée comme si vous y étiez.

    Les vidéos complètes des orateurs.

    Cette journée s’est déroulée dans les locaux de Telecom Paris Tech à Paris. Elle a réuni 150 personnes et plusieurs n’ont pu s’inscrire faute de place.

    Crédit photo : @PierreMetivier
    Crédit photo : @PierreMetivier

    Réunissant plusieurs scientifiques et des start up travaillant dans ce domaine, la journée a commencé par une introduction de la technologie de la Blockchain. Il est bon parfois de revenir sur les fondements de ces technologies et de comprendre comment elles fonctionnent. L’autre grande question qui se pose avec ces systèmes, est de savoir s’ils sont sûrs. Si j’ai des bitcoins ou si je mets un contrat dans une Blockchain, le premier pirate venu va-t-il me les prendre ? De même quand un commerçant accepte un bitcoin ce dernier ne va-t-il pas être dépensé en même temps ailleurs sur la planète au risque qu’un des deux soit invalidé ! L’après midi la start up Ledger expliquera pourquoi  et comment mes bitcoins doivent être protégés et conservés dans mon environnement numérique – et vous, vous laissez votre portefeuille ouvert ?  La généralisation du bitcoin via Ethereum conduit à des « organisations autonomes décentralisées » (DAO) ou encore des «ordinateurs-mondes», ou comment peut-on se passer d’autorité et/ou de service centralisé dont le contrôle est problématique.

    L’après midi fut axé sur les diverses applications de la technologie blockchain. Le premier exposé, présenté par un avocat spécialiste, releva l’absence de régime juridique pour la block Chain. Le droit applicable dépend donc actuellement des cas d’usage et beaucoup de questions juridiques restent en suspens. Le développement de cette technologie ne pourra s’accentuer qu’en définissant un cadre large sécurisant les acteurs. La deuxième présentation, donnée par un spécialiste en finance, a esquissé les multiples applications de cette technologie tel que la traçabilité des processus post-marché, l’inclusion financière des individus sans compte en banque et l’implémentation des minibons. Dans le domaine des assurances, les smart contracts rendus possibles par la blockchain pourraient se substituer aux assureurs actuels tout en apportant une réduction des coûts et un raccourcissement des délais de paiement. Deux start-ups ont ensuite présenté leurs solutions. La première, KeeeX, propose un système permettant de notariser toute donnée en se servant d’une blockchain. L’utilisateur certifie ses données et les conserve ainsi que tous les éléments des dossiers de preuve. Les tiers peuvent ensuite demander des preuves de date et d’existence à cette blockchain. L’une des applications, nommée PhotoProof permet de notariser sur une blockchain des photos prise par son mobile. La deuxième start-up, Ledger, propose une solution matérielle sous forme de carte à puce pour sécuriser les porte-crypto-monnaies des utilisateurs. En effet, les possesseurs de crypto monnaies doivent protéger avec le plus grand soin les clés privées liées à leurs comptes sans quoi ils risquent de perdre leurs avoirs.

    L’après midi s’est terminé par une table ronde où le public a pu interroger les orateurs sur des points laissés en suspens ou litigieux. Il est apparu que le chemin est encore long dans certains domaines pour observer un déploiement massif de cette technologie. La blockchain se révèle toutefois très prometteuse et probablement destinée à devenir ubiquitaire à plus ou moins long terme.

    Crédit photo : @PierreMetivier
    Crédit photo : @PierreMetivier

    Lire, écouter et voir la journée en replay.

    Vous n’y étiez pas ? Voici comment profiter des contenus de la journée.

        • Lire les slides de présentations sur le site de la SIF.
        • Écouter les interviews de présentateurs réalisés en partenariat avec Binaire et le Labo des savoirs qui en ont profité pour réaliser une quatrième émission sur le thème de la Blockchain. Retrouvez l’émission sur ici.
        • Voir  les vidéos des interventions de cette journée réalisées avec un partenariat entre la SIF et le Campus Fonderie de l’Image.

    Sans oublier les articles de Binaire publiés sur le sujet dont vous trouverez la liste ci-dessous

    Retrouver aussi les autres Podcasts Binaire/Labo des savoirs :


    Damien Magoni (Labri) et Pierre Paradinas (CNAM), coordinateurs de ces journées.

    En savoir plus sur le sujet.

    Voici la série d’articles de binaire sur la blockchain :

    Le bitcoin, une monnaie 100 % numérique

     

    Bitcoin : réguler ou laisser faire !

    Des startups Blockchain bien de chez nous…

    Blockchain : pour qui sonne le glas ?

     

     

  • Twinlife : WhatsApp avec l’éthique en plus

    GAFAM ©Puyo
    GAFAM © Laure Cornu

    Pour communiquer au siècle dernier, nous avions le téléphone et la poste. Si on peut encore envoyer une carte postale au parfum délicieusement suranné, les choses ont bien changé avec les textos, les courriels, les appels vidéo comme Skype, les chats comme WhatsApp, etc. C’est devenu difficile d’innover dans le secteur ? C’est ce que nous croyions jusqu’à notre rencontre avec Michel Gien de Twinlife, qui développe l’application Twinme.
    Quel est le problème de tous ces systèmes communicants ? Vos données personnelles sont livrées au tout venant. Si tous ces systèmes ne vont pas jusqu’à lire par dessus votre épaule comme peuvent le faire certains services de courriels, ils s’approprient sans état d’âme vos listes de contacts, vos réseaux sociaux… C’est ce que refuse de faire Twinme.

    L’angle de Twinme : le bête numéro de téléphone. Vous vous inscrivez quelque part, et il faut fournir ce numéro. A tout hasard ? Pas du tout. Votre numéro de téléphone n’est plus à vous. N’importe qui peut vous appeler. Et puis, c’est un excellent identifiant. Quoique vous fassiez, vous êtes maintenant repérés. Ces systèmes se repassent ce numéro, se l’approprient. Ils croisent des données à partir de ce numéro.

    Avec Twinme, oubliez les numéros de téléphones, c’est ringard !  Si vous n’utilisez plus de numéro de téléphone, vous ne serez déjà plus spammé par téléphone. Vous pouvez chater ou passer un appel audio/vidéo sans numéro de téléphone. Vous êtes autant de profils que vous le souhaitez. Vous contrôlez vos chats, vos appels. C’est vous qui créez, et gérez, les connexions que vous voulez avoir avec vos amis, vos fournisseurs, vos contacts. Vous créez un lien comme vous le voulez, vous le supprimez quand vous voulez. Vous contrôlez votre vie numérique.

    Twinme attaque bille en tête les WhatsApp, Skype, Messenger… Cela ne va pas être simple. Surtout que Twinme ne monétisera pas vos données. Il leur faudra trouver autre chose comme de faire payer certains échanges commerciaux. Mais Twinme a un joker : Twinme protège la confidentialité de vos données, protège votre vie privée.

    Et la techno là dedans ? Twinme s’appuie sur du pair-à-pair. Il n’est pas nécessaire de passer par un serveur qui pourrait espionner vos communications. Vous communiquez directement. Le système s’appuie sur la technologie WebRTC, un logiciel libre qui offre une super qualité pour des communications audio et vidéo. La protection des données personnelles ne passe pas forcément par une mauvaise qualité.

    Un premier marché : les pré-ados. Une carte SimData et le contrôle parental et ils apprennent à n’avoir des communications qu’avec des personnes approuvées par les parents, rencontrées d’abord IRL (« in real life »).

    La défense des données personnelles a de nombreuses facettes. La monétisation de ces données est au cœur du business model des poids lourds du net. Chaque jour se dessinent de nouvelles lignes de tension. Cela nous ramène à des sujets que nous avons déjà abordés dans Binaire avec CozyCloud, WeTube, ou les blockchains. S’il n’y a pas de solution miracle, peut-être Twinlife a-t-elle un bout de la solution. Nous verrions bien ces jeunes pousses qui se battent pour la défense de vos données personnelles former une coalition vertueuse. Ensemble, elles apporteraient peut-être une vraie alternative au rouleau compresseur des GAFAM. Nous aimerions y croire…

    Serge Abiteboul, Marie Jung

  • Les données dans les nuages

    ill-cloud1

    Il est intéressant de remarquer que la gestion de données dans un système de gestion de base de données (SGBD) n’a cessé de se compliquer. On pourra suivre cette évolution sur la figure ci-dessus. Considérons par exemple une application Toque qui utilise les données sur des recommandations de restaurants. Au départ, les données (les recommandations) et l’application (le code de Toque) sont sur le même ordinateur (architecture mono-machine). Dans les années 70-80, on est passé à une architecture client-serveur. On a placé le serveur (le SGBD et ses données) sur une machine dédiée, dotée des ressources adaptées, et les clients (les applications qui accèdent à ces données) sur d’autres, souvent des postes (les fameux micro-ordinateurs) remplaçant les terminaux passifs. Cette architecture a encore évolué à partir des années 90 par l’ajout d’un troisième niveau (« 3-tier ») en séparant la couche applicative et l’interface utilisateur.

    Les raisons principales de cette complexité croissante tiennent essentiellement à l’augmentation des ressources nécessaires pour chaque composant :

    • Les serveurs de données sont confrontés à des volumes de données sans cesse croissants, et doivent communiquer avec un nombre d’applications clientes elles-mêmes en constante progression. On parlait en Mégaoctets dans les années 80, en Téraoctets de nos jours, soit une croissance de l’ordre d’un million. Un serveur de données dans une grande entreprise doit satisfaire des milliers de requêtes simultanées. Ces tendances (et quelques autres, comme la sécurité) ont dicté l’affectation de ressources de calcul importantes aux SGBD.
    • Les applications elles-mêmes ont grossi et se sont complexifiées. Notre application Toque, initialement écrite en Fortran et effectuant quelques opérations simples, est devenue une plate-forme Java complexe, utilisant des bibliothèques extérieures, fournissant des services Web, mettant en jeu un paramétrage lourd. L’installation et la maintenance d’une telle plate-forme sur les postes clients sont devenues des tâches très complexes : on préfère ne laisser au poste client qu’une couche logicielle mince dédiée à l’interface utilisateur.

    Nous sommes en 2015, l’application Toque est devenue une référence avec une base de données ambitionnant de couvrir tous les restaurants du monde, des logiciels internes d’analyse et de recommandation gourmands en ressources, une interface sur le Web et des applications mobiles. De plus, le nombre d’utilisateurs de l’application varie assez fortement dans le temps, avec un pic de fréquentation le samedi en fin d’après-midi. Les dirigeants se posent la question : comment faire face à l’augmentation des ressources matérielles nécessaires, à leur maintenance, à leur renouvellement, tout en ne surdimensionnant pas leur système. Le cloud offre une solution.

    Le cloud computing, ou l’informatique en nuage, est l’exploitation de la puissance de calcul ou de stockage de serveurs informatiques distants par l’intermédiaire d’un réseau, généralement l’internet. Ces serveurs sont loués à la demande, le plus souvent par tranche d’utilisation selon des critères techniques (puissance, bande passante, etc.) mais également au forfait. Il s’agit donc d’une délocalisation de l’infrastructure informatique. [A partir de Wikipédia, Cloud computing, 2015]

    cloud

    Dans le cas de la gestion de données, on va déporter le SGBD et l’application dans le cloud, c’est-à-dire dans des fermes de serveurs connectées à l’Internet (figure ci-dessus). Les données passent sur des machines, dont la localisation quelque part dans le monde n’a a priori pas d’importance, et idem pour les applications. Ce qui a permis de le faire c’est :

    • l’augmentation des vitesses et capacité des réseaux informatiques, et
    • la disponibilité d’immenses ressources interconnectées de calcul et de stockage – les fermes de serveurs – dotées de la technologie permettant de les découper en machines virtuelles, configurables à la demande, pour optimiser leur temps d’utilisation.

    (De nombreuses questions, en particulier juridiques, apparaissent lors de l’utilisation du cloud. En effet, comme les données sont localisées dans plusieurs pays, quelles lois s’appliquent alors ? Par exemple, les lois  sur la gestion des données personnelles diffèrent entre l’Europe et les Etats-Unis.)

    On sait maintenant faire fonctionner des fermes de serveur avec des millions de processeurs, des PétaOctets (1 PO = 1 000 TO) de données. On peut construire, temporairement, à la demande, une infrastructure virtuelle pour exécuter à faible coût  de très gros traitements, sans avoir à effectuer d’investissement lourd. Cette flexibilité permet également de répondre à un problème de charge variable au cours du temps.

    Une ferme de serveurs, c’est d’abord une masse considérable de matériel informatique, des baies de processeurs, des baies de stockage, des réseaux informatiques, des réseaux de télécoms, un système électrique fournissant une puissance considérable, un système de climatisation consommant une part importante de cette électricité… C’est aussi un support pour les données de notre application Toque, avec des problématiques comme la gestion de  millions d’utilisateurs et de restaurants, les milliards de recommandations et de commentaires avec un très grand nombre de machines. Par exemple, avec un nombre massif de machines, et de disques, des pannes arrivent statistiquement souvent. Un des défis techniques est le maintien opérationnel du système en dépit de la fréquence d’incidents plus ou moins graves. Un autre est la gestion de la climatisation : comment arriver à maintenir à faible coût les machines à une température raisonnable alors qu’elles dissipent une énergie considérable  et qu’il peut faire chaud en dehors du centre. Des efforts importants sont consacrés à la baisse du « coût écologique » de tels centres.

    Alors, doit-on recourir au Cloud pour nos données et nos applications ? Pesons le pour et le contre :

    • Pour : l’absence d’investissement dans une infrastructure matérielle coûteuse, d’obsolescence rapide, dont la qualité de service (disponibilité, efficacité) est techniquement difficile à garantir.
    • Pour : la délégation de la gestion des problématiques informatiques « bas niveau » (matériel, systèmes) à des compétences extérieures, afin de mieux pouvoir se concentrer sur son cœur de métier.
    • Contre : le prix à payer est une dépendance accrue vis-à-vis des sociétés de service, et une certaine incertitude sur la sécurité des données confiées à une entité externe.

    Recourir au cloud, pour une entreprise, c’est donc choisir une forme de spécialisation économique, avec les avantages et inconvénients connus et discutés depuis longtemps.

    Pour conclure, observons qu’à une échelle plus modeste, le cloud c’est aussi la possibilité pour une PME, un individu, de disposer d’un serveur à très faible coût (quelques Euros par mois), connecté sur le Web, hébergeant un site web, un blog ou des applications plus ambitieuses. C’est la démocratisation de l’accès au Web en tant qu’acteur.

    Serge Abiteboul, Benjamin Nguyen, Philippe Rigaux

    Note : Ce texte est tiré en partie du Mooc, Bases de données relationnelles : Comprendre pour maîtriser, réalisé par Inria pour la plateforme FUN par les trois auteurs de cet article.

  • La Différentiation Algorithmique ou un éloge de la paresse.

    Exemple Differencation automatique Atlantique
    Influence annuelle de la température sur la circulation océanique autour du 29eme parallèle. Calculer les variations liées à ce modèle est un défi, dont on va parler ici. ©Consortium NEMO / CNRS

    La Différentiation Algorithmique est une technique informatique destinée au monde du calcul scientifique.  La … quoi ? Et bien restez avec nous quelques lignes, Laurent Hascoet, va soulever le capot d’un outil méconnu des sciences et techniques informatiques, qui change pourtant complètement l’ingénierie.
    Sylvie Boldo.

     

    Oh oh j’ai de belles équations. Prenons une personne spécialiste du calcul scientifique, qui vient de choisir avec soin les équations mathématiques qui modélisent précisément le système qu’elle étudie, puis d’écrire un programme (l’algorithme) qui résout ces équations. Elle est fière d’elle-même, et elle a bien raison, car à l’issue de cet énorme travail, elle a une description quantitative de ce qu’elle doit étudier, développer ou améliorer.
    Elle dispose en fait d’un simulateur, c’est à dire d’une boîte munie d’un grand nombre de petits leviers (des paramètres) qui, pour chaque réglage des leviers, calcule l’état résultant du système étudié.

    Exemple Differencation automatique SonicBoom
    Gradient (voir texte) calculé avec le logiciel Tapenade, du bang sonique au sol par rapport à la forme de l’avion. Le calcul montre que pour réduire le bang, il faut tirer la « peau » vers l’extérieur par endroit (zone rouges) et l’enfoncer ailleurs (zones bleues). © Dassault aviation / INRIA

    Euh : Par exemple ? Eh bien, par exemple, pour étudier les performances d’un bateau, d’un avion ou d’un moteur à partir de leur géométrie, ce simulateur est bien plus rapide et plus économique que de construire réellement l’objet puis de le tester. Autre exemple : la simulation de l’évolution de l’atmosphère et de l’océan à partir de leur état actuel, pour dans cinq jours ou pour dans cent ans.

    Toujours plus ! Ce simulateur est tellement commode que le spécialiste veut maintenant aller plus loin, et chercher le réglage des leviers qui produit le meilleur état possible, ou en tout cas le plus proche d’un état cible prédéfini.La meilleure forme d’avion, par exemple, ou ce qu’il faudrait faire au niveau planétaire pour infléchir le réchauffement climatique.
    Problème difficile car les leviers sont nombreux, ils ont des tas de positions possibles, et les essayer toutes prendrait un temps colossal.

    La dérivée ou différentielle ? C’est le calcul de la variation locale d’une fonction (ici la droite bleue donne la direction de variation de la courbe rouge); cela permet de savoir par exemple dans quel direction trouver le minimum de cette fonction. ©wikimedia.org

    Le retour des maths. Heureusement en calcul scientifique la plupart des problèmes sont « différentiables ». Cela veut dire qu’il existe une opération mathématique (la différentiation) qui donne, à partir des équations, de nouvelles équations pour les « tendances » du système (on dit aussi son gradient).
    Pas à pas, en suivant ce gradient et en le recalculant à chaque pas, on avance sur la ligne de plus grande pente jusqu’à atteindre un optimum (local).
    Grâce à ce gradient tout est plus rapide, puisqu’il dit dans quel sens bouger chaque levier pour se rapprocher de l’état cible. On peut atteindre la position optimale des leviers en quelques pas seulement. Les domaines d’application sont immenses : ingénierie, aéronautique, climatologie, biologie ou même économie.

    Exemple Differencation automatique Sbend1

    Exemple Differencation automatique Sbend3 Écoulement perturbé par son passage dans un tuyau coudé. On calcule automatiquement le gradient (voir texte) de la perte de pression sur la paroi du tuyau, avec le logiciel Tapenade. ©Queen Mary University of London

    Tout ça c’est bien joli, mais … ! Notre spécialiste vient de travailler des mois à choisir ses équations puis à écrire le programme qui les résout, pour découvrir maintenant qu’il faut écrire les équations différentiées pour le gradient puis écrire le nouveau programme qui les résout. Écrire les équations du gradient, passe encore, mais le programme pour les résoudre sera drôlement dur à écrire. Ce gradient est une chose plutôt abstraite et on pourra moins s’aider de son intuition. Et si on se trompe (et on se trompe toujours au moins une fois), comment aller chercher le bug dans tout ce fatras de calculs ?
    Avouez qu’il y a de quoi hésiter un peu!

    Pourrait-on être plus astucieux ?  C’est là qu’intervient la Différentiation Algorithmique. Après tout, l’algorithme du simulateur lui-même est « presque » équivalent aux équations mathématiques qu’il résout (pour ceux qui veulent le détail: la grosse différence est qu’il « discrétise » en échantillonant l’espace et le temps; tout ça cause de légères approximations, et on peut vivre avec). Bref, les équations mathématiques et l’algorithme informatique sont presques interchangeables.
    Certes l’algorithme est bien moins élégant, moins concis, mais il aboutit au même résultat à l’issue d’une longue chaîne de milliards d’opérations élémentaires (additions, multiplications, divisions…). Et comme on sait écrire le gradient d’une telle chaîne de fonctions élémentaires, il suffit d’appliquer mécaniquement la recette. Souvenez-vous. C’était au lycée, on parlait de la dérivée de «f rond g». On peut donc transformer directement l’algorithme du simulateur en un nouvel algorithme qui calcule son gradient. C’est la Différentiation Algorithmique (DA).

    grace-hopper
    De même que Grace Hopper a bouleversé l’informatique en permettant de coder les programmes non pas en binaire mais avec des instructions lisibles par des humains, un compilateur se chargeant de la traduction, la DA permet de traduire automatiquement un programme informatique en un autre. © Vassal College

    Et c’est là que l’informatique vient à la rescousse. On y est presque. Si l’algorithme du simulateur est court, on peut écrire à la main l’algorithme de son gradient. Il faut cependant être rigoureux et systématique car c’est une transformation lourde, en particulier parce que le gradient se calcule « en marche arrière » de l’algorithme du simulateur.
    Mais le code du simulateur se mesure plutôt en milliers de lignes et il est quasiment impossible de le transformer  sans se tromper. Voie sans issue ? Non, parce qu’une grande force de l’informatique est qu’on peut écrire des programmes qui travaillent sur presque tout, y compris d’autres programmes. Un peu comme les compilateurs qui transforment un code informatique en langage machine.
    Puisque la DA est complètement mécanique, laissons le travail à l’ordinateur. L’outil de DA va analyser l’algorithme source et produire l’algorithme gradient, en quelques secondes pour un code de plusieurs milliers de lignes. Cerise sur le gâteau l’outil de DA, tout comme un compilateur, emploie des analyses sophistiquées pour optimiser le gradient, pour le rendre plus rapide et moins gourmand en mémoire.

    Tapenade www-tapenade.inria.fr un système de DA …©TROPICS-Inria

    Du laboratoire de recherche au monde industriel. Depuis plusieurs années, une équipe d’Inria étudie la DA et développe Tapenade, un outil de DA. Même si cet outil sert surtout à tester les nouvelles méthodes pour rester en pointe dans la recherche, il a aussi un joli succès auprès d’utilisateurs industriels qui ont acquis une licence pour l’utiliser dans leur chaîne de développement. On y retrouve l’aéronautique avec Dassault Aviation, Rolls-Royce ou Boeing, la chimie avec BASF ou Cargill, le pétrole avec Total ou Exxon-Mobil, mais aussi quelques banques et institutions financières. Parallèlement, de nombreux centres académiques l’utilisent gratuitement pour leurs recherches, et un serveur web permet de l’utiliser directement sans installation.

    Laurent Hascoet.

  • IoT : un propos sans blabla…

    La SIF (Société Informatique de France) a organisé une journée scientifique le 23 mars sur l’IoT (Internet des Objets – Internet of Things, en anglais), accueillie par le Secrétariat d’état au numérique dans les locaux de l’Hôtel des ministres à Bercy. Cette journée a réuni 110 personnes.

    Crédit photo : Pierre Metivier
    Crédit photo : @PierreMetivier

    Au delà du blabla habituel sur les sujets à la mode, la journée de la SIF a proposé des présentations scientifiques et techniques de très haut niveau, sur les défis informatiques de l’Internet des objets avec aussi des présentations sur les enjeux en terme de design des objets et de leurs applications ainsi que sur les problèmes posés pour le respect de la vie privée.

    En effet, l’IoT introduit de nouveaux défis scientifiques. Dans beaucoup de cas, il ne s’agit pas de plaquer des techniques connues mais bien de repenser, de concevoir et d’inventer des éléments scientifiques et techniques qui vont résoudre des questions nouvelles apportées par cette prolifération de très nombreux petits objets connectés.

    En savoir plus ?  Binaire et le Labo des savoirs en ont profité pour réaliser une troisième émission qui a pour thème l’internet des objets.

    Retrouvez l’émission sur ce lien, et écoutez les intervenants de cette journée comme si vous y étiez !   Vous pouvez aussi consulter les présentations des intervenants sur le site de la journée.

    Les coordinateurs de ces journées de la SIF :
    Pierre Paradinas (CNAM) et Jérôme Durand-Lose (LIFO)

    Retrouver les autres Podcasts Binaire/Labo des savoirs :

  • La data du vibromasseur

    Le Big Data, l’analyse de données massives, peut être à l’origine d’avancées majeures en médecine notamment. Son utilisation sur des données personnelles pouvait déjà inquiéter. Avec les sex toys, le big data s’invite encore un peu plus loin dans l’intimité des utilisateurs des nouvelles technologies. Binaire a rencontré Andzelika Zabawki, la PDG de Galalit, une start-up qui vient de lancer Godissime, un vibromasseur connecté nourri au Big Data.

    Depuis le OhMiBod, on ne compte plus les vibromasseurs connectés. Ils peuvent être contrôlés depuis un smartphone. Ils enrichissent les vies de couples, un partenaire pouvant guider à distance le plaisir de l’autre, peut-être même de la voix. Le vibromasseur Godissime de la société Galalit, en avant première au Salon de l’Érotisme, révolutionne la profession.

    oh-my-god

    L’idée est simple, avec plusieurs capteurs, on récupère toutes les données de chaque utilisation du vibromasseur. On analyse ensuite ces données pour mieux accompagner les plaisirs. Les données d’une utilisation, ça ne va pas bien loin ? Vous n’y êtes pas. Les données de toutes les utilisations. Nous sommes dans le Big Data. L’analyse de toutes ces données va permettre de mettre en évidence des similarités entre les utilisateurs-trices, de comprendre ce qui fait vibrer. Ensuite, à l’écoute de tous ses capteurs, Godissime va accompagner l’utilisateur-trice, contrôler le plaisir avec ses différentes options de vibreurs, guider de la voix. On peut choisir la voix, peut-être Scarlett Johansson, ou Benedict Cumberbatch.

    Les techniques rappellent celles expliquées pour la musique dans « J’ai deux passions, la musique et l’informatique » (Voir Binaire 13 avril 2015). Comme l’ordinateur est capable d’écouter un musicien humain, de communiquer, de jouer avec lui, le vibromasseur est à l’écoute, communique et se comporte comme un.e partenaire idéal.e.

    Petit soucis quand même. Pour que cela marche, il faut que Godissime dispose des données de millions de séances de vibromassage. Une employée de Galalit (demandant l’anonymat) nous a confirmé que la société disposait déjà de telles données. Des vibromasseurs en béta-test transmettent déjà depuis plusieurs semaines de telles données aux serveurs de la société. Nous avons vérifiés les conditions générales d’utilisation. C’est écrit en tout petit, mais c’est écrit : c’est fait en toute légalité !

    Vous qui utiliserez peut-être un jour Godissime, serez-vous conscients que des données aussi intimes circulent sur le réseau ? Est-ce que les plaisirs que vous pourriez trouver dans de tels sex toys seront suffisants pour vous faire accepter les risques ?

    Nous voilà bien dans un dilemme classique du Big Data.

    L’histoire drôle (si vous aimez ce genre d’humour) qui fait fureur chez Galalit : « Dieu aurait pu se contenter de créer la femme. Pourquoi a-t-il aussi créé l’homme ? Parce que Godissime n’existait pas. »

    Le nom de code du prochain produit de Galalit est Tanguissime. Les amateurs de Carlos Gardel auront compris que l’on passait à une autre dimension.

    Pour aller plus loin :

    • Very deep learning and applications to vibrating devices, Andżelika Zabawki, PhD thesis, 2015.
    • Big data analysis and the quest of orgasms, submitted to The Journal of Irreproducible Result, Andżelika Zabawki, 2016

    Serge Abiteboul, Marie-Agnès Enard, Thierry Viéville

  • On m’avait dit que c’était impossible

    La vente d’espace publicitaire sur le web a priori ce n’est pas particulièrement notre tasse de thé. Ce genre de pub nous paraît tenir souvent de la pollution. Pourtant, il nous paraissait intéressant de comprendre comment une startup française pouvait devenir une licorne. Le livre de Jean-Baptiste Rudelle, « On m’avait dit que c’était impossible » aux éditions Stock, a été une agréable surprise : Enfin un patron de startup français optimiste, et content de ce qu’offre la France.

    9782234078956-001-XRudelle raconte son expérience de créateur de 3 startups : un échec, un résultat mitigé, et le grand succès Criteo. Criteo, valorisée à plus de 2 milliards de dollars, est aujourd’hui présente dans 85 pays. Avec ses algorithmes de prédiction, elle achète et revend en quelques millisecondes des emplacements publicitaires sur internet. Elle affiche une belle croissance à deux chiffres.

    Le fait que Rudelle vive et travaille à moitié en France et à moitié aux US lui permet de faire des comparaisons intéressantes, bien loin du French Bashing des américains, des français, des « Pigeons » en particulier. Les impôts sont plutôt plus bas en France, les employés plus productifs, l’administration pas pire qu’ailleurs.

    Autre thèse originale de Rudelle : l’importance du jeu collectif. Pour lui, une startup ne se crée pas seul mais avec des associés complémentaires, des employés de top qualité, des vicis intelligents ; les stocks options doivent être partagées entre tous les employés.

    Au delà du récit d’une expérience intéressante entre la France et les Etats-Unis, Rudelle touche de nombreux sujets : le partage des ressources avec des références appuyées à Piketty, les impôts, l’héritage, le capital risque, l’art du pivot pour les startups, la pub bien sûr…  Est-ce à cause de son éducation (mère historienne, père artiste peintre) que Jean-Baptiste Rudelle sait si bien raconter, et qu’il est capable d’une telle distance ?

    Serge Abiteboul, Sophie Gamerman

  • Cozy Cloud : Vertueux par nécessité

    Serge Abiteboul nous parle d’une startup, Cozy Cloud, qui développe un système de gestion d’informations personnelles. Il nous explique ce que sont ses systèmes, quels sont leurs buts. Avec les enjeux autour du contrôle des données personnelles, cette nouvelle approche prend tout son sens. Une startup qui mérite vraiment qu’on la suive de près.

    2 février 2016 : La startup Cozy Cloud et le bureau d’enregistrement Gandi sont lauréats de la 2ème édition du Concours d’Innovation Numérique pour leur projet de cloud personnel grand public.
    @Maev59
    @Maev59

    Nos données sont un peu partout, dans des services, dans de plus en plus de services différents. Nous finissons par ne plus très bien savoir, où elles sont, ni même ce qu’elles sont, ou ce qu’on fait avec. Donc, nous ne nous y retrouvons plus. Par exemple, nous nous rappelons que nous avons l’adresse de ce copain, mais nous ne savons pas la trouver : dans nos contacts, dans nos mails, sur Linkedin, sur Facebook, dans un SMS peut-être, ou qui sait sur WhatsApp… Chacun de ces systèmes nous rend un service particulier, mais leur multiplication devient chaque jour un peu plus notre problème.  Des systèmes se proposent de corriger cela, les systèmes de gestion de données personnelles, les Pims (pour Personal Information Management Systems).

    Si vos données sont partout, c’est qu’elles ne sont nulle part,
    Benjamin André, PDG de Cozy Cloud

    L’idée est simple : plutôt que de regrouper les données par services (les données sur les courriels de millions d’utilisateurs avec Gmail, sur les films avec Netflix, sur les déplacements avec Waze, etc.), on va regrouper les données par utilisateur. Donc nous aurons notre système à nous, pour nous, avec toutes les données des applications que nous utilisons. Ces données, nous voudrions qu’elles soient disponibles en permanence, de partout, on va dire que c’est « notre cloud personnel ».

    Pourquoi promouvoir les Pims ? Parce que la situation actuelle avec quelques sociétés, en caricaturant les Géants du Web, s’appropriant toutes les données du monde est fondamentalement malsaine. D’abord, à terme, nous y perdons notre liberté : nous sommes profilés par ceux qui savent tout de nous, qui choisissent pour nous ; et les services qu’ils nous offrent deviennent incontournables parce que eux seuls ont certaines informations et peuvent les fournir. Ensuite, ces grandes sociétés finissent par être à même d’étouffer la compétition. Internet et le web qui ont servi véritablement de catalyse pour l’innovation, sont en train de devenir le royaume des oligopoles, les fossoyeurs des belles idées de liberté et de diffusion libre des connaissances des débuts. Bon, c’est résumé un peu rapide, un peu brutal. Mais le lecteur intéressé pourra trouver un développement de ces idées [1] dans CACM, la principale revue de l’ACM, une organisation internationale dédiée à l’informatique.

    Donc, partons de l’hypothèse qu’il faille que chacun regroupe toutes ses données dans un système unique. Un geek saura installer un serveur, et en voiture Linux ! Mais la plupart des gens n’ont pas cette compétence, et même s’ils l’ont ou pourraient l’acquérir, ils ont probablement d’autres façons de dépenser leurs temps libre (le sport, les expos, le farniente,…).

    Il y aurait bien une solution, ce serait de choisir les grands de l’internet. Pourquoi pas tout mettre chez eux ? Parce que nous aimerions avoir confiance dans le gardien de nos données. La confiance, le gros mot… Nous avons fait confiance aux fondateurs de Google, Brin et Page, quand ils disaient « Don’t be evil ! ». Mais qui dirige Google aujourd’hui ? Des actionnaires qui veulent maximiser leurs revenus ? Pour protéger nos données personnelles, nous aimerions plus que de vagues promesses. Nous voulons des garanties !  Nous allons donc plutôt choisir un tiers de confiance.

    Copie d'écran : le bureau de Cozy Cloud
    Copie d’écran : le bureau de Cozy Cloud

    Un de ces tiers de confiance possibles, c’est la startup Cozy Cloud. Pour écrire cet article, j’ai rencontré son PDG Benjamin André. J’ai aussi côtoyé au Conseil national du numérique, son CPO, Tristan Nitot. Je suis fan des deux. Il faut rajouter que je suis un fervent supporteur des Pims, et que ma recherche porte sur les Pims.  Donc je ne suis pas toujours objectif quand j’en parle. Je pourrais parler objectivement de la recherche sur des Pims. Mais ce n’est pas le sujet de cet article. Ce qui m’intéresse ici c’est la gestion de données avec des Pims comme levier pour aller vers une société meilleure. Donc j’ai plus une casquette de militant que de scientifique. Cet article ne revendique donc aucune objectivité. Pourtant, je tiens quand même à souligner pour éviter les malentendus que je n’ai aucune participation financière dans Cozy Cloud ou d’ailleurs dans quelque société de Pims que ce soit.

    Un vrai argument des Pims (en tous cas, dans ma vision des Pims), c’est que leur logiciel est open-source. Bien sûr, nous n’avons pas le temps d’aller auditer leur code, mais d’autres peuvent le faire pour nous. Cette transparence sur la gestion des données est essentielle pour garantir que la plate-forme ne va pas faire n’importe quoi avec nos données. Excusez du peu. Sans vouloir nous angoisser, toutes les données que nous avons à droite ou à gauche, des informations peut-être stratégiques pour nos entreprises, des informations intimes surement,  les nôtres et celles de nos amis. Nous ne savons pas ce qu’on fait d’elles. Nous ne savons pas où elles atterrissent.  Bon le mieux, c’est de ne pas trop y penser, ça va pourrir l’ambiance.

    Le fait que le logiciel de la plate-forme soit open-source et la transparence donc qui en résulte, est une qualité essentielle de ces systèmes. Cela facilite la vérification. Il faut aussi mentionner un autre aspect : la « portabilité ». N’ayez pas peur, c’est technique mais ça s’explique très bien.

    cozy_logoLa portabilité des données, c’est la possibilité pour un internaute de récupérer ses données depuis les grands services centralisés pour les mettre où il le veut. Pour lui, c’est une liberté fondamentale, celle de pouvoir « déplacer sa vie numérique » où bon lui semble, y compris chez lui. Tristan Nitot, CPO de Cozy Cloud

    Pour comprendre la portabilité, prenons un exemple de portabilité dans un autre domaine, l’automobile. Nous avons une Peugeot. Et puis, un jour, nous voulons changer de voiture. Nous sommes libres, d’acheter une Renault, même une Volkswagen, ce que nous voulons. Notre expérience de conducteur, nous la « portons » sous d’autres cieux.  Nous n’avons pas à réapprendre. Dans les applications numériques, ça peut être un peu différent. Nous avons choisi le Kindle d’Amazon. Et bien, c’est un super système, mais nous nous sommes fait avoir. Nous ne pouvons pas passer à un autre système sans perdre toute la librairie que nous avons achetée. Nous accumulons des années d’information, de données, dans un système et on nous dit « Restes avec nous ou perds tout ! » C’est l’emprisonnement par le vendeur (vendor lock-in en anglais). Nous aimerions pouvoir partir en « emportant » nos données dans le nouveau système – sans avoir à payer en argent, en temps, en quoi que ce soit. Le système doit nous garantir la portabilité, c’est à dire votre liberté de dire quand nous le souhaitons : « Ciao ! Sans rancune. »

    Des systèmes comme Cozy Cloud nous permettent de partir quand nous le voulons, avec nos données. Nous restons si nous le voulons. C’est drôle de réaliser que le droit de partir peut devenir un argument pour choisir de rester. Google disait « Don’t be evil » et il fallait croire sur parole qu’ils ne seront pas diaboliques. Dans un système qui garantit structurellement la portabilité, nous n’avons pas à les croire, ils n’ont d’autre choix que d’être angéliques s’ils veulent que nous restions. Cela pourrait être indiqué dans la loi. Des gens y travaillent.

    Les députés ont validé le principe de récupération des données personnelles par les internautes. Il sera ainsi possible de transférer sa playlist iTunes vers Spotify, ou ses photos Instagram vers une autre application. En revanche, cette obligation ne s’appliquerait qu’aux services grand public, excluant, devant la levée de boucliers des éditeurs de logiciels, les services inter-entreprises. Le Monde Economie, 19.01.2016  Sarah Belouezzane et Sandrine Cassini

    Essayons de comprendre un peu mieux la techno. Cozy Cloud développe une plateforme pour gérer nos données personnelles. Nous pourrons un jour tout y mettre, nos contacts, nos courriels, nos déplacements GPS, nos documents, nos comptes bancaires, notre compta… Ils nous proposent des applications qui réalisent certaines fonctionnalités (comme l’agenda) ou qui nous permettent juste de récupérer nos données d’autres services, par exemple nos mails de Gmail. Cette plateforme, nous pouvons l’installer sur une machine personnelle, ou nous pouvons demander à une société de l’héberger pour nous, par exemple OVH. Et à quoi sert Cozy Cloud à part développer la plate-forme ? Ils peuvent gérer le système pour nous.

    Nous n’avons pas dit grand-chose du business model de Cozy Cloud. Bien sûr, c’est une startup, alors ils ont un business model qui montre qu’ils veulent se développer, ils cherchent des investisseurs, ils vont gagner plein d’argent. Mais nous pensons (nous espérons sans nous tromper) que Benjamin André, Tristan Nitot et les autres de Cozy Cloud veulent d’abord changer le monde, en faire un endroit où il fait meilleur de vivre.  Nous avons l’impression d’avoir entendu ça des tas de fois ; ça peut prêter un peu à sourire ; mais avec Cozy Cloud, c’est tellement rafraichissant.

    Allez un peu de fiction pour conclure, tout en restant conscient de la difficulté de prédire l’avenir. Nous aurons, vous et nous, (bientôt) toutes nos données chez l’hébergeur de notre choix, elles seront gérées par un cloud personnel fonctionnant avec Cozy Cloud (un Pimseur français),  et nous procureront un point d’entrée unique de toutes nos données. Le système les rendra accessibles de partout, les synchronisera, les archivera, gèrera nos Internet des objets, nous servira d’assistant personnel, suivra notre santé, notre vie sociale. Nous pourrons réaliser des analyses qui utilisent nos données mais qui, contrairement aux analyses Big data des autres, le fera pour notre bien et pas pour maximiser le profit des autres. Et puis notre Pims pourra causer avec les Pims de nos amis…  C’est dingue, nous étions totalement périphériques dans le monde des Gafas, nous voilà transportés au centre du monde grâce aux Pims…

    Serge Abiteboul, Inria

    Pour aller plus loin

    [1] Managing your digital life : Serge Abiteboul, Benjamin André, Daniel Kaplan, Communications of the ACM, 58:5, 2015.
    Tristan Nitot sur Twitter : @nitot

  • Hyperviseur, même pas peur !

    Dans le cadre d’une nouvelle rubrique « Il était une fois… ma thèse », Binaire a demandé à Pauline Bolignano, qui effectue sa thèse à Inria Rennes Bretagne Atlantique et dans la société Prove & Run de nous présenter ses travaux. Par ailleurs, Binaire tient à remercier Pauline et Charlotte qui en discutant ont initié l’idée de cette rubrique. Nous attendons impatiemment la suite des autres histoires de thèses… Binaire.

    PaulineBolignano« – Tu penses que c’est possible que quelqu’un pirate ton portable et écoute tes conversations, ou accède à tes données bancaires ?

    – Non ça n’arrive que dans les séries ça ! Et puis moi de toute façon je ne télécharge que des applis de confiance…»

    En fait, avec en moyenne 25 applications installées sur un téléphone, nous ne sommes pas à l’abri d’un bug dans l’une d’entre elles.

    Il y a même fort à parier que nos applications contiennent toutes plusieurs bugs. Or, certains bugs permettent à une personne mal intentionnée, sachant l’exploiter, d’accéder à des ressources privées. Ce problème est d’autant plus préoccupant que de plus en plus de données sensibles transitent sur nos téléphones et peuvent interférer entre elles. C’est encore pire quand les téléphones servent à la fois pour un usage personnel et professionnel !

    Actuellement, l’accès aux ressources (appareil photo, micro, répertoire et agendas,…) dans un smartphone se fait un peu comme dans un bac à sable : toutes les applications peuvent prendre le seau et la pelle des autres, et rien n’empêche une application de détruire le château d’une autre… L’angoisse !

    Pour mettre de l ‘ordre dans tout ça, une solution est d’ajouter une couche de logiciel qui contrôle de manière précise l’accès aux ressources, une sorte de super superviseur ; d’ailleurs, on appelle ça un hyperviseur. L’hyperviseur permet par exemple d’avoir deux « bacs à sable » sur son téléphone, de telle manière qu’aucune information sensible ne fuite entre les deux. Cela n’empêche pas les occupants d’un même bac à sable de se taper dessus avec des pelles mais on a la garantie que cela n’a pas d’impact sur le bac d’à coté. L’hyperviseur peut également interdire aux applications l’accès direct aux ressources. Il autorise les occupants du bac à sable de faire un pâté mais c’est lui qui tient le seau. Il peut de cette manière imposer qu’un voyant lumineux s’allume lorsque le micro est en marche. On a ainsi la certitude que lorsque le voyant est éteint, le micro est éteint et que personne ne peut nous écouter.

    Vous l’avez peut être remarqué, il nous reste un problème majeur : comment s’assurer que l’hyperviseur n’a pas de bug ? L’hyperviseur ayant accès à toutes les ressources, un bug chez lui peut avoir des conséquences très graves. Il devient donc une cible de choix pour des pirates. Si on se contente de le tester, on passe potentiellement à coté de nombreux bugs. En effet la complexité d’un hyperviseur est telle que les tests ne peuvent pas prévoir tous les cas d’usage. La seule solution qui permette de s’approcher  de l’absence de bug est la preuve formelle de programme. L’idée est d’exprimer des propriétés sur le programme, par exemple « les occupants d’un bac à sable n’interfèrent pas avec les occupants d’un autre bac à sable », puis de les prouver mathématiquement. Les propriétés sont exprimées dans un langage informatique et on les prouve grâce un outil qui vérifie que nos preuves sont correctes (et qui parfois même fait les preuves à notre place !).

    Actuellement la preuve de programme n’est pas très répandue car elle est très couteuse et longue à mener. Elle est réservée aux systèmes critiques. Par exemple, des propriétés formelles ont été prouvées sur les lignes automatiques (1 et 14) du métro parisien. Je prouve en ce moment des propriétés d’isolation sur la ressource « mémoire » d’un hyperviseur, c’est à dire qu’il n’y a pas de mélange de sable entre deux bacs à sable. Le but de ma thèse est de fournir des méthodes afin d’alléger l’effort de preuve sur ce type de systèmes.

    Pauline Bolignano, Inria Rennes Bretagne Atlantique et Prove & Run.

     

  • Raspberry pi : la petite histoire d’une grande idée

    Le Raspberry Pi (prononcé comme « Raze » « Berry » « Paille » en anglais) est un petit ordinateur de la taille d’une carte bancaire. Il a été conçu par une fondation éducative à but non-lucratif pour faire découvrir le monde de l’informatique sous un autre angle. C’est Alan, franco-irlandais qui nous raconte cette belle histoire. Charlotte Truchet et Pierre Paradinas.

    Le récemment lancé « PiZero »
    Le récemment lancé « PiZero » : 60 x 35mm : commercialisé en France pour €8,90 Crédit Photo : Alex Eames –  RasPi.TV

    Une fracture entre informatique et société

    Au milieu des années 2000, Eben Upton de la Faculté des Sciences Informatiques de l’Université de Cambridge (« Computer Science Lab ») en Angleterre s’est rendu compte d’un gros problème. Avec ses collègues, ils ont observé un déclin très marqué dans le nombre de candidats se présentant pour poursuivre des études en informatique. Entre l’année 1996 (année de sa propre entrée « undergraduate » à Cambridge) et 2006 (vers la fin de son doctorat), les dossiers de demande pour accéder à la Faculté se sont réduits de moitié. Le système de sélection britannique des futurs étudiants est basé sur des critères de compétition, compétence, expérience et des entretiens individuels. Eben, qui avait tenu le rôle de « Directeur des Études » également, était bien placé pour remarquer une deuxième difficulté. Au-delà du « quantitatif », les candidats qu’il rencontrait, malgré leur grand potentiel et capacités évidentes, avaient de moins en moins d’expérience en matière de programmation. Quelques années plus tôt, le rôle des professeurs était de convaincre les nouveaux arrivants en premier cycle universitaire qu’ils ne savaient pas  tout sur le sujet. A l’époque de la première « bulle internet », beaucoup parmi eux avait commencé leur carrière d’informaticien dès leur plus jeune âge. Ils étaient familier avec  plusieurs langages allant des « Code machine » et « Assembleur » (les niveaux les plus proches de la machine) jusqu’aux langages de plus haut niveaux. Au fil des années, cette expertise était en berne, à tel point qu’autour de 2005, le candidat typique maîtrisait à peine quelques éléments des technologies de l’internet, HTML et PHP par exemple.

    En parallèle, les membres du monde académique anglais étaient bien conscients de la nécessité croissante pour l’industrie, et la société plus globalement, d’avoir une population formée à la compréhension du numérique. Le numérique était désormais omniprésent dans la vie quotidienne. Et ce sans parler des besoins spécifiques en ingénierie et sciences. De façon anecdotique, les cours de TICE à ce moment-là étaient souvent devenus des leçons de dactylographie et d’utilisation d’outils bureautiques. Bien que ce soit important, le numérique ne pouvait pas se résumer à ça. Face à ce dilemme, Dr Upton et ses autres co-fondateurs de la Raspberry Pi Foundation se posaient deux questions : pourquoi en est-on arrivé là et comment trouver une solution pour répondre à leur besoin immédiat, local (et peut-être au-delà) ?

    Comprendre la cause avant de chercher le remède

    L’explication qu’ils ont trouvée était la suivante. Dans les années 80, sur les machines de l’époque, on devait utiliser des commandes tapées dans une interface spartiate pour faire fonctionner, et même jouer sur les ordinateurs. Par exemple pour moi, c’était un « BBC Micro » d’Acorn en école primaire en Irlande comme pour Eben chez lui au Pays de Galles. C’était pareil en France, avec  des noms comme Thomson, Amstrad, Sinclair, ou Commodore,… qui rappellent des souvenirs de ces années-là. Depuis cette date, nous étions passés à des ordinateurs personnels et consoles de jeu fermés et propriétaires qui donnaient moins facilement l’accès au « moteur » de l’environnement binaire caché sous le « capot » de sur-couches graphiques. Bien que ces interfaces soient pratiques, esthétiques et simples à l’utilisation, elles ont crée une barrière à la compréhension de ce qui se passe « dans la boîte noire ». Pour tous, sauf une minorité d’initiés, nous sommes passés d’une situation d’interaction avec une maîtrise réelle et créative, à un fonctionnement plutôt de consommation.

    Quand une solution permet de changer le monde

    Leur réponse à ce problème a été de concevoir une nouvelle plate-forme informatique accessible à tous autant par sa forme, que par son prix, et ses fonctionnalités. L’idée du Raspberry Pi est née et le produit fini a été lancé le 29 février 2012.

    Le Raspberry Pi est un nano-ordinateur de la taille d’une carte bancaire (Modèle 2 : 85mm x 56.2mm). Le prix de base, dès le début, a été fixé à $25 USD (bien que d’autre modèles existent à ce jour de $5 à $35). Le système d’exploitation conseillé est l’environnement libre et gratuit GNU/Linux (et principalement une « distribution » (version) dite Raspbian). Le processeur est d’un type « ARM » comme trouvé dans la plupart des smartphones de nos jours. Tout le stockage de données se fait par défaut par le biais d’une carte Micro SD. L’ordinateur est alimenté par un chargeur micro-USB comme celui d’un téléphone portable. Le processeur est capable de traiter les images et vidéos en Haute Définition. Il suffit de le brancher sur un écran HDMI ou téléviseur, clavier, souris par port USB et éventuellement le réseau et nous avons un ordinateur complet et fonctionnel. Avec son processeur Quad Cœur 900 Mhz et 1 Go de mémoire vive, le Modèle 2 est commercialisé en France aux alentours d’une quarantaine d’Euros. A la différence de la plupart des ordinateurs en vente, la carte comporte 40 broches « GPIO » (Broches/picots d’Entrée-Sortie générale). C’est une invitation à l’électronique et l’interaction avec le monde extérieur. En quelques lignes de code, l’informatique dite « physique » devient un jeu d’enfant. Brancher résistance et une DEL et un bouton poussoir en suivant un tutoriel et les enfants découvrent immédiatement des concepts de l’automatisation et de robotique. C’est assez impressionnant que ce même petit circuit imprimé, que l’on peut facilement mettre entre les mains d’un enfant de 5 ans, est de plus en plus utilisé dans des solutions industrielles embarquées et intégrées.

    Le nom « Raspberry Pi » vient du mot anglais pour la framboise (les marques de technologie prennent souvent les noms d’un fruit) et de « Python », un langage de programmation abordable, puissant et libre. Au début les inventeurs pensaient peut-être dans leur plus grands rêves vendre 10,000 unités. A ce jour, c’est bien plus de 6 millions de Raspberry Pi qui ont été vendus dans le monde entier. En se consacrant initialement 100% de leurs efforts en développement matériel aux cartes elles-mêmes, la Fondation a fait naître à leur insu tout un écosystème autour de la création d’accessoires et périphériques. Les « produits dérivés » vont de toute sorte de boîtier jusqu’à divers cartes d’extension pour tout usage imaginable.

    Alan_McCullagh-Piano_HAT
    Le Piano HAT : une carte d’extension pour apprendre à s’amuser en musique, avec un boitier Pibow coupé Crédit Photo : Pimoroni.com

     

    De plus, ils ont su créer d’autres emplois « chez eux » grâce à l’ordinateur – aujourd’hui les cartes sont fabriqués « Made in Wales » (dans une usine de Sony au Pays de Galles). Il existe aussi un communauté global de passionnés de tout âge et tout horizon qui promeuvent la pédagogie numérique, réalisent des projets, organisent des événements et assurent de l’entreaide autour de la « Framboise π« . La France n’est pas une exception avec pas mal d’activité dans l’Hexagone. La barrière initiale de la langue anglaise joue sans doute un rôle dans son manque de notoriété et utilisation par un plus grand publique chez nous – pour l’instant ce bijou technologique reste en grande partie le domaine des technophiles/ »geeks » et des lycées techniques.

    Éducation

    Le succès commercial fulgurant du Raspberry Pi fait oublier parfois que le but principal de la Fondation reste axé sur l’éducation. L’argent gagné à travers les ventes est réinvesti dans des actions et des fonds permettant de faire avancer leurs objectifs. Ce dernier temps, la Fondation a pu engager des équipes de personnes intervenant sur divers projets et initiatives un peu partout dans le monde. Ça concerne l’informatique, mais pas seulement. Dans le monde anglo-saxon, on parle souvent de « STEM », voire « STEAM » – acronyme pour la promotion des Sciences, Technologie, Ingénierie (Engineering), les Arts et Mathématiques. En France, le Raspberry Pi pourrait bien STIM-uler plus d’intérêt dans ces disciplines aussi !

    Utilisation

    Les applications potentielles de cet outil sont sans fin. Un petit tour d’internet laisse pas de doute sur les possibilités. Sortie de sa boîte, ça permet une utilisation en bureautique avec Libre Office, accès internet avec un navigateur web, l’apprentissage de la programmation avec Scratch, Python et Minecraft Pi ou Ruby et Sonic Pi. Plus loin il existe tout l’univers d’utilitaires libres et gratuits sous GNU/Linux.

    Pour donner quelques exemples rapides intéressants :

    Et enfin, on peut même envoyer ses expériences scientifiques dans l’Espace ! Dans l’esprit de la récente semaine d’une « Heure de Code« , dans le projet AstroPi, deux Raspberry Pi viennent d’être envoyés sur la Station Spatiale Internationale embarquant des capteurs et du code crée lors d’un concours par des enfants de primaire et secondaire en Grande Bretagne. Ça fait rêver !

    Alan_McCullagh-Astro_Pi
    Astro Pi : un concours pour des jeunes en Grande Bretagne pour envoyer leur Code sur l’ISS (Station Spatiale Internationale) Crédit Photo : Fondation Raspberry Pi {Artiste : Sam Adler}

    Comme dit François Mocq, auteur et blogueur de « Framboise314.fr« , il y a bien une limitation à ce que nous pouvons faire avec un Raspberry Pi. C’est notre imagination !

    Cet article a été écrit via un Raspberry Pi.

    Pour plus d’information, rendez-vous sur « http://raspberrypi.org » (site officiel de la Fondation – anglophone) et/ou « http://framboise314.fr » (notre référence francophone).

    Alan Mc Cullagh (Club Code France)

  • Drôle de drones

    « C’est notamment grâce aux technologies de l’analyse d’images et de la vision
    par ordinateur que Delair-Tech pourra devancer ses compétiteurs ».
    Olivier Faugeras, chercheur Inria Sophia, Membre de l’Académie des Sciences.

    Contrairement aux drones grand public les plus répandus avec hélice, les drones professionnels de Delair-tech ressemblent à des avions miniatures. On retrouve dans le monde des drones la même distinction qu’entre hélicoptère et avion. L’avantage des drones à voilure fixe (et pas tournante), c’est leur autonomie qui leur permet de parcourir de grandes distances et de couvrir ainsi de larges zones.

    Photo Delair-tech
    Photo Delair-tech

    L’agriculture. A cause de la plus grande autonomie des drones à voilure fixe, l’un de leurs marchés les plus prometteurs n’est autre que l’agriculture. Un drone de Delair-tech permet par exemple de détecter depuis le ciel les parcelles d’un champ qui ont besoin d’azote. « La société était très orientée hardware au départ, mais nous travaillons de plus en plus sur des logiciels, notamment de traitement d’image » explique Benjamin Benharrosh, cofondateur de la startup. Pour analyser la quantité d’azote présente localement dans un champ, leurs logiciels permettent de réaliser une carte multispectrale et à partir de cela de calculer des indices biophysiques en différents points. Dans le cadre d’un projet de recherche sur quatre ans lancé en partenariat notamment avec l’INRA, Delair-tech cherche aussi à détecter des maladies des cultures, les besoins en désherbage, ou à permettre de mieux contrôler l’hydratation.

    Photo Delair-tech
    Photo Delair-tech

    Les mines et le BTP. Si l’agriculture est un domaine porteur pour Delair-tech, le plus développé pour l’instant reste celui des mines et du bâtiment. « Les géomètres sont habitués à gérer des révolutions technologiques fréquentes. Beaucoup d’entre eux utilisent déjà des drones. » explique Benjamin Benharrosh. Delair-tech les aide par exemple à reconstituer un modèle 3D du terrain. Les drones peuvent aussi participer à la surveillance et l’inspection de réseaux comme des lignes électriques ou des voies ferrées. Des drones permettent de détecter par exemple de la végétation qui s’approche trop près de lignes électriques, ou des pelleteuses qui creusent un terrain alors qu’un oléoduc passe en-dessous. Si reconnaître de la végétation est une tâche relativement simple à l’aide de marqueurs de chlorophylle, pour reconnaître une pelleteuse, il faut avec des algorithmes de reconnaissance de formes ; c’est bien plus compliqué.

    Photo Delair-tech
    Photo Delair-tech

    Dans le domaine de Delair-tech, les challenges sont très techniques. Pour obtenir l’autorisation de voler hors du champ visuel de l’opérateur, il a fallu construire un drone de moins de deux kilos. Cela écartait la solution simple qui consistait à combiner des composants du marché. Pour cela, la R&D de Delair-tech a dû monter en compétences dans des domaines aussi variés que les matériaux composites, les télécoms, les système embarqués, la mécanique. Une autre contrainte sérieuse est mentionnée par Benjamin Benharrosh : « La réglementation nous oblige à garder le contact avec le drone en permanence ». Une borne Wifi permet de garder ce contact jusqu’à une vingtaine de kilomètres. Et au delà, il faut installer des antennes relais.

    La France est l’un des premiers pays au monde à avoir régulé les vols de drones hors vue. Le drone doit être léger, pour minimiser les risques en cas de chute. Il doit permettre un retour vidéo vers son opérateur, qui doit garder en permanence une communication avec lui. On ne peut pas par exemple passer par la 3G d’un opérateur, qui n’est pas considérée comme assez fiable. Le drone doit de plus inclure un système de défaillance permettant un retour forcé en cas de perte de contact, et d’un système de sécurité le conduisant à tomber avec peu d’énergie en cas de problème plus sérieux.

    Pour être autorisé à réaliser des vols hors du champ visuel en France, un des premiers pays à avoir légiféré sur les drones hors vue, des drones de Delair-tech ont dû passer tous les tests exigés dans l’hexagone. Pourtant 75 % du chiffre d’affaire de la startup est réalisé à l’étranger dans les quelques pays ayant déjà mis en place une régulation… ainsi que dans ceux n’en ayant pas encore.

    Le marché de Delair-tech est très compétitif. Les challenges sont techniques, principalement logiciels : étude topographique, génération et analyse de carte multispectrale, reconnaissance d’image… Ils sont loin d’être tous résolus avant que, par exemple, les drones de Delair-Tech puissent voler au dessus de 150m et se mêler au trafic aérien.

    Serge Abiteboul, Marie Jung

    Pour en savoir plus :