Catégorie : Numérique

  • Le mythe du Syndrome de la Reine des abeilles

    A l’occasion de la Journée Internationale des Droits des Femmes, Anne-Marie Kermarrec a choisi de parler de la théorie du Syndrome de la Queen Bee, le Syndrome de la Reine des abeilles. Elle la dézingue pour Binaire. Serge Abiteboul

    Combien de fois dans ma carrière, académique ou entrepreneuriale du reste, à la faveur de jurys, de comités de sélection, de comités de recrutement, voire même dans la sphère personnelle, n’ai je entendu cette litanie dès qu’on aborde la parité « Le pire c’est que les femmes sont encore plus dures avec les autres femmes que les hommes eux-mêmes ». Un peu comme on entend parfois que les femmes sont bien pires avec leurs belles-filles qu’avec leurs gendres, ou plus sévères que les hommes avec leurs brus, voire finissent toujours par bitcher un peu sur leurs copines. En fait les femmes sont-elles vraiment les pestes de service quand leurs alter-égos sont irréprochables sur le sujet ?

    Dans le milieu professionnel, ce phénomène est encore plus marqué lorsque les femmes sont largement minoritaires, comme c’est le cas par exemple dans le numérique. Et chacun y va de son explication : qui d’expliquer que les femmes sont jalouses, qu’elles voient dans leurs congénères des rivales, qu’elles veulent conserver leur suprématie et j’en passe. Alors, mythe ou réalité ?

    Mon objectif n’est évidemment pas de défendre les femmes mais d’essayer de faire l’inventaire de ce que l’on raconte à ce sujet, des explications plus ou moins rationnelles dont ces théories sont assorties pour essayer de comprendre où nous en sommes aujourd’hui. Il est intéressant de constater du reste que les anglo-saxons, ont même un nom pour ce phénomène : le syndrome Queen Bee, reine des abeilles en français, en référence au fait que cette reine n’accepte pas de partager son pouvoir dans la ruche. Intéressant du reste de voir que même le syndrome est genré, on avait pourtant le choix quand on sait que les mâles se dispute la place unique de chef de clan chez les loups ou les lions. Mais manifestement nul besoin de nommer explicitement un comportement hostile d’un homme envers un autre homme, c’est si naturel.

    Si ce syndrome est donc bel et bien défini par nos amis d’outre-Atlantique comme celui qui pour une femme qui a percé dans son milieu professionnel, généralement numériquement dominé par les hommes, consiste à dénigrer voire brimer les autres femmes plutôt que de leur offrir son support inconditionnel, il s’applique du reste tout aussi bien à d’autres minorités, raciales, sexuelles ou sociales mais on en parle moins. Margareth Thatcher est souvent citée comme figure de proue de ce syndrome.

    Donc nous en sommes là, alors même que des études soulignent que les hommes font preuve d’autant, voire plus, d’agressivité que les femmes, le stéréotype est ancré, colporté, discuté : nous avons quelque chose dans nos gènes qui nous rend hostiles aux autres femmes. Je vous livre donc un florilège d’explications potentielles que j’ai pu découvrir en discutant autour de moi et en observant les multiples réactions à des candidatures féminines.

    Théorie numéro 1 : le complexe d’infériorité

    Certains pensent que ce syndrome relève du simple complexe d’infériorité, c’est du reste cette explication qui s’adapte le mieux aussi aux autres minorités (raciales, sexuelles, etc.). L’explication viendrait du fait que les femmes sont dominées depuis la nuit des temps : certaines théories, en particulier défendues par Françoise Héritier [1] tendent à montrer que c’est en effet dès le néolithique que les hommes ont cherché à dominer les femmes en particulier en limitant leur accès à des nourritures très protéinés. La théorie est que les hommes, effrayés du pouvoir des femmes à enfanter, ont cherché à les diminuer de cette manière et qu’ainsi le dimorphisme physique ait été favorisé par des comportements sociaux de la préhistoire qui, s’ils étaient inconscients, étaient organisés. Notez que cette théorie est contestée [2] et je ne suis pas anthropologue mais je la trouve osée en tous cas.

    Mais revenons à nos moutons, ainsi une femme, qui convaincue depuis son plus jeune âge, par la société qu’elle est « inférieure » en tous cas sur certains points à l’homme, applique ce complexe à toute représentante de son sexe et verra peut-être dans une candidature féminine, une infériorité dont elle souffre certes, mais dont elle a aussi largement accusé réception inconsciemment et qu’elle transmet inéluctablement.

    Théorie numéro 2 : la peur d’être remplacée

    Cette théorie est de loin la plus répandue et pourtant de mon point de vue la moins crédible. Elle consiste à expliquer que les femmes ont un comportement hostile vis à vis des autres femmes car elles ont une peur inconsciente d’être remplacées, en particulier dans certains milieux où en claire infériorité numérique, elles jouissent d’une situation particulière.

    En prenant le risque de me faire traiter de féministe agressive, qui déteste les hommes (comme si ça allait avec), ce sont du reste surtout des hommes qui généralement soutiennent cette théorie.

    C’est faire affront à notre bon sens que de penser ceci, il est bien évident pour toutes celles qui se trouvent dans des milieux très déséquilibrés en matière de parité, que nous aspirons à une plus grande diversité et que non seulement nous œuvrons pour la plupart à inciter plus de jeunes filles à embrasser des domaines éminemment masculins. Comme ce déséquilibre est un facteur aggravant pour l’engagement des jeunes filles dans ces disciplines, nous cherchons donc, pour la plupart, à défendre les femmes plus qu’à les dissuader.

    Théorie numéro 3 : l’envie de voir les autres en baver autant

    Cette théorie relève du fait que les femmes dans des milieux masculins en ont bavé pour arriver où elles en sont, en particulier en adoptant des modes de vie, de pensée, d’interaction, masculins, s’il en est. Ces femmes en particulier ont souvent mis leur bébé à la crèche à trois mois, n’ont pas nécessairement pris de congé parental, prennent des baby-sitters après l’école, adoptent un style d’interaction compatible avec leurs alter-égos etc. Quand bien même, elles affirment l’avoir fait délibérément et naturellement, elles ont parfois souffert de se voir malmener par la société ou leur entourage qui a pu tendre à les culpabiliser ou leur renvoyer une image de femme pour qui la carrière passe avant le reste, reproche assez peu formulé à l’égard des hommes.

    Est-il possible que ces femmes attendent alors de leurs congénères d’en passer par là ? C’est une théorie qui a pu avoir un sens pour d’autres générations, à des époques où effectivement réussir pour une femme passait par un abandon quasi total de vie de famille, sociale, etc. En conséquence ces femmes en attendaient autant des autres femmes, voire leur rendaient la vie plus difficile pour les endurcir et mieux les préparer. Ce n’est plus le cas aujourd’hui à mon humble avis, surtout dans des domaines aussi jeune que celui du numérique et les femmes ne cherchent plus nécessairement à endurcir les plus jeunes mais plutôt à les guider.

    Théorie numéro 4 : une simple réaction au machisme

    Cette théorie est de loin la plus politiquement incorrecte. Elle consiste à expliquer un comportement hostile des femmes vis à vis des autres femmes en réaction au machisme ambiant. Prenons l’exemple, d’une femme qui bénéficie d’un jugement positif par des hommes dans un cadre scientifique en raison de critères qui sont tout sauf scientifiques. Clairement un jugement, favorable certes, mais sexiste de la part des hommes. En contrepoids, les femmes, potentiellement très agacées par la prise en compte de ces critères qui d’une part ne devraient pas intervenir, d’autre part sont clairement déplacés, peuvent réagir en recentrant le débat et en forçant le trait sur les critères éligibles. C’est souvent dans ce type de situation que les hommes en arrivent à la conclusion que les femmes sont décidément très jalouses entre elles et se retrouvent ainsi affublées de ce syndrome de Queen Bee.

    Théorie numéro 5 : le double standard

    Probablement la théorie la plus crédible. Est ce que tout ca ne vient pas tout simplement du fait que les réactions des femmes envers les femmes sont extrêmement stigmatisées ?

    Comme je le voyais très récemment (juillet 2018) dans une vidéo de Girl gone international, quand un homme s’exprime de manière assurée, il est sûr de lui et c’est une qualité, une femme est plutôt perçue comme arrogante, quand un homme est incisif, une femme est plutôt agressive. L’équivalent d’un homme stratège est une femme manipulatrice, d’un bon manager est une femme qui cherche à contrôler. On est attendri par un homme féministe et agacé par ces femmes féministes, que l’on imagine constamment en colère contre le monde entier.

    C’est ce qu’on appelle le double standard : si des hommes critiquent d’autres hommes, c’est du bon sens, s’ils se disputent, c’est normal voire sain. Du reste on attend des hommes qu’ils ne soient pas d’accord, qu’ils argumentent, qu’ils affirment leurs idées. Une femme qui se manifeste est en colère (ou pire, a ses règles), si elle critique une autre femme, elle devient rapidement une harpie, jalouse de la concurrence. Et cette perception est malheureusement perpétuée par les hommes et les femmes elles-mêmes parfois.

    Pour conclure, nombreux (plus que nombreuses) s’accordent à dire que les femmes sont des chipies entre elles, et les théories fleurissent sur les explications au syndrome Queen Bee. Pourtant, il s’agit bien souvent de réactions normales simplement mal interprétées car les femmes ne encore pas soumises aux mêmes attentes et plutôt victimes de ce double standard. Et malheureusement ce double standard ne se cantonne pas aux comités de recrutement, mais touchent la sphère sociale, familiale, sexuelle etc. mais ça c’est une autre histoire !

    Il semblerait que si le mythe persiste, ce syndrome soit bel et bien révolu comme le montre une étude brésilienne effectuée sur plus de huit millions de travailleurs de plus de 5000 organisations [5] et aujourd’hui les preuves [6] ne manquent pas pour montrer que les femmes luttent quotidiennement contre les stéréotypes de genre, que plus il y a de femmes dans un milieu professionnel, moins il y a de harcèlement et plus les écarts de salaires sont faibles. En outre, une femme recevra une meilleure écoute de son manager si c’est une femme que si c’est un homme concernant l’organisation familiale par exemple, une entrepreneuse aura plus de chances de lever des fonds si des femmes se trouvent parmi les investisseurs. S’il a jamais existé dans des générations précédentes, ce n’est plus une réalité aujourd’hui. Qu’on se le dise !

    Anne-Marie Kermarrec, PDG de Mediego et Directrice de Recherche Inria

    Références

    [1] https://abonnes.lemonde.fr/societe/article/2017/11/05/francoise-heritier-j-ai-toujours-dit-a-mes-etudiantes-osez-foncez_5210397_3224.html

    [2] http://www.slate.fr/story/155300/patriarcat-steak-existe-pas

    [3] https://www.huffingtonpost.com/2014/03/07/things-women-judged-for-double-standard_n_4911878.html

    [4] https://uanews.arizona.edu/story/incivility-work-queen-bee-syndrome-getting-worse

    [5] https://phys.org/news/2018-04-queen-bee-phenomenon-myth.html

    [6] http://www.dailymail.co.uk/health/article-5612183/Queen-Bee-syndrome-isnt-real.html

     

     

  • Un robot dans la robe des juges

    Nous vivons au temps des algorithmes, ces outils ne décident rien mais fournissent des réponses statistiquement significatives, au point de provoquer un dilemme au moment de prendre une décision, quand notre conviction intime rentre en contradiction avec ce que le résultat de l’algorithme propose. Et un domaine où cela devient critique est celui de la justice. Voyons comment dépasser ce dilemme avec Serge Abiteboul. Thierry Viéville.
    Fresque représentant la justice de Luca Giordano ©wikicommons

    Les algorithmes exécutés par des ordinateurs sont entrés dans nos vies : ils nous conseillent des films, nous proposent des chemins pour nous rendre à notre prochain rendez-vous… Bientôt, ils conduiront nos voitures ou nous permettront de rester chez nous dans notre quatrième âge. En prenant autant d’importance, ils soulèvent des questionnements, des inquiétudes. Prenons un exemple frappant dans un domaine régalien, la justice. Aux États-Unis, le logiciel Compas assiste les juges pour décider de libérations conditionnelles, en évaluant le risque de possibles récidives – la décision de remise en liberté est strictement liée à la probabilité de récidive. L’algorithme assiste, mais ne décide pas. Oui, mais un juge aura-t-il le courage, ou la légèreté, de remettre un condamné en liberté contre l’avis du logiciel si l’on peut prouver que l’algorithme fait statistiquement de meilleures prédictions que les juges ?

    Justice et inégalité ©wikicommons

    La question est philosophique : y a-t-il des tâches de telles natures que les confier à des machines nous ferait perdre une part de notre humanité, des tâches qu’il faut leur interdire même si elles les réalisent mieux que nous ? Nous ne répondrons pas à cette question, mais relativisons son importance aujourd’hui. Si les algorithmes deviennent de plus en plus intelligents, ils sont loin de pouvoir, par exemple, remplacer les juges dans des cas encore plus complexes que celui de la libération conditionnelle aux États-Unis. Quand des algorithmes participent à la vie de la cité se pose également la question de leur responsabilité. Revenons sur le logiciel Compas. Il présente sur un juge l’avantage d’une certaine cohérence. Il a été montré notamment que les décisions des juges sont dépendantes de l’heure ; il vaut mieux passer après le repas qu’avant. Et celles des cours de justice, par exemple aux prud’hommes, varient énormément d’une chambre à une autre. Pas de cela avec les algorithmes ! Ils peuvent garantir une certaine cohérence.

    Nous pourrions également espérer qu’ils soient plus « justes », qu’ils ne discriminent pas suivant les origines ethniques, le genre… Pourtant, des journalistes ont évalué les prédictions de Compas et découvert qu’il surestimait largement les risques de récidives des condamnés noirs. Des informaticiens racistes ? Pas vraiment, mais on ne sait pas écrire un algorithme qui prédise les récidives – la question est trop complexe. Alors on utilise un algorithme d’apprentissage automatique. On lui apprend le travail à réaliser en l’entraînant sur un grand volume de données de décisions de juges, à imiter des humains. Ce sont ces décisions, qui présentaient des biais raciaux, que Compas a reproduites. Il faut avoir conscience des problèmes que l’utilisation de programmes informatiques peut soulever, vérifier ces programmes et les données qui sont utilisées pour les « entraîner », surveiller leurs résultats.

    Saint Thomas d’Aquin : pour lui, la justice est une morale ©wikicommons

    Notre exemple nous a permis d’insister sur un aspect essentiel de la responsabilité : l’absence de biais, l’équité. La transparence en est un autre. Nous pouvons, par exemple, nous inquiéter de ce que Facebook fait de nos données personnelles dans une relative opacité. Nous pourrions aussi parler de la loyauté : faut-il accepter un service qui propose des restaurants en disant ne tenir compte que des avis de consommateurs et qui remonte en réalité dans sa liste de résultats les commerçants qui paient pour ça ? La responsabilité sociétale des algorithmes a nombre de facettes.

    Les algorithmes peuvent nous permettre d’améliorer nos vies. Il faut corriger leurs défauts, combattre leurs biais inacceptables. Il peut s’avérer difficile de vérifier, d’expliquer leurs choix, s’ils proviennent de statistiques mettant en jeu des milliards d’opérations ou s’ils se basent sur des motifs complexes découverts par des algorithmes d’apprentissage. Pourtant, notre incompétence ne peut pas servir de justification pour autoriser le viol de principes moraux. Quand les effets des décisions sont sérieux, comme garder une personne incarcérée, sans doute vaut-il mieux attendre d’être certain du fonctionnement de l’algorithme, exiger qu’il explique ses choix et, bien sûr, faut-il pouvoir les contester.

    Serge Abiteboul, Inria et ENS, Paris

    Cet article est paru dans Le magazine La Recherche, N°531 • Janvier 2018
  • Les réseaux zéro-confiance : l’arme ultime contre les cyberattaques ?

    A l’occasion de la parution d’un livre blanc sur la cybersécurité réalisé au sein d’Inria, nous nous sommes interrogés sur un concept peu connu des non initiés : les réseaux zéro-confiance (zero-trust networks). J.J. Quisquater (Université de Louvain), Ch. Cuvelliez et J.M. Dricot (Université de Bruxelles) nous expliquent de quoi il s’agit et surtout nous aident à prendre conscience des risques induits par d’autres types d’architectures réseau. Pascal Guitton

    Avez-vous déjà remarqué combien le scénario d’une attaque informatique est d’une triste monotonie ? Lors de la visite d’un site infecté ou parce qu’il a cliqué sur un lien malveillant, un utilisateur reçoit gracieusement sur son ordinateur un petit bout de logiciel qui va établir un lien avec le monde extérieur, jusqu’au hacker. Le trafic qu’envoie ce logiciel (et celui qu’il reçoit) est chiffré et déguisé en trafic web normal. Et avec l’idée tenace qu’il ne faut se protéger que de l’extérieur, on ne se méfiera pas du  trafic qui a l’air légitime et qui part vers Internet. Depuis cet ordinateur infecté  qui est devenu le patient zéro, le hacker compte bien sur le fait qu’il peut sûrement parler avec d’autres machines dans le réseau privé virtuel (VPN) [1] au sein duquel il s’est installé. Avec un peu de chance, cette machine a même eu l’autorisation par le passé de communiquer avec des machines dans un autre VPN, plus critique. De proche en proche, le hacker étend son empreinte jusqu’à trouver la machine qui l’intéresse. L’exfiltration de données de cette machine (et donc de l’entreprise à laquelle elles appartiennent), qui fera bientôt la une des journaux, commence.

    Businessman with network security technology. Image de Suphakit73 via Shutterstock

    Quand on réfléchit aux raisons profondes du succès d’un tel scénario, on arrive toujours à la même explication : les réseaux des entreprises ont beau être segmentés en VPN, au sein d’une même zone et d’un même VPN, les machines se font confiance et ne savent donc pas si l’une d’entre elles est devenue une brebis galeuse. Ce n’est qu’aux frontières des VPN qu’un peu de méfiance s’installe via des pare-feux et encore, uniquement sur base d’un contrôle sommaire de quelle machine (adresse d’origine) envoie du trafic à quelle machine (adresse de destination). C’est oublier que sur son réseau, il y a les utilisateurs, les employés, les systèmes internes (la gestion des salaires, le système d’inventaire), les serveurs web. Vous avez sans doute codifié correctement qui peut accéder à quoi : les employés n’ont besoin d’avoir accès qu’aux systèmes internes, les serveurs web ont besoin d’avoir accès à des bases de données qui contiennent les données à afficher ; tout cela est bien segmenté. Mais il y a les exceptions dans le pare-feu (firewall) qui permettent aux employés d’avoir accès à Internet ou à des serveurs sur un autre site ou, encore, qui permettent à votre web developer d’avoir accès aux serveurs web en production dans la zone démilitarisée… Tout cela se fait en franchissant allègrement les frontières des VPN. Et puis, tous ces employés utilisent peut-être un système de partage de fichiers mais tous n’ont pas mis à jour le logiciel en question. Certains sont vulnérables à une attaque récemment rendue publique.  Le hacker en profite et peut progresser ainsi d’une machine à l’autre. Tant que les réseaux fonctionneront ainsi, les attaques classiques auront de beaux jours devant elles.

    Internet, le premier  réseau zéro-confiance

    Il  est pourtant un autre réseau avec lequel on interagit tous les jours et où on ne fait confiance à rien, ni à personne : Internet. L’idée des réseaux zéro-confiance est alors simple : appliquons cette méfiance, aussi à l’intérieur de son propre réseau. Un réseau zéro-confiance est considéré comme toujours et tout le temps hostile : il contient en permanence des menaces qui viennent de l’intérieur et de l’extérieur. La méfiance est portée à l’extrême : l’utilisateur, l’appareil qu’il utilise et le trafic réseau qu’il génère doivent toujours être authentifiés. Mieux : les politiques de sécurité doivent être évolutives en fonction du comportement de l’usager selon qu’il travaille d’un web café ou du bureau.

    Les réseaux traditionnels sont au contraire partitionnés en zones (VPN) qui contiennent un ou plusieurs pare-feu(x). Ces zones reçoivent un certain degré de confiance qui leur octroie des privilèges et donc, le niveau de ressources auquel on a accès. Dans un réseau zéro-confiance, les machines ne doivent pas seulement être protégées de l’extérieur, elles doivent être protégées l’une de l’autre dans le réseau et prouver en permanence qui elles sont.  L’authentification dans les réseaux zéro-défaut est triple : la machine doit être authentifiée, prouver qui elle est, l’utilisateur et l’application (car certaines applications fonctionnent de manière autonome) doivent aussi prouver qui ils sont et le trafic doit être tenu confidentiel, donc chiffré.

    Le protocole IEEE 802.1X se rapproche un peu de ce modèle car il authentifie d’abord la machine qui se connecte au réseau avant d’authentifier l’utilisateur qui  est dessus. À la place d’une organisation en VPN, la sécurité d’un réseau zéro-confiance obéit à un modèle en deux couches : la couche donnée (data plane) et la couche contrôle (control plane).  Le control plane joue le rôle de chef d’orchestre. Un degré de confiance (trust score) est en permanence calculé pour chaque ressource du réseau, une machine, une application, un utilisateur. Ce degré de confiance permet alors au control plane de donner, dynamiquement ou non, accès au réseau aux ressources qui le demandent.

    Au final, au sein d’un réseau zéro-confiance, les entités se parlent de manière chiffrée, uniquement compréhensible entre elles, entités qui se sont authentifiées avant de commencer leur discussion.  Les flux de trafic sont sûrs, les origines et destination le sont tout autant. Leurs identités sont prouvées cryptographiquement par un système de certificat (web of trust ou CA), exactement comme quand on accède à des sites web https. Tout ceci demande une automatisation poussée pour que ces mécanismes complexes soient transparents pour l’utilisateur final. La promesse des réseaux zéro-confiance, c’est de mettre fin à l’idée que plus de sécurité sur le réseau se fait toujours au détriment de la commodité de l’utilisation.  Les réseaux zéro-confiance sont aussi rendus possibles par la capacité de calcul que tous les appareils ont acquise, du plus petit au plus grand. Avec l’avènement des clouds, qui n’est rien d’autre qu’un réseau public, c’est plus que jamais la logique des réseaux zéro-confiance qu’on devrait leur appliquer. Pourtant, aujourd’hui, on essaie de prolonger la logique des VPN et autre types de gestions d’accès de son propre réseau à celle d’un AWS [2] ou d’Azure. L’épisode Snowden nous a montré qu’on ne peut pas  faire totalement confiance à une infrastructure dont on ne maîtrise pas l’implantation. D’ailleurs, même au sein de votre propre data center, vous devriez chiffrer le trafic !

    Les VPN, une voie de contamination souvent oubliée

    Mais d’où viennent les VPN et leur logique qui semble être à l’origine de beaucoup de maux ? Pas d’un modèle de sécurité mûrement réfléchi mais de la manière dont les réseaux d’entreprise se sont petit à petit connectés à Internet. Ce fut d’abord le serveur mail : les mails furent le premier service Internet que voulurent les entreprises pour leurs employés. Ensuite vint le site web (élémentaire) qui assurait une présence de la société sur Internet.  On isola bien vite les serveurs web et email entre le réseau interne de l’entreprise et Internet. La zone dite démilitarisée (DMZ) isolée par des pare-feux, pour éviter qu’une intrusion réussie n’aille plus loin, était née. Après, il fut question d’octroyer un accès internet à tous les employés mais sans leur donner pour cela une vraie adresse IP, ce qu’on faisait aux premières heures du Net. Le concept de traduction d’adresse réseau (NAT), et donc de VPN, à l’intérieur même du réseau d’entreprise s’en est suivi, le pare-feu cumulant bien son rôle avec celui de serveur NAT.

    La mobilité des employés entre le bureau et la maison fut une autre épine pour la sécurité de l’entreprise : la solution de facilité consistait à connecter le portable ramené chez soi en le rattachant au réseau de l’entreprise. Ainsi, pensait-on, il devenait (virtuellement) un ordinateur du lieu de travail et bénéficiait des mêmes niveaux de sécurité. La connexion internet généralisée est ensuite arrivée. Ce même PC (qui devenait le PC familial) fut donc alors connecté à la fois au réseau d’entreprise et à l’Internet. Il devient donc ainsi une passerelle entre un monde sans sécurité (l’internet) et le cœur même du réseau de l’entreprise, évitant ainsi tous les niveaux de sécurité mis en place à l’entrée de celle-ci.

    En guise de conclusion

    Les réseaux zéro-confiance, un concept plus qu’une technologie, veulent remettre tout cela à plat. Ils vont plus loin que de réduire des VPN à des réseaux mono-machine.

    D’une certaine manière,  les réseaux zéro-confiance portent mal leur nom : ils continuent bien à faire confiance à l’utilisateur, plus que jamais même, car une fois la confiance accordée, il l’accompagne pour lui donner accès aux ressources qu’il demande en garantissant sa sécurité  sans affecter sa facilité d’usage…

    J.J. Quisquater (Université de Louvain), Ch. Cuvelliez et J.M. Dricot (Université de Bruxelles)

    [1] Dans le contexte d’une entreprise, on appelle VPN un sous-réseau logique (sans connexions physiques dédiées) dans le réseau global de l’entreprise au sein duquel les machines sont connectées directement les unes aux autres. Ce sous-réseau coïncide souvent avec une équipe, un département, un étage, une fonction, un site même parfois. Ce VPN est  isolé, protégé  des autres VPN. Au sein d’un VPN, les machines ne sont pas censées ne pas avoir confiance les unes envers les autres. Ensemble, ces VPN forment le réseau de l’organisation.  Si les VPN sont limités et confinés à l’intérieur du réseau local (Local Area Network ou LAN) de l’entreprise, on les dénomme VLAN (Virtual LAN). Si le réseau de l’entreprise utilise Internet comme infrastructure pour se construire, le  terme VPN  est alors utilisé. Un VPN peut interconnecter des VLAN entre sites par exemple. L’accès au réseau de l’entreprise depuis l’extérieur (extranet, accès des employés) est aussi appelé VPN..

    [2] AWS : Amazon Web Service, l’offre cloud de Amazon

  • Impacts environnementaux du numérique : de quoi parle-t-on ?

    Les activités humaines sont pour une très grande part responsables du dérèglement climatique auquel nous faisons déjà face. L’émergence du numérique, ce choc culturel auquel nous nous intéressons dans Binaire, peut également être interprétée comme un choc environnemental pour la planète : en quelques décennies, nos smartphones, nos ordinateurs ou encore le web ont déjà consommé beaucoup d’énergie et de ressources. Beaucoup certes, mais combien ? Et surtout, quelles sont nos alternatives ? Françoise Berthoud, ingénieure de recherche en informatique à Grenoble, dirige le Groupement De Service EcoInfo : « Pour une informatique éco-responsable ». Elle nous donne ici un aperçu des travaux réalisés par ce collectif de scientifiques. Antoine Rousseau

    Pour un secteur dont l’impact à la fois social et environnemental est de plus en plus grand, l’informatique utilise un vocabulaire très éthéré : virtualisation, dématérialisation, cloud, intelligence artificielle, avatar… Dès lors, rien d’étonnant à ce que le numérique ne figure pas parmi les secteurs à fort impact sur les émissions de Gaz à Effet de Serre (GES). En France, on y trouve le transport, le résidentiel/tertiaire (essentiellement le chauffage), l’industrie manufacturière, l’industrie de l’énergie, l’agriculture et enfin le traitement des déchets. Point de numérique !


    Voilà qui paraît confirmer les idées reçues. En outre, même si on s’accorde sur une part de 10% de la consommation électrique mondiale  consacrée au numérique (rapport du Shift Project 2018), cela ne représente pas plus de 3 % de l’énergie totale. Sans être négligeable, ce chiffre ne paraît pas être de nature à inquiéter. Par ailleurs, il existe aujourd’hui de  nombreux travaux de recherche qui proposent des pistes sérieuses pour augmenter l’efficacité énergétique des réseaux, des  centres de données, des systèmes d’alimentation autonome, des serveurs, etc. Enfin, les apports du numérique par rapport à l’environnement sont incontestables sur les aspects mesure, consolidation d’informations, modélisation ou simulation du changement climatique, de la montée des eaux, de l’effondrement de la biodiversité et du gaspillage des ressources non renouvelables. Il est même tentant de considérer que l’utilisation du numérique pourrait permettre de réduire des émissions de GES dans d’autres secteurs, comme le promet le rapport GeSI Smarter2020 (et son actualisation Smarter2030).

    Impacts environnementaux du numérique : de quoi parle-t-on ?

    Les principaux types d’impacts écologiques générés par les technologies numériques au cours de leur cycle de vie sont :

    • Les pollutions et dérèglements engendrés par les émissions de Gaz à Effet de Serre (GES), dûs principalement à la production de l’énergie (très carbonée en Asie, aux États-Unis et sur les sites d’extraction des métaux). Ces émissions de GES participent au réchauffement climatique et à l’acidification des océans.
    • Les pollutions des eaux, des sols et de l’air à proximité des sites d’extraction, de raffinage des métaux mais aussi des usines de fabrication dans une certaine mesure et des sites « informels » de traitement des déchets d’équipements électriques et électroniques (DEEE). Ces pollutions sont responsables d’une perte de biodiversité et de toxicité humaine.
    • L’épuisement de ressources non renouvelables comme les métaux.

    À ces impacts environnementaux, s’ajoutent des impacts sociaux et sociétaux liés notamment aux conflits armés dans certaines zones d’extraction de certains métaux (République Démocratique du Congo pour le Tantale par exemple) ou aux conflits d’usage de l’eau (Amérique du Sud pour les mines de Cobalt par exemple).

    Une grande partie de ces impacts ne nous touche pas directement du fait de notre éloignement géographique des zones concernées et ceci explique en grande partie les idées reçues de « propreté » de ces technologies. Il semblerait même que nous soyons collectivement et volontairement aveugles face à ces impacts.

    Alors, le numérique pose-t-il problème pour l’environnement ? Pour le savoir, il faut considérer plusieurs angles du problème.

    Pour commencer, reprenons les gains potentiels du numérique sur d’autres secteurs. Les techniques d’optimisation, de substitution de processus par des approches numériques ont a priori de nombreux atouts : le remplacement de la facture papier par la facture électronique, le livre par le e-book, l’optimisation des transports grâce au GPS, l’optimisation énergétique des bâtiments, la prise en compte de multiples sources dans le transport d’énergie, les applications qui permettent le co-voiturage, le télétravail etc. Ces outils devaient non seulement apporter des gains directs sur le confort ou la santé, ouvrir de nouvelles possibilités jusque-là inexistantes, mais aussi permettre des réductions significatives de GES dans les secteurs concernés, limiter la consommation de ressources non renouvelables ou réduire la destruction de la nature. Malheureusement, les quelques études complètes qui existent sur ces sujets démontrent que cet a priori tient plus de la croyance que du fait scientifique ! Le cas du télétravail est intéressant parce qu’il implique le secteur des transports qui est l’un des plus émissifs aujourd’hui dans nos pays occidentaux. De nombreux auteurs ont tenté un chiffrage précis, en essayant de prendre en compte toutes les dimensions du télétravail : transports professionnels mais aussi surface nécessaire au domicile versus locaux professionnels, transports personnels, distance au travail, équipements numériques, etc.

    Figure 1 : Télétravail et émissions de GES

    Il en ressort que la réduction des émissions de GES liés à une réduction du nombre de trajets pendulaires est partiellement compensée par des augmentations de GES directes ou indirectes (par exemple besoin d’une surface supplémentaire et de chauffage à la maison, éloignement du domicile, etc.). Les gains annuels du télétravail en termes d’émissions de GES, à l’échelle d’un pays comme la France – restent positifs mais faibles, loin du potentiel espéré.   Il en est de même dans le cas de la dématérialisation qui jusqu’à présent n’a pas permis de réduction de la production de papier à l’échelle mondiale. Finalement, à notre connaissance, il n’y a pas d’études sur les smartbuiding et autres technologies « smart » qui prennent en compte la fabrication de tous les objets connectés et infrastructures nécessaires à leur fonctionnement, leur recyclage, et l’énergie nécessaire à leur fonctionnement. Il n’est donc pas possible de conclure sur des  gains environnementaux significatifs !

    Figure 2 : Effet rebond (illustration Eric Drezet)

    Un autre phénomène très connu en économie, appelé effet rebond,  se produit lorsqu’un processus, une technique gagne en efficience (moins de moyens nécessaires pour un résultat identique). Ce gain d’efficience peut porter sur n’importe quelle ressource : monétaire, énergétique, temporelle, spatiale, etc. Alors qu’on pourrait s’attendre à une moindre utilisation des ressources ainsi libérées (énergie, temps, place, ..), ces « vides » sont très rapidement « remplis » soit de la même ressource, soit par une autre ressource. L’effet rebond peut ainsi aboutir à un dépassement des consommations initiales. Ainsi, l’omniprésence des écrans numériques n’aurait pas été possible sans leur faible épaisseur et les progrès en termes de consommation électrique, l’explosion du nombre d’objets connectés est rendue possible par la miniaturisation de l’électronique et l’efficacité des connections au réseau. Dans les deux cas, le volume occupé ou la consommation énergétique totale (en incluant la fabrication) ont de loin dépassé les économies imaginées initialement.

    Ces effets indirects et rebond expliquent sans doute pour une bonne part la non réalisation des bénéfices environnementaux potentiels du numérique et appellent à une approche plus systémique dans les réflexions conduites en vue de mieux maîtriser ces effets contre-productifs.

    En quoi le numérique représente-t-il une menace pour l’environnement ?

    On observe une explosion de la demande de services numériques, dans les pays industrialisés mais aussi dans les pays en voie de développement. Explosion des services numériques, en diversité et par rapport au nombre d’usagers, explosion du volume des données transportées et stockées. Avec un taux de croissance de 9% par an de la consommation électrique, il faudrait une révolution technologique pour continuer à satisfaire la demande au même rythme ! Aujourd’hui 80% de nos réseaux sont occupés par des vidéos, le service proposé par Netflix occupant à lui seul plus de 10% de la bande passante. Rien qu’en France la demande double tous les ans ! (plus vite que la fameuse Loi de Moore concernant le doublement de la puissance des ordinateurs tous les deux ans !)

    Figure 3 : cycle de vie (illustration Eric Drezet)

    Or toute cette circulation d’information nécessite des équipements « terminaux » (nos smartphones et autres tablettes ou ordinateurs), des serveurs, des espaces de stockage, des câbles, des routeurs etc. Pour l’essentiel et compte tenu de la faible durée de vie de ces équipements (moins de 2 années en moyenne pour un smartphone), l’essentiel de leurs impacts environnementaux se concentrent pendant les phases d’extraction des ressources (en particulier les métaux) et de fabrication : 45% des émissions de GES, l’essentiel de l’épuisement des ressources et une grosse proportion de la pollution chimique. Le transport alourdit la facture écologique surtout lorsqu’il est effectué en avion. Quant aux impacts relatifs au traitement des déchets électroniques, ils sont difficiles à estimer tant le devenir des e-déchets est mal  documenté à l’échelle mondiale. Même en France, seuls 50% de nos équipements électroniques en fin de vie suivent une filière adaptée. Ce qui, à cause des pertes pendant le recyclage et des impossibilités technologiques à recycler certaines matériaux aboutit à un recyclage matière finalement très faible (de l’ordre de 3% du poids des smartphones-déchets par exemple).

    Et si nous ouvrions enfin les yeux ?

    Chaussons de nouvelles paires de lunettes ! Regardons de côté ! Il ne s’agit pas de condamner le numérique mais d’en voir les dessous pour réaliser que des populations, des villes voire des pays entiers souffrent et supportent nos excès et que des zones naturelles sont désormais polluées durablement.

    En dépit de la valeur intrinsèque de ces objets et du progrès technologique, la pérennité des objets électroniques ne résiste pas à l’obsolescence  systémique générant un gaspillage colossal d’énergie, de matériaux, en particulier à cause de la dynamique du secteur, des effets de mode et des effets de dépendance entre les couches logicielles et matérielles.

    Dans le même temps, les technologies de l’information et de la communication réduisent notre autonomie (notre capacité à nous nourrir, à communiquer, à nous déplacer en toute liberté) en nous rendant de plus en plus dépendants aux objets électroniques de notre quotidien. Et donc de plus en plus dépendants, pour se déplacer, se soigner et se nourrir à des ressources, des savoir-faire qui viennent de l’autre coté de la planète. Ces technologies participent très largement à la progression de l’interdépendance de tous les secteurs : la production d’énergie, la production de nos aliments et leur distribution, la médecine, la finance, l’éducation, la santé, les services publics etc. Dans cet environnement ubiquitaire, pas un secteur, pas un domaine de notre vie n’échappe à ce phénomène « tech».

    À l’heure où la sobriété semble être la seule voie à envisager dans le contexte d’une planète à ressources finies, à l’heure où les risques de ruptures d’approvisionnement dues aux conséquences du réchauffement climatique sont pris très au sérieux, est-il raisonnable de nous rendre aussi dépendants de technologies d’une intensité énergétique énorme et qui nécessitent des déplacements de matériaux, de matières, de composants, d’équipements sur toute la surface de la terre et dans tous les sens ?  Est-il raisonnable de construire tout notre avenir sur un numérique hautement non résilient ?

    Et si, à côté des instituts d’ «intelligence artificielle», à côté de nos mails, réseaux sociaux et autres bibliothèques numériques, nous redonnions une place d’honneur ce qui fait notre humanité, à nos capacités relationnelles, nos émotions, notre joie, notre capacité de coopération, nos capacités d’empathie et notre intelligence naturelle pour construire un monde désirable, où le temps ne se compterait plus en nanoseconde, en seconde mais en heure, en jours, en mois. Un temps où on ne serait pas pris en otage par la cadence de nos processeurs et la vitesse de nos réseaux, un temps où il deviendrait possible de penser le futur ! C’est mon rêve, et j’aimerais le partager avec vous.

    Françoise Berthoud, ingénieure de recherche en informatique au CNRS au sein du Laboratoire de Physique et Modélisation des Milieux Condensés

    Conférence (vidéo) de F. Berthoud sur ce thème dans le cadre du cycle Comprendre et agir (Grenoble, Novembre  2018).

  • Le prix du numérique

    Tout est gratuit avec le numérique ! Ou pas.  Nous savons bien que « quand c’est gratuit, c’est nous le produit ». Mais au delà de ce constat, prenons le temps de lire ces quelques lignes pour comprendre plus profondément quel est le prix de ce numérique qui envahit notre quotidien, grâce à Serge Abiteboul. Thierry Viéville.
    ©wikimédia

    Quand on cherche à établir le « prix du numérique », c’est vite la confusion. Les services du Web sont souvent gratuits, mais le coût d’une usine moderne de microprocesseurs peut être astronomique. Le fabricant taïwanais TSMC vient notamment de lancer la construction d’une usine de fabrication de puces de 5 nanomètres – une miniaturisation extrême des circuits – prévue pour 2020, pour près de 20 milliards de dollars ! Pour prendre un autre exemple, quel est le point commun entre la céramique d’une amie, Nathalie Domingo, et un smartphone sophistiqué ? Le prix. D’un côté, quelques heures de labeur d’une grande artiste ; de l’autre, les résultats de mois de travail d’une armée de chercheurs brillants et d’ingénieurs de talent. D’un côté, le luxe d’une pièce unique ; de l’autre, des fonctionnalités extraordinaires. La conception d’un smartphone revient très cher mais, comme il est fabriqué massivement dans des usines hyper-automatisées, son coût marginal de production très bas fait qu’il y en a plus de 30 millions en France aujourd’hui.

    ©casden.fr

    Nous nous sommes également habitués à des services gratuits sur Internet, que ce soient des moteurs de recherche, comme Google ou Qwant, des réseaux sociaux, par exemple Facebook, ou des services de musique, tel Deezer. Accessibles quel que soit le niveau de revenu de l’utilisateur, ces services géniaux sont principalement financés par la publicité ou éventuellement par des abonnements. Leurs coûts d’exploitation sont modestes, du fait de la baisse des prix des ordinateurs et du relativement faible nombre d’employés. En avril 2013, l’application de messagerie instantanée WhatsApp comptabilisait 200 millions d’utilisateurs dans le monde, avec seulement 50 employés. Le logiciel d’un service du Web peut, lui, être reproduit à l’infini à un coût nul. C’est un bien non rival – que j’utilise WhatsApp n’empêche personne de faire de même. Reste à construire des fermes de serveurs pour accueillir les données, mais elles sont mutualisées entre tous les utilisateurs. Pour Facebook, en 2011, le coût d’exploitation n’était que d’environ 1 dollar par utilisateur mensuel actif. Chaque utilisateur supplémentaire apporte plus de profit et, effet réseau oblige, accroît l’attractivité du service. Avec la publicité, les géants d’Internet sont assis sur des mines d’or.

    cette image sur le logiciel libre est libre de droit 🙂

    Dans ce contexte, il faut citer le cas des logiciels libres ou ouverts. Mis à disposition de tous, ils deviennent en quelque sorte des « biens communs ». Ce modèle se développe réellement : les serveurs du Web sont souvent des logiciels ouverts, comme nombre d’outils de programmation utilisés en apprentissage automatique.

    Malgré tout, n’allez surtout pas expliquer aux cadres d’une grande banque que l’informatique ne coûte rien (j’ai essayé). Vous les verrez grimper au rideau : « On voit bien que ce n’est pas vous qui payez les machines et les salaires des informaticiens. » Mesdames et messieurs qui dirigez de grandes entreprises, relativisez ! Si des ordinateurs font une part importante du travail, – disons 80 %, pour 20 % des coûts -, ce n’est pas cher, même si cela représente une grosse somme d’argent.

    Vous pouvez néanmoins poser la question de savoir pourquoi ce coût. Une première explication tient aux exigences de qualité. Quand un service de votre téléphone dysfonctionne, c’est souvent embêtant, mais acceptable. Quand, dans une transaction bancaire, le bénéficiaire est crédité, mais que le logiciel oublie de débiter le payeur, ça l’est moins. Les entreprises exigent, à juste titre, un haut niveau de sûreté et de sécurité de fonctionnement. La résilience aux pannes (sûreté) et aux attaques (sécurité) se paie. Une autre explication vient de la complexité des grandes entreprises. De fait, chacune est unique. Ainsi, une grande banque exige la conception, le développement, le déploiement, la maintenance de logiciels complexes « sur mesure » de grande qualité. Comme tout cela est unique, pas question de mutualiser les coûts. La combinaison « qualité et sur-mesure », cela ne vous rappelle pas la haute couture ? Quand le directeur des systèmes d’information vous présentera une note un peu salée, pensez que vous vous offrez du Dior ou du Chanel…

    Serge Abiteboul, Inria et ENS, Paris

    Cet article est paru dans Le magazine La Recherche, N°534 • Avril 2018

  • Les Big Data peuvent-ils faire la pluie et le beau temps ?

    Éric Blayo est professeur à l’Université de Grenoble Alpes où il est membre du Laboratoire Jean Kuntzmann. Il est membre de l’équipe AIRSEA après avoir dirigé pendant 10 ans l’équipe-projet commune MOISE (Inria-CNRS-UGA) Il s’intéresse à la modélisation mathématique et numérique des sciences de l’environnement (météo, système océan-atmosphère, climat). Ces processus complexes doivent selon lui faire l’objet de modélisation (éventuellement à plusieurs échelles de temps et d’espace) et d’assimilation de données qui permettent de corriger des modèles par essence toujours imparfaits. Pour Binaire, il nous parle ici de l’apport des Big Data dans son domaine de recherche. Antoine Rousseau. Cet article est publié en collaboration avec The Conversation.
    Éric Blayo, Crédit Photo Inria

    La prévision météorologique fut un des tout premiers domaines scientifiques à faire usage de la simulation numérique : dès la fin des années 40 (première prévision numérique du temps par une équipe pilotée par Jule Charney et John Von Neumann en 1950), et même virtuellement 30 ans plus tôt dans les travaux visionnaires de Lewis Fry Richardson, qui en posait les bases et décrivait même ce que pourrait être une forecast factory (usine à prévision) météorologique. Depuis lors, des systèmes de prévision ont été développés progressivement pour toutes les sciences environnementales : météorologie, océanographie, pollution de l’air, hydraulique fluviale, climat… Mais alors, forts de décennies de travail et d’expérience, bénéficiant de la progression exponentielle de la puissance de calcul, alimentés par des quantités de données (notamment satellitaires) colossales, et maintenant baignés dans la révolution de l’intelligence artificielle, pourquoi ces systèmes numériques ne fournissent-ils pas encore des prévisions quasi parfaites ?

    Un système de prévision, qu’est-ce que c’est ?

    Pour tenter de comprendre cela, commençons par décrire ce qu’est un système de prévision dans ces domaines applicatifs. Avant tout, il est basé sur la connaissance de la physique des phénomènes mis en jeu. Ces lois physiques, qui traduisent en général des principes simples comme la conservation de la masse ou de l’énergie, sont exprimées sous forme d’équations mathématiques. Beaucoup sont d’ailleurs connues depuis les travaux de grands scientifiques comme Euler, Fourier, Navier, Stokes, Coriolis ou Boussinesq il y a deux siècles. Ces équations, qui mettent en jeu vitesse, pression, température, sont toutefois trop complexes pour être résolues exactement, et l’on va construire un modèle numérique afin de les résoudre de façon approchée (mais pas approximative !). Autrement dit, on remplace l’équation mathématique exacte par une expression approchée calculable par un ordinateur.

    Mais, comme l’a dit Niels Bohr, physicien de génie et grand pourvoyeur de citations restées à la postérité : « Prévoir est très difficile, surtout lorsque cela concerne l’avenir ». Ainsi notre modèle numérique ne nous sera que de peu d’utilité pour prédire la situation de demain s’il n’est pas bien « calé », c’est-à-dire renseigné aussi précisément que possible sur la situation d’aujourd’hui : votre état de santé à l’issue d’une chute sera loin d’être le même suivant que vous trébuchez sur une plage de sable fin ou du haut d’une falaise de 30 mètres, et une connaissance parfaite de la loi de la gravitation n’y changera rien. Concrètement, cela signifie qu’il faut fixer les valeurs de toutes les variables du modèle à un instant donné, et donc utiliser pour cela les observations disponibles au même moment. Des techniques mathématiques très sophistiquées ont été développées pour cela, qu’on englobe sous le terme d’ « assimilation de données ».

    A ce stade, on dispose donc d’un système qui, utilisant les données sur l’état actuel, est capable de prédire un état futur. Pour parfaire le tout, on essaie même le plus souvent d’évaluer la fiabilité de cette prévision : c’est par exemple l’« indice de confiance » associé aux prévisions météo. Le montagnard, le marin, ou plus simplement le cycliste, connait son importance, et fera des choix prudents si l’incertitude est grande. Cette incertitude est évaluée généralement par des techniques de « prévisions d’ensemble », consistant à réaliser de nombreuses prévisions en perturbant légèrement à chaque fois un paramètre du système, comme son état initial. Si les prévisions demeurent très cohérentes entre elles, alors on dira que la prévision est fiable ; si au contraire elles présentent des disparités fortes, on considérera que la prévision est incertaine.

    Des erreurs, un papillon, et pourtant elle tourne !

    Un système de prévision très précis serait synonyme d’une incertitude très faible dans toutes les situations possibles. Or, dans ce domaine des fluides géophysiques, il y a des erreurs significatives à tous les stades :
    dès les équations, déjà : on ne comprend pas toute la physique, et on la représente donc imparfaitement. La physique à l’intérieur des nuages par exemple est encore bien loin d’être parfaitement comprise.
    dans la partie numérique ensuite, qui par essence est une approximation. Incapable, même avec le meilleur ordinateur du monde, de calculer la solution approchée en tout lieu et à chaque instant, on va se contenter de le faire sur un maillage (figure), c’est-à-dire en des points répartis géographiquement (les modèles numériques actuels en considèrent tout de même fréquemment la bagatelle de plusieurs dizaines ou centaines de millions). Ce faisant, on ne peut donc pas représenter ce qui se passe à des échelles plus petites que celle du maillage, et l’on va, soit choisir de l’ignorer totalement, soit tenter de simuler l’effet de ces petites échelles non représentées sur la solution : c’est ce que l’on appelle une « paramétrisation sous-maille », art extrêmement difficile.
    dans la description de l’existant enfin : on ne connait évidemment pas parfaitement la température actuelle en tout point de l’océan, ni la perméabilité du sol partout sur terre. Et si l’assimilation de données expliquée plus haut permet de remédier partiellement à cela, elle est basée sur l’utilisation de mesures qui par essence comportent des erreurs, instrumentales d’une part et de représentativité d’autre part (pour faire court : on ne mesure pas forcément directement la quantité représentée dans le modèle, et en plus cette mesure n’est ni à un endroit ni à un instant correspondant au maillage du modèle).
    Si l’on ajoute à cela le fameux effet papillon popularisé par Ed Lorenz, c’est-à-dire le fait que, pour certains écoulements ou certaines échelles, une légère différence initiale puisse amener à une situation totalement différente après quelque temps, il y a finalement de quoi être pessimiste quant à la capacité à prévoir de façon fiable. Et pourtant, quoiqu’on en dise dans la file d’attente à la boulangerie ou à la boucherie, la qualité des prévisions est maintenant bien meilleure qu’il y a quelques années, et a fortiori décennies. Soyons honnêtes : si nous râlons aujourd’hui contre une prévision météo, ce n’est pas parce qu’il a plu toute la journée alors que celle-ci était annoncée ensoleillée, mais plus vraisemblablement parce que la pluie est arrivée deux heures plus tôt qu’annoncée, ou que le front de nuages était décalé de 40 kms.

    La puissance de calcul et l’IA à la rescousse ?

    La précédente litanie des erreurs montre qu’il reste de la marge pour de futures améliorations. Les progrès de l’informatique et le boom de l’intelligence artificielle doivent-ils nous rendre optimistes et nous faire miroiter des lendemains qui, à défaut de chanter, verraient leur météo parfaitement anticipée ? C’est en fait plus compliqué qu’on ne pourrait le croire.

    À quoi servent des ordinateurs plus puissants ?

    • A utiliser des méthodes numériques plus coûteuses, car plus précises : la solution numérique est alors plus proche de la solution exacte des équations mathématiques. C’est bien, mais comme on l’a vu, ces équations sont incomplètes et cette erreur d’approximation numérique n’est qu’une petite partie du problème.
    • A augmenter la « résolution », c’est-à-dire la finesse du maillage. On pourrait alors se dire qu’on va là encore, mécaniquement, diminuer l’erreur d’approximation numérique. C’est vrai… mais le diable se niche dans les détails. En augmentant la résolution, on représente une physique plus riche, de nouveaux phénomènes sont présents, dont certains peut-être mal compris, des rétroactions apparaissent dont on ne soupçonnait pas forcément l’ampleur. Et il faut in fine comprendre tout cela, et peaufiner un nouveau réglage de ce que nous avons appelé la « paramétrisation sous-maille ». Bref, augmenter la résolution est en général encore absolument nécessaire pour les applications dont nous parlons, mais s’accompagne d’un lourd travail de compréhension physique et de réglage avant d’aboutir à un réel gain en précision.
    • A mieux quantifier l’incertitude (améliorer l’indice de confiance), en rendant possible de plus nombreuses simulations.

    Et l’intelligence artificielle dans tout ça ? On nous explique que l’IA est capable de tout analyser et de tout prédire. Alors, peut-elle aider ici ? A vrai dire, l’apport de l’IA est particulièrement spectaculaire sur des données disparates et/ou concernant des sujets dont le comportement repose sur des lois mal connues, voire inexistantes. Or, pour les fluides géophysiques, les équations mathématiques utilisées actuellement sont d’ores et déjà une bonne représentation de la vraie physique, et l’assimilation de données permet souvent de combiner mesures et modèles de façon quasi optimale. On est donc dans un contexte où l’IA ne doit donc pas être attendue comme le messie. Par contre, elle peut très certainement s’avérer extrêmement utile pour tout ce qui se situe « hors cadre ». Par exemple tout ce qui relève d’une physique encore mal comprise dans ces systèmes de prévision : les interactions complexes entre l’océan et l’atmosphère, la micro-physique, les paramétrisations sous-mailles… Les scientifiques saisissent en ce moment tous ces sujets à bras le corps.

    Et l’humain dans tout ça ?

    N’oublions toutefois pas, dans ce large panorama, un facteur essentiel : le savoir-faire humain, le tour de main du scientifique modélisateur. Les systèmes de prévision sont des mécaniques complexes, et celui-ci les règle minutieusement, et réalise en fait de la « compensation d’erreur ».  De la même façon que, pour obtenir une meilleure tarte, on compensera sur le moment la trop grande acidité des fruits à notre disposition en dépassant la quantité de sucre prescrite par la recette, le modélisateur sait adapter son système pour qu’il fournisse les meilleurs résultats possibles. Une conséquence directe en est qu’apporter au système ce qui devrait être une amélioration (une meilleure méthode, une nouvelle paramétrisation…) s’avère souvent décevant au premier abord, voire même détériore la qualité des prévisions. En effet, l’introduction de cette nouveauté met à terre le subtil équilibre des réglages du modèle. Ainsi, quand on pense pouvoir améliorer un élément d’un système de modélisation, le chemin est souvent encore long avant que cela n’améliore les prévisions elles-mêmes, car cela passe par une nouvelle phase de réglages.

    En guise de conclusion

    Plus que par bonds spectaculaires de lièvre sous EPO, comme ça peut être le cas dans dans certains domaines scientifiques où l’invention d’un nouvel instrument ou d’une nouvelle théorie engendre une véritable révolution, la connaissance et la prévision des milieux géophysiques comme l’atmosphère ou l’océan progressent à petits pas réguliers de tortue : moins romanesque, mais tout aussi efficace sur la durée. A cet égard, l’IA est une nouvelle ressource venant enrichir le panel des outils disponibles. Sans révolutionner la discipline, elle permettra sans nul doute de nouvelles avancées. La tortue poursuit son chemin.

    Éric Blayo, professeur à l’Université de Grenoble Alpes

  • L’informatique en stream

    Concours de vidéos : #ScienceInfoStream
    « L’informatique en stream »

    • Vous êtes passionné(e)s de science informatique ?
    • Vous aimez les défis ?
    • Vous vous sentez l’âme d’un ou d’une vidéaste ?


    N’attendez plus ! Prenez votre smartphone, webcam, ou caméra : vous avez moins de 256 secondes pour partager ces pépites de science qui vous fascinent.

    La Société informatique de France vous invite à participer à la deuxième édition de son concours.

    Votre vidéo, tournée en français, aura une durée comprise entre 27 (128) et 28 (256) secondes. Elle sera au format de votre choix (les formats libres, comme ogv, sont encouragés) et mise à disposition sur le web (via votre page personnelle ou via un site de streaming). La soumission se fera par email à l’adresse, une déclaration d’intention est attendue avant le 1er décembre 2018, la soumission finale devra arriver avant le 7 janvier 2019. Le mail contiendra, outre le lien, le titre de la vidéo et les noms et prénoms de son ou de ses auteur(s) avec une présentation succincte (âge, rôles respectifs dans le projet…).

    “Ressources humaines” 1er prix du concours 2018

    Un jury composé notamment d’informaticien(ne)s et de spécialistes de la médiation scientifique réalisera une première sélection de vidéos dont la diffusion et la promotion seront assurées par la SIF et ses partenaires. Trois d’entre elles seront ensuite choisies et recevront des récompenses allant de 500 à 1500 euros.  Les vidéos seront mises en ligne aussi par la SIF, de manière ouverte avec une licence Creative Commons choisie par l’auteur(e).  La remise des prix se déroulera lors du congrès de la SIF qui se déroulera les 6 et 7 février 2019 à Bordeaux en présence de nombreux intervenants prestigieux.

    Faire parler une machine à café” accessit ex aequo du concours 2018

    Le jury appréciera particulièrement les vidéos qui satisfont un ou plusieurs des critères suivants :

    – Originalité du sujet ou du point de vue utilisé pour le traiter,

    – Aptitude à susciter une vocation pour la science informatique,

    – Sensibilisation aux enjeux sociétaux de la science informatique,

    – Capacité à expliquer en langage simple un point de science informatique.

    Qui peut participer ?

    “Un ordinateur en lego pour votre salon” accessit ex aequo du concours 2018

    Toutes et tous, en individuel ou en équipe, de 5 à 105 ans

    Règlement et informations accessibles ici

    N’hésitez pas à regarder les vidéos primées lors de l’édition 2018

  • Nouvelles mises à jour disponibles

    Régulièrement, nous sommes informé.e.s des mises à jour que nous devons apporter à nos ordinateurs. Principal support des correctifs aux failles de sécurité apportés par les éditeurs de logiciels, leur utilité n’est pas discutable. Cependant, selon l’environnement de notre machine, leur mise en œuvre n’est pas toujours simple . Dans cet article, Charles Cuveliez et Jean-Jacques Quisquater nous apportent un éclairage sur ce sujet important en passant en revue les différents équipements concernés : les systèmes d’exploitations, les machines virtuelles, les téléphones portables, les micro-processeurs et enfin, plus complexe encore, l’arrivée de l’internet des objets qui pose des questions sans véritable réponse à ce jour. Pascal Guitton

    On le sait, un des meilleurs moyens de se prémunir contre les cyberattaques est de mettre à jour sa machine, le plus vite possible, PC, laptop ou smartphone. Mais a-t-on déjà songé à la complexité du mécanisme de mise à jour pour le fabricant ou pour le concepteur du système d’exploitation ou du logiciel ? Il doit y veiller au niveau mondial et pour des centaines de millions d’utilisateurs. Dans le cas de systèmes d’exploitation très utilisés, la mise à jour, suite à un bug ou une vulnérabilité, doit parfois couvrir l’ensemble des versions, qui ont été produites avec cette vulnérabilité. Que faut-il faire ? Privilégier la version la plus récente et ainsi protéger la grande majorité des clients (mais en rendant vulnérables les utilisateurs de versions antérieures) ou attendre que la correction soit prête pour toutes les versions (un délai supplémentaire mis à profit par les hackers) ?

    Puis se pose la question de savoir qui est responsable pour faire la mise à jour ? L’utilisateur final ? Le fabricant ? C’est là que la lecture des conditions imprimées en petits caractères du contrat de licence, que seuls des gens payés pour le faire lisent (en général quand il est trop tard), importe. Les mises à jour ne concernent pas que les systèmes d’exploitation mais aussi les logiciels, des appareils électroniques….

    Les systèmes propriétaires : Windows 10

    © wikicommons

    C’est Microsoft qui le premier n’a plus laissé le choix aux utilisateurs sur les mises à jour à installer. Désormais avec Windows 10, l’utilisateur reçoit un paquet de mise à jour que l’utilisateur doit installer dans sa globalité. C’était indispensable : les mises à jour sont conçues en partant de l’hypothèse que le PC sur lequel elles seront installées est déjà protégé des vulnérabilités précédentes ! Il y a les mises à jour qui résolvent des problèmes de sécurité et, de façon séparée, celles qui apportent de nouvelles fonctionnalités. Ces dernières sont optionnelles car elles peuvent créer des instabilités ou même des vulnérabilités dans d’autres logiciels installés sur la machine.

    Les utilisateurs peuvent d’ailleurs décider, avec Windows 10, de  rester avec les mêmes fonctionnalités pendant 10 ans, le temps de support garanti des OS. Ceci dit, on l’a vu avec Windows XP ou avec Windows Server 2003 : ces 10 ans sont rarement suffisants. Les demandes d’extension restent fréquentes.

    Ce n’est pas tout de déployer et distribuer la mise à jour. Encore faut-il s’assurer que la mise à jour est installée, ce qui peut prendre du temps, par exemple pour des machines sur lesquelles Windows et un autre système d’exploitation fonctionnent simultanément.

    Les logiciels open source : Linux

    © Larry Ewing

    Les logiciels open source ne sont pas moins sûrs que les logiciels commerciaux mais la conception des mises à jour y est forcément différente. Les logiciels open source sont de nature collaborative. Il n’y aucune décision centralisée possible qui décidera du jour pour pousser la mise à jour. C’est à l’utilisateur de s’en préoccuper : une manière de l’aider est d’être transparent au niveau des composants utilisés (souvent des logiciels ou bibliothèques libres d’accès eux-mêmes). Car si, dans l’idéal, ce serait au développeur du logiciel open source de le faire lui-même, comment s’assurer que ce soit bien le cas ? Ceux qui choisiront une version commerciale Linux attendront légitimement ce service de la part de la société qui a fait d’une version libre une version payante. La nature collaborative des logiciels libres peut avoir comme conséquence un temps plus long avant de découvrir une vulnérabilité. Ensuite, lorsqu’une mise à jour est disponible, il y a beaucoup de canaux via lesquels le déployer : GitHub, RedHat…  Et ne vous croyez pas à l’abri  des logiciels libres si vous vous en méfiez (vous auriez tort) car des logiciels commerciaux ne rechignent pas à les utiliser comme briques pour leurs propres produits. Cisco a ainsi eu de grandes difficultés pour les mises à jour de ses logiciels après la découverte de Heartbleed.

    Chaque logiciel open source est un projet à part entière et sa manière de réaliser les mises à jour lui est propre. Quand les développeurs qui maintiennent Open SSL déploient une mise à jour, elle est toujours qualifiée de mise à jour de sécurité et est très détaillée. Il n’en est rien pour les mises à jour des noyaux Linux. Elles ne sont jamais qualifiées de sécurité car la communauté Linux a pour philosophie de considérer que tout bug peut affecter la sécurité. Les utilisateurs de Linux doivent-ils alors installer les mises à jour du noyau, parfois hebdomadaires, au risque de rendre leur machine instable ? Ceci dit, les distributions de Linux prévoient une marche arrière possible en cas de comportement instable (i.e.: retour à une version antérieure). Dans d’autres cas, on interdit aux utilisateurs de revenir à une version antérieure, via une protection matérielle, pour les empêcher de revenir à un état vulnérable. Et puis, de toute façon, il n’y a entre développeurs et utilisateurs de logiciel libre, par définition, aucune obligation sur les mises à jour.

    Les  machines virtuelles et codes éphémères

    Schéma de machines virtuelles ©wikipédia

    Vous avez peut-être déjà entendu parler de machine virtuelle ? Il s’agit d’installer sur un ordinateur un logiciel qui vous donne l’impression d’utiliser un « autre » environnement. Par exemple, vous pouvez installer une machine virtuelle proposant Windows sur un ordinateur Linux de façon à pouvoir utiliser des logiciels fonctionnant sur l’un quelconque des deux environnements sans manipulation compliquée.

    Cette approche entraine que des mises à jour de sécurité doivent non seulement concerner le système d’exploitation natif mais aussi les logiciels s’exécutant grâce à la machine virtuelle. Les codes éphémères, souvent utilisés par des services Web que nous utilisons tous les jours engendrent un autre souci. Les versions de Javascript, le langage de programmation le plus utilisé pour offrir ces services, évoluent tellement vite qu’on ne sait parfois pas sur quelle version vulnérable ou non, un logiciel a été conçu.

    Les mobiles

    © wikicommons

    Passons maintenant aux téléphones mobiles qui sont partout mais dont les politiques de mise à jour du système d’exploitation ne sont pas reluisantes au point que les USA ont ouvert une enquête en 2016 à l’encontre du secteur pour manquement à la sécurité des consommateurs. Le problème, dans ce secteur, vient de la diversité des modèles de smartphones et des fabricants sur le marché sans compter les opérateurs mobiles, qui demanderont des customisations sur les modèles de tiers qu’ils vendent. Un système d’exploitation va donc exister sous des centaines de  variantes et il ne faut pas demander aux opérateurs aux capacités limitées de tester dans leurs laboratoires, quand ils le font, la sécurité de tous les appareils qu’ils proposent.

    Au prix où sont vendus les smartphones et à la vitesse à laquelle de nouveaux modèles remplacent les anciens, il est intenable, économiquement parlant, pour un fabricant de gérer les mises à jours de tous les modèles qu’il met sur le marché. C’est triste à dire mais c’est bien le prix et la popularité du modèle qui justifiera la durée pendant laquelle des mises à jour de sécurité seront proposées. Oui, il y a de fortes chances que votre mobile ne soit plus supporté depuis longtemps pour les mises à jour de sécurité. Oui, il y a de fortes chances que vous ne le sachiez pas en lisant ces lignes. Oui, vous n’avez pas été prévenus au moment où ce support  a été arrêté et le vendeur ne vous a rien dit au moment où vous l’avez acheté ! Plus étonnant encore est que la plupart des fabricants n’ont pas de politique établie sur la durée du support qu’ils fournissent. C’est au cas par cas, ce qui a rendu nerveux les autorités américaines. Tout dépend des conditions du marché mais pourquoi donc les fabricants établis depuis longtemps ne veulent-ils pas exploiter et partager leurs bonnes pratiques en la matière avec tout le recul qu’ils ont acquis ? Pire, les fabricants ne semblent même pas documenter tout ce qu’ils ont fait par le passé avec leurs anciens modèles : combien de mises à jour ils ont déployées, le temps pour les développer, la durée de la phase de test et le taux d’adoption d’installation parmi les clients, un retour d’expérience qui serait pourtant si utile à la sécurité et une pratique qui laisse un peu sans voix.

    On se trouve avec les mobiles dans la situation contradictoire où la richesse et la diversité de l’écosystème mobile rend, en contrepartie, la gestion de la sécurité des mobiles aléatoire en durée et en fréquence : la période de support ne semble pas dépasser 1 ou  2 ans ! Les fabricants préfèrent se focaliser sur les nouveaux modèles ou les plus chers ou les plus populaires.

    Les microprocesseurs

    © wikicommons

    Si les failles de sécurité Spectre, Meltdown et plus récemment Foreshadow ont montré que les microprocesseurs pouvaient être vulnérables, une situation pas suffisamment prise en compte en cybersécurité et par les concepteurs de logiciels, il ne faut pas aller si loin pour s’en méfier. Les fabricants de processeurs prévoient une couche logicielle (microcode), donc une couche intermédiaire entre le niveau logiciel le plus profond d’un système d’exploitation (par ex. le noyau linux) et le processeur ! C’est un outil de différentiation possible entre les clients qui équipent leurs appareils avec le processeur mais c’est une source de vulnérabilité possible de par la personnalisation autorisée. Il est aberrant qu’on ne puisse plus disposer de ce processeur sans cette couche logicielle même en le payant, ce qui signifie qu’on ne peut plus payer pour plus de sécurité !

    L’internet des objets

    © wikicommons

    La mise à jour des objets qui constitueront l’internet des objets (IoT) de demain est une toute autre histoire encore à écrire. Beaucoup d’entreprises ne s’en préoccupent même pas car elles considèrent que la durée de vie de ce qu’elles fabriquent est si courte que cela n’en vaut pas la peine. De plus, la diffusion et l’installation de mises à jour sur un très grand ensemble d’objets connectés est infiniment plus complexe que pour un ordinateur « simple ». C’est une erreur. Parfois ce sont les entreprises elles-mêmes  qui sont éphémères et il n’y a alors plus personne pour réaliser les mises à jour. Une solution pourrait être de forcer les sociétés en questions à confier leur code à des tiers de confiance. Ainsi, en cas de faillite ou de disparition, d’autres pourraient reprendre le flambeau au moins pour les mises à jour de sécurité. Le cycle de développement de l’internet des objets va être beaucoup plus rapide que celui d’un système d’exploitation. Beaucoup de développeurs ne prendront pas le temps de se préoccuper de la politique de mise à jour. Certains songent à une piste inspirée d’Alexa ou des autres enceintes intelligentes à la Google qui ont aussi pour vocation de gérer les objets intelligents. On aurait des hubs qui gèrent la sécurité de tous les objets dans la maison. Ils sauraient quels sont leurs composants logiciels. Utilisent-ils les dernières versions ? Car si les utilisateurs finaux sont désormais conscients que leurs PC sont vulnérables, doivent être mis à jour, comment les convaincre que le moindre petit objet qui a l’air si inoffensif communique avec d’autres machines via Internet et peut donc être contrôlé par un hacker !

    Pis, les objets de l’IoT n’auront ni l’autonomie ni la puissance de calcul suffisantes pour leur permettre d’héberger des cyberprotections dernier cri ou pour s’autoriser des mises à jour fréquentes, forcément consommatrices d’énergie.

    Pour finir

    Il ne faut donc pas croire que la messe est dite avec les mises à jour logicielles. Si elles sont désormais plutôt bien faites pour des systèmes très répandus comme Windows 10, ce panorama montre le chemin à parcourir presque partout ailleurs. La diversité dans les politiques de mise à jour met en évidence un pan de recherche à développer : quel type de gestion des mises à jour est-elle la plus efficace ? La réponse ne tient pas qu’au seul critère de la sécurisation : le taux d’adhésion des utilisateurs est important, la durée du support est primordiale (des mises à jour au top niveau qui s’arrêtent au bout d’un an laisse l’appareil plus vulnérable qu’avant en fin de compte), l’information au consommateur importe aussi pour qu’il puisse faire un choix raisonné pour son mobile. La sécurité n’est pas juste une question de technologie mais aussi d’usage, de comportement et de sensibilisation.

    Charles Cuvelliez (École Polytechnique de Bruxelles, Université de Bruxelles) et Jean-Jacques Quisquater (École Polytechnique de Louvain, Université de Louvain) 

    Pour en savoir plus :

    Software Update as a Mechanism for Resilience and Security:   Proceedings of a Workshop, Committee on Cyber Resilience Workshop Series; Forum on Cyber  Resilience; Computer Science and Telecommunications Board;  Division on Engineering and Physical Sciences; National Academies of Sciences, Engineering, and Medicine, 2017

    Mobile Security Updates: Understanding the Issues, Federal Trade Commission, Februari 2018

     

  • Numérique et éducation … vous avez dit #CreaSmartEdtech ?

    Et si on donnait des tablettes à tous les enfants pour qu’ils apprennent par eux-mêmes en jouant ? Ou … pas ! Les liens entre numérique et éducation provoquent des débats d’opinion sans fin. Mais qu’en est-il dans les faits ? Et surtout : comment outiller les professionnel·le·s de l’éducation face à ce que le numérique peut apporter, pour accompagner la transformation de l’éducation vers plus de sens et le développement de compétences clés du 21e siècle.. Il y a maintenant des formations qui adressent spécifiquement ces enjeux et aident à fournir des réponses, allons en découvrir deux. Thierry Vieville

    Le Master Education et Technologie (EdTech) [dit AIRE] du Centre de Recherches Interdisciplinaires (CRI Paris / Université Paris Diderot et Université Paris Descartes) est la première formation universitaire consacrée à ce nouveau champ d’activité en France. Il prépare, à Paris, des chercheur·e·s, entrepreneur·e·s, enseignant·e·s, médiateur·e·s, à comprendre la transformation de l’éducation à l’heure du numérique et à concevoir des projets utiles, pertinents et ambitieux avec les meilleurs outils numériques. Ce master repose sur une pédagogie créative et interdisciplinaire.

    ©UCA

    L’Université Côte d’Azur (UCA) ouvre un nouveau programme pour former les professionnels du numérique éducatif, avec 90% de cours en ligne et deux semaines intensives pour faciliter la participation d’étudiants internationaux. On y développe une approche du numérique à la fois participative, critique et créative, tout en incluant résolument les enjeux sociaux et économiques. On y aborde tant la compréhension des sciences du numérique, que les processus d’innovation dans l’intégration du numérique en éducation, les démarches de co-création ou encore l’apprentissage par le jeu et l’approche « par le faire ».

    https://margaridaromero.files.wordpress.com/2016/11/diapositive11.png
    © margaridaromero.wordpress.com

    Une démarche et une méthode commune.

    À notre connaissance, ce sont les deux seules formations disponibles sur notre territoire, au delà de formations limitées à l’utilisation de technologies. Les deux formations ont la particularité d’enseigner l’innovation et la différenciation en pédagogie de manière… innovante et différenciée : faisons, ensemble, ce qu’on dit qu’on va faire. Elles ont un objectif commun : former aux pédagogies du 21e siècle afin d’apprendre à utiliser et à comprendre les atouts du numérique pour l’éducation, mais aussi ses limites. Sans oublier le nécessaire questionnement à propos du sens et de l’impérieuse nécessité de l’éducation, dans un monde connecté où cohabitent démocratisation  de l’accès à de nombreuses ressources en ligne, et inégalités toujours plus criantes entre pays comme entre individus. Le numérique offre de nombreuses opportunités pour les enseignants comme pour les professionnels de la création de ressources. Mais, face aux nombreux « mythes » qui entourent le numérique éducatif (panacée ou repoussoir…) il est plus que jamais nécessaire de travailler ensemble, afin d’irriguer pédagogie et didactique au sein des EdTech, et de permettre aux enseignant·e·s et autres professionnel·le·s de l’éducation de maîtriser les EdTech.

    Tout au long du programme, l’étudiant est amené à réfléchir sur son propre projet à l’éclairage des différents enseignements qui lui sont proposés. Il est accompagné pendant son parcours de manière personnalisée grâce à l’expertise d’enseignants-chercheurs et de partenaires industriels. Le programme permet aussi de découvrir certains domaines dits “disruptifs” de la pédagogie : remise en cause des modèles pédagogiques et des savoirs dominants, recentrage de l’apprentissage sur la créativité et l’analyse critique,  mise en place de pratiques d’enseignements alternatives hors classe. Les processus d’innovation dans l’intégration du numérique sont questionnés, les processus d’apprentissage décortiqués afin d’ouvrir les espaces pédagogiques à la co-création, à l’apprentissage par le jeu et à une pédagogie de l’expérience.

    Comprendre aussi comment se passe l’éducation ailleurs, ouvrir des possibilités de collaborations internationales sont deux des bénéfices de cette volonté d’ouverture.

    Trois exemples de cours du Msc #CreaSmartEdtech

    ©UCA

    Introduction à la démarche de “maker” et à la robotique éducative. Ce cours développe une approche de curiosité et de construction participative en éducation dans laquelle les participants s’engagent activement dans une démarche de construction tangible pour apprendre à apprendre. Le travail d’équipe et les attitudes co-créative (curiosité, tolérance de l’ambiguïté, tolérance à l’erreur, prise de risque) seront valorisées durant le cours.

    ©Inria

    Initiation à l’informatique éducative. Ce cours, basé sur Class´Code, amènera l’étudiant à comprendre et prendre la main sur les outils informatiques en lien avec les technologies éducatives, et à se forger une vision des grandes notions actuelles (apprentissage machine, web sémantique…) en lien avec la pensée informatique. Les prérequis techniques sont minimaux, et les différences de niveaux serviront de levier pour pratiquer une pédagogie différenciée.

    ©Skema

    Introduction à l’éducation et à la pédagogie “disruptive”. Ce cours a pour but de développer la compréhension de diverses formes de création. À travers des séries d’activités et de recherche, les participants utiliserons de nouvelles méthodes de pensées issues des principes de l’effectuation pour créer leur propre vision de la disruption en abordant un problème complexe qu’ils veulent résoudre.

    Pour toute demande de renseignements sur cette formation un contact mail: msc-edtech@univ-cotedazur.fr, facebook ou twitter est disponible.

    Une formation de Master et un MSc.

    Mais les modèles économiques de ces deux formations sont très différents. La première aboutit à un diplôme national et est entièrement financée avec l’argent de l’État ; elle est donc accessible aux étudiant·e·s avec des frais d’inscription minimaux. L’autre est une formation universitaire (nommée MSc en anglais) qui offre le même niveau Bac+5 en sortie, mais qui doit être autofinancée. C’est un profond sujet de controverse. Un camp va défendre la quasi-gratuité de l’enseignement universitaire, un autre la nécessité que l’université devienne plus attractive, donc soit mieux financée (sans augmenter encore les impôts). Bon, alors : on … fait quoi ? Le MSc #CreaSmartEdtech a pris le risque d’essayer de trouver une « voie du milieu ».
    – Formation payante, certes, mais en utilisant au maximum les formations en ligne, en recherchant des financements multiples qui permettent de doter les étudiants de bourses, en restant dans un cadre sans but lucratif, on passe de montants de l’ordre de 4000 € à environ 1500 € par an, avec ces bourses. Concrètement, pour ces étudiant·e·s la barrière financière est le fait de vivre en faisant des études, et proposer une formation majoritairement en ligne aux horaires flexibles cumulable avec un emploi leur offre une vraie solution.
    – Formation performative, la problématique du coût des études (surtout à l’échelle internationale) est en soi un enjeu majeur de l’éducation du 21ème siècle ; les étudiant·e·s de ce MSc suivront un enseignement sur ce sujet et sont déjà confrontés à des travaux pratiques ! À savoir financer leur voyage et leur séjour pour venir profiter de cette formation, par exemple avec des financements participatifs.
    – Formation qui joue collectif au sein de l’offre de formation de son université, loin de vouloir faire disparaître les enseignements nationaux actuels, cette formation va surtout essayer de renforcer l’attractivité de toutes les formations que propose son université d’accueil.
    Sommes nous complètement utopistes ? Voir même naïfs ? Essayons ! Au moins nous saurons.

    Mélanie Ciussi, Nathalie Colombier, Saint-Clair Lefèvre, Irina Yastrebova Otmanine, Margarida Romero, Cindy De Smet, Thierry Viéville.

  • Pourquoi il faut développer l’accessibilité numérique !

    Dans un très intéressant rapport publié en 2013, le Conseil National du Numérique s’interrogeait sur les différentes formes d’exclusion numérique dont souffre notre société et proposait des pistes pour tenter de les réduire, voire de les supprimer pour certaines d’entre elles. Parmi les origines clairement identifiées figure le handicap. Dans la série des selfies de Binaire, Pascal Guitton nous a parlé d’accessibilité numérique,  nous lui avons donc demandé de nous expliquer pourquoi il faut la développer.
    Cette image montre un fauteuil roulant vide en face d'escaliers
    Crédit Photo : Doulkeridis Book on VisualHunt / CC BY-SA

    Quand on parle d’accessibilité dans un contexte de handicap, on pense tout de suite à l’accessibilité des bâtiments ou à celle des transports en commun. Est-il possible d’utiliser un ascenseur ou une rampe inclinée pour accéder à un niveau supérieur ? Les toilettes sont-elles suffisamment grandes pour pouvoir y accéder ? Le seuil du tramway est-il positionné à la bonne hauteur ? Autant de problèmes importants que les législations successives de notre pays ont permis d’atténuer partiellement, même si la récente annonce  faite par le gouvernement marque un véritable retour en arrière.

    Au-delà de ces premiers sujets qui viennent à l’esprit quand on évoque l’accessibilité, il existe beaucoup d’autres facettes à considérer. Par exemple, la présence d’une signalétique en braille dans un bâtiment (magasin, musée, station de métro…) ou de signaux sonores associés aux feux de circulation, la possibilité d’avoir recours à une audio-description pour suivre des émissions à la télévision, etc.

    Ces différentes illustrations mettent en avant le caractère varié des origines de handicap : moteur (incapacité ou difficulté à effectuer certains mouvements) ou sensoriel (déficiences visuelles, auditives). N’oublions pas de mentionner les troubles de type cognitif – souvent qualifiés de handicap invisible – et pourtant très fréquents ; ils affectent des capacités de mémorisation, d’attention, d’échanges sociaux. Il est évident que l’environnement joue un rôle important : si la rampe d’accès, la signalétique ou l’audio-description ne sont pas disponibles, la personne sera en situation de handicap (PSH) indépendamment de ses efforts pour réaliser une activité de la vie quotidienne : se déplacer, se nourrir, se divertir, dialoguer, etc.

    Cette image montre les pictogrammes associés à des types de handicap. De gauche à droite : autif, visuel, moteur, mental, élocution.

    Et le monde numérique ?

    Si tous ces aspects sont importants, il est un « nouveau » domaine qui est apparu crucial depuis quelques années : il s’agit de l’accès au monde numérique. Nous sommes tout.e.s concerné.e.s dans nos vies privées, sociales, professionnelles qui seraient « perturbées » sans le recours très fréquent à ces outils et services. Imaginez par exemple, la disparition du web et des téléphones portables. Et bien, c’est ce que vivent au quotidien nombre de PSH !

    Pourquoi ? Si vous êtes déficients visuels, comment interpréter les informations affichées sur un écran ? Si vous avez des difficultés de motricité fine, comment utiliser un clavier ou une souris ? Si vous possédez des troubles de l’attention, comment percevoir les informations pertinentes sur un site web rempli d’annonces déroulantes, clignotantes à l’excès ? La réponse est malheureusement : « Vous ne faites rien de tout ça ».

    Malheureusement d’abord, parce que cette exclusion des outils et services numériques constitue une des causes principales de discrimination dans notre société. Comment imaginer apprendre, se former, travailler, avoir une vie sociale aujourd’hui, sans l’accès au monde numérique si on le souhaite ?

    Malheureusement ensuite, parce que l’avènement de ces technologies a ouvert nombre d’espoirs aux PSH en offrant un potentiel gigantesque d’aides, de compensations, d’adaptations qui pourraient améliorer de façon très significative leur qualité de vie. Prenons un exemple simple : pour des personnes déficientes visuelles ou possédant une mobilité des membres supérieurs limitée, lire un journal ou un livre est impossible sans l’aide d’une autre personne. Grâce aux versions numériques et à des logiciels adaptés, cette lecture est devenue – potentiellement – possible, ce qui favorise(rait) leur indépendance et leur autonomie. Le fait que ces espoirs soient trop souvent déçus par manque d’accessibilité augmente encore le fossé entre la population générale et les PSH au lieu de contribuer à le combler !

    Malheureusement enfin, parce qu’il existe un grand nombre de solutions et de recommandations qui permettent de corriger – parfois totalement – cette inaccessibilité numérique mais qu’elles sont peu connues et par conséquent peu utilisées. Alors que connaitre et appliquer quelques principes simples, permettrait de développer des systèmes numériques accessibles au plus grand nombre.

    Comment faire ?

    Il est bien entendu impossible dans un billet court de détailler toutes les solutions existantes ; cependant, afin d’atteindre une bonne accessibilité numérique, il convient de distinguer plusieurs niveaux importants.

    Commençons par les équipements d’interface en les regroupant autour de leurs objectifs principaux :

    • Saisir l’information : claviers adaptés, reconnaissance vocale, capture de mouvements (de la tête, de la langue, des yeux), et demain interfaces cerveau-ordinateur…
    • Restituer l’information : plage braille, synthèse vocale, dispositifs à retour d’effort…
    Cette photo montre un clavier de marque Maltron destiné à des personnes ayant une motricité réduite. Il est de forme semi-concave de façon à réduire les mouvements nécessaires.
    Clavier unidextre – (c) Maltron
    Cette image montre une personne tenant une baguette dans sa bouche pour saisir des caractères sur un claier vertical et de forme légèrementarrondie.
    Clavier « bouche-baguette » – (c) Maltron
    Cette photo montre une page Braille située au contact d'un ordinateur portable
    Plage Braille – Crédit S.Delorme – WikiMedia, CC BY-SA 3.0

     

     

     

     

     

     

    Quelques principes simples

    Continuons en énonçant quelques principes simples comme :

    • Augmenter le signal (loupes, taille des polices, couleurs et contrastes adaptés…), possibilité de saisir séquentiellement une suite de caractères habituellement simultanés (par exemple le Ctrl C), scans de listes;
    • Faciliter la compréhension, par exemple, en ralentissant les débits ou en supprimant des distracteurs d’attention.

    Considérons maintenant les systèmes d’exploitation des ordinateurs, y compris ceux des smartphones ; ils proposent tous des fonctions permettant d’améliorer l’accessibilité numérique : des alternatives clavier (pour remplacer une commande complexe à saisir), des loupes, des substitutions de signaux (remplacer un bip sonore par un message visuel), des lecteurs d’écran qui restituent le contenu textuel d’une fenêtre par sa synthèse vocale… Exemples : Windows, Mac OS, Linux, Androïd… Autant d’outils souvent méconnus mais qui sont disponibles gratuitement et qui, s’ils étaient utilisés, ouvriraient les systèmes numériques à beaucoup de PSH.

    Ensuite, il existe beaucoup de logiciels qui proposent désormais des fonctionnalités adaptées aux besoins des PSH, depuis les outils de bureautique jusqu’aux navigateurs web en passant par les jeux video [1] et réseaux sociaux. Citons par exemple, FaceBook qui utilise une intelligence artificielle pour détecter dans une photo les principaux éléments ; une synthèse vocale de leur description permet à une personne déficiente visuelle d’en prendre connaissance et de réagir comme ses amis.

    Et maintenant, les contenus (web, documents)

    Logo de l’initiative WAI du consortium W3C

    Enfin, mais ce n’est pas le moins important, bien au contraire, il est important d’insister sur l’accessibilité des contenus numériques. En effet, vous pouvez utiliser un navigateur web accessible mais si le contenu de la page que vous visitez n’a pas été conçu de façon accessible, vous ne pourrez pas l’exploiter. C’est pour cette raison que, dès la genèse du web, une réflexion a été entamée au sein du W3C (consortium qui gère son développement) qui a débouché sur des recommandations, notamment les WCAG[2] dont la 2ème version publiée en 2008 est toujours d’actualité. Elles reposent sur une douzaine de règles simples et décrivent les erreurs les plus courantes à ne pas commettre.

    Au-delà des contenus web, nous utilisons en permanence des documents numériques (textes, feuilles de calcul, présentations…). Afin de les rendre accessibles, il est nécessaire d’appliquer quelques principes simples, par exemple :

    • utiliser les styles fournis par les éditeurs pour structurer le texte (titrages, sections) afin de le rendre facilement exploitable par un lecteur d’écran ;
    • fournir un texte alternatif pour décrire une image ou une vidéo ;
    • nommer de façon informative chaque colonne/ligne d’un tableau ;
    • fournir une description pour les url (notamment celles qui sont construites avec de longues chaines de caractères sans signification).

    De façon similaire aux pages web, il existe des vérificateurs d’accessibilité qui vont, par exemple dans MS Word, détecter les erreurs, expliquer leur origine et proposer leurs corrections. Et donc, de la même façon qu’il n’est plus acceptable aujourd’hui de produire des documents contenant des fautes d’orthographe alors qu’il existe un grand nombre de correcteurs automatiques, il ne devrait plus être tolérable  de produire et/ou de diffuser des contenus qui sont inaccessibles alors que nous avons à notre disposition des assistances efficaces.

    Pourquoi le faire ?

    Les sections précédentes ont permis de démontrer de façon très rapide qu’il existait un grand nombre de réponses techniques au problème de l’inaccessibilité numérique. Malheureusement, même si on constate des améliorations, la situation globale est très loin d’être satisfaisante. Alors comment contribuer à la faire évoluer ?

    Il n’existe pas d’argumentation unique mais plusieurs niveaux de motivation qu’il convient de combiner en mettant en avant leurs bénéfices :

    • pour les individus : augmenter l’auto-détermination et globalement la qualité de vie,
    • pour la société : contribuer à la rendre vraiment inclusive en combattant les discriminations,
    • pour les entreprises, les organisations :
      • augmenter les bénéfices potentiels en augmentant le nombre de clients ou de visiteurs d’un site, exclus auparavant de la cible de marché,
      • permettre à ses employés de travailler et de se former dans des conditions d’efficacité équitable en leur fournissant un environnement de travail accessible,
      • améliorer son image (on parle de e-reputation) ; à l’inverse, il existe des listes noires d’entreprises refusant cette évolution que des associations incitent à boycotter,
      • respecter les législations ou les directives nationales et européennes qui vont de plus en plus imposer l’accessibilité numérique à tous les acteurs.

    Certes, proposer un produit ou un service numérique accessible entraîne un coût supplémentaire en termes de développement. Mais les entreprises ayant adopté cette démarche témoignent des bénéfices induits qui contrebalancent ces coûts, à condition que l’accessibilité ait été intégrée dès l’étape de conception et pas une fois le produit développé ; on parle alors d’accessibility by design. Et bien entendu, le problème de la formation des développeurs logiciels se pose : à quand de véritables enseignements à l’accessibilité numérique pour les étudiants en informatique, à l’image par exemple de ce que les étudiants en architecture apprennent sur l’accessibilité des bâtiments dans leur parcours académique ?

    Pour finir

    On le voit, la question de l’accessibilité numérique est complexe ; sans tomber, ni dans un pessimisme exagéré, ni dans un optimisme béat, je pense que nous devons tou.te.s ensemble lutter contre ces exclusions en contribuant dans nos différents rôles (citoyen, employé, consommateur) à sensibiliser, à informer et à utiliser les solutions existantes. C’était l’objectif de cet article.

    Pascal Guitton, Professeur à l’Université de Bordeaux & Inria

     

    [1] C’est aujourd’hui un des secteurs les plus moteurs sur ce sujet.

    [2] Web Content Accessibility Guidelines

     

  • Les selfies de binaire : Marie-Agnès

    Suite de notre série les selfies de binaire. Après Thierry, Pascal et Antoine, c’est au tour de Marie-Agnès Enard de nous faire découvrir son univers.

    Marie-Agnès Enard
    Responsable Communication Inria

     

    Ton parcours

    Je déteste l’informatique ! Voilà ce que je disais à 18 ans. Je suis plutôt une littéraire et j’ai toujours été attirée par l’information, j’ai donc suivi un cursus universitaire dans la communication et l’information. Mon parcours professionnel va pourtant être jalonné d’expériences multiples en lien avec l’informatique ; mon premier emploi consiste à gérer un shipchandler (magasin de pièces détachées de bâteaux) en Guadeloupe où je suis béta testeuse d’un logiciel de gestion de stock. J’avoue que j’avais un peu survendu mes compétences en informatique pour avoir le job. 4 ans après, à l’époque des premiers téléphones portables, je deviens responsable marketing et communication chez le leader mondial de la carte à puce à Gémenos où je passe du temps avec les informaticiens de la R&D pour produire des supports de com et dénicher les pépites sur lesquels ils travaillent pour les mettre en lumière lors de salons professionnels. Dans les années 2000, j’atterris chez Inria par souhait de travailler dans un établissement public en tant que responsable de la communication où je continue avec grand plaisir à promouvoir les activités de recherche de l’institut. Aujourd’hui, l’informatique et moi, c’est donc une belle histoire qui continue.

    Ton domaine d’activité

    Depuis plus de 15 ans, j’ai communiqué sur à peu près tous les sujets sur lesquels les équipes de recherche d’Inria travaillent : réalité virtuelle, data, ingénierie logicielle, simulation, IHM, machine learning, robotique, internet des objets, réseaux, langages de programmation, … J’ai participé au déploiement du premier show-room d’Inria à Lille où j’ai scénarisé des démonstrateurs (salle d’opération, circuit de robot dans une ville, salle de classe) pour montrer la recherche différement. J’ai mis en place de nombreuses actions de médiation scientifique qui sont encore déployées aujourd’hui. Je viens en accompagnement à la stratégie de l’entreprise ou de l’établissement où je travaille pour piloter et déployer une communication sur-mesure. Dans mes différents postes, j’ai souvent réalisé des actions de com qui se voulaient décalées par rapport au contexte : des stands dans le domaine de la High-Tech avec une décoration en mur de pelouse ou avec un vrai jardin japonais, une campagne de changement de logo avec le visuel de Big Bang Theory, un jeu-concours sur Twitter pour faire voyager un badge #ILoveInriaLille, ou encore une vidéo parodique pour le départ en retraite d’un de mes directeurs. Je conjugue la communication au pluriel en gardant toujours à l’esprit les objectifs, les cibles et la pertinence des moyens.

    Quelle est l’évolution de ton domaine ?

    La communication publique en lien avec des activités de recherche est complexe et ce constat est renforcé depuis une dizaine d’année car le numérique est devenu un sujet impactant dans bien des domaines. On attend des professionnels de la communication qu’ils aient un socle d’expertise sur certains sujets afin de faire adhérer les scientifiques aux projets de communication proposés avec plus de facilité voir de légitimité tout en veillant à apporter un message qui soit clair et pertinent selon les publics visés. Les usages en terme de communication évoluent constamment avec les réseaux sociaux et la fluidité des échanges, le communicant doit dont être adaptable, interopérable et agile, trois caractéristiques qui peuvent aussi s’appliquer à un bon logiciel. Le travail de veille sur les outils et bonnes pratiques, le développement d’un réseau de communicants et la qualité des liens tissés avec les personnalités que l’on rencontre permettent souvent de faire toute la différence sur l’impact de votre communication. Pour moi, il est aussi primordial d’aller à la découverte de l’art sous toutes ses formes et d’alimenter ma curiosité sur des domaines à priori éloignés des sujets sur lesquels je travaille comme l’art, la BD, les jeux, la cuisine… Être original en communication, c’est bien souvent adapter une idée ou un concept dans un tout autre environnement. Connaître les codes de la communication publique et ceux du marketing et de la publicité sont des vrais atouts.

    Le plus et le moins dans ton activité

    Le plus : No limit dans l’imagination, tout en tenant compte des contraintes et délais de mise en œuvre . En bref, j’adore pouvoir imaginer, concevoir et déployer des actions de communication qui sortent des sentiers battus et qui mettent en lumière des sujets qui sont souvent laissés de côté car jugés trop complexes pour un public de non averti.
    Le moins : quand je dois encore convaincre que la communication est utile et pas futile pour accompagner une stratégie et donner de la visibilité.

     

  • Les selfies de binaire : Antoine

    Nous poursuivons notre série de selfies de l’équipe de binaire pour que vous puissiez découvrir la diversité des parcours qui sont les nôtres et avoir ainsi une meilleure connaissance de celles et ceux qui s’adressent à vous. Après Thierry, Pascal, c’est au tour d’Antoine Rousseau de se présenter.

    AntoineAntoine Rousseau
    Chercheur en mathématiques appliquées

     

    Ton parcours

    J’ai grandi du côté de Cherbourg avant de partir à Nantes pour mes classes préparatoires (j’avais la trouille d’aller à Paris), puis à Orsay pour la suite (et la fin !) de mes études. J’ai fait deux belles rencontres au cours de ces années : mon prof de maths spé, Hubert Caparros, et mon directeur de thèse Roger Temam. Je leur dois beaucoup ! Issu d’une famille de musiciens et de médecins, je suis arrivé un peu par hasard aux mathématiques. Comme j’étais plutôt bon élève, on peut donc dire que j’ai fini 1er dans un concours de circonstances. Je suis du genre à me laisser porter : c’est comme ça qu’on m’a proposé un post-doc à l’INRIA en 2005 ; et j’y suis resté (jusqu’à aujourd’hui en tout cas !)

    Ton domaine de recherche

    Quelques processus en sciences de l’environnement. Source : P. Rekacewicz, Le Monde Diplomatique

    Je suis mathématicien. En France, les mathématiques sont « rangées » en 10 catégories : les maths pures et les maths appliquées. Même si je n’aime pas trop cette distinction, je me place clairement dans la seconde catégorie. Et moi les maths, je les applique en sciences de l’environnement. En fait, c’est un domaine à l’interface de beaucoup de disciplines : on traduit en équations des phénomènes naturels (ou pas) en discutant avec des physiciens, on étudie les propriétés de ces équations avec les matheux et puis on transforme ces équations en logiciels de simulation avec les informaticiens. Du coup je suis un mathématicien très proche du numérique, c’est pourquoi j’ai beaucoup de points communs avec les co-éditeurs de ce blog. Mes contributions sont essentiellement autour du couplage entre les modèles, qui ont lieu à différentes échelles spatiales et temporelles.

    Quelle est l’évolution de ton domaine ?

    C’est toujours difficile d’estimer l’évolution actuelle du domaine. Ce que je peux dire, c’est qu’il y a 20 ans, nous avons vécu une première révolution autour des données. Grâce à des méthodes d’optimisation développées notamment en France par François-Xavier Le Dimet, on a permis aux prédictions des modèles de s’améliorer sensiblement en intégrant des corrections effectuées grâce aux données : ça s’appelle l’assimilation de données. En gros, avant, on ne faisait confiance qu’aux modèles, maintenant c’est un mélange modèles + données. Bien sûr avec les outils récents de machine learning on peut se demander si les données ne vont pas bientôt permettre de tout faire : ça serait une seconde révolution, mais je n’y crois qu’à moitié. On pourra peut-être prédire beaucoup de choses mais pour comprendre les phénomènes, on aura toujours besoin de modèles…

    Le plus et le moins dans ton activité de recherche

    Le plus : sans aucun doute l’interdisciplinarité. C’est génial de pouvoir dialoguer et collaborer avec des femmes et des hommes de disciplines aussi variées, avec les maths au milieu.
    Le moins : sans aucun doute l’interdisciplinarité 😉 Quand on est à l’interface de deux domaines (ou plus !) on ne peut pas être « à moitié bon » dans chacun des domaines. Il faut, comme le disait Jacques-Louis Lions, être bon dans les deux. Lui l’était sans aucun doute !

     

  • En avant la musique… numérique

    La musique, traditionnellement très influencée par les mathématiques, ne pouvait qu’être profondément transformée par l’informatique. Depuis l’amatrice de Yukulélé qu’une application accompagne dans son apprentissage, jusqu’au grand compositeur qui invente de nouveaux sons, l’informatique s’est installée dans la musique. Binaire a demandé à un informaticien-musicien, Philippe Rigaux, Professeur d’informatique au CNAM, de nous expliquer ce qu’il en est. Serge Abiteboul et Marie-Agnès Enard. Cet article est publié en collaboration avec The Conversation.

    Philippe Rigaux (site web perso)

    L’informatique musicale

    L’informatique est maintenant omniprésente dans notre existence. Elle nous fournit des outils, traitement de texte, tableur, pour faciliter des tâches autrefois totalement manuelles, d’innombrables sources d’information accessibles en quelques clics, et, de plus en plus, des algorithmes capables d’effectuer à notre place certaines actions dites « intelligentes », celles qui demanderaient a priori un effort de réflexion de notre part. Cette puissance peut-elle s’étendre au domaine de la création artistique ? À l’écriture d’une fiction, à la production d’une œuvre ou à la composition d’une pièce musicale ? Inversement, une création artistique est-elle analysable par une machine? Peut-on comprendre comment elle est conçue, et tirer parti de cette compréhension pour effectuer des comparaisons, identifier le style, fournir des mécanismes de recherche basés sur le contenu, ou des interfaces intelligentes?

    La musique, domaine qui nous intéresse ici, a depuis très longtemps une affinité particulière avec les sciences en général, et la science des nombres en particulier.  Pour des raisons que nous allons tenter d’expliquer, aussi bien la représentation de la musique que certains aspects de son processus de création semblent relever d’une approche dont l’intuition était formulée ainsi, dès 1842, par Ada Lovelace, une pionnière de l’informatique :

    Supposant, par exemple, que les relations fondamentales entre la hauteur du son dans la science de l’harmonie et la composition musicale sont liées aux expressions et adaptations logiques, la machine pourrait composer de manière scientifique et élaborée des morceaux de musique de n’importe quelle longueur ou degré de complexité. Ada Lovelace. Sketch of the Analytical Engine Invented by Charles Babbage.  in Scientific Memoirs, Vol 3 (1842)

    Dès l’apparition des premiers calculateurs, la perspective de représenter le matériau sonore sous une forme numérique, et de le manipuler par des procédés calculatoires, a donc suscité un intérêt qui ne s’est jamais démenti.

    Musique, numérique et calcul

    Un son est une onde vibrant à une certaine fréquence. Il est très facile avec un logiciel spécialisé de créer des sons et d’analyser automatiquement leur propriété. Notre premier exemple utilise le logiciel libre Audacity pour créer un son pur correspondant au la du diapason, et afficher un diagramme montrant sur l’axe horizontal la densité des oscillations par unité de temps.

    Le la 440Hz engendré avec le logiciel libre Audacity.

    Bien sûr, un son est rarement constitué d’une fréquence pure, il comprend des fréquences secondaires ou harmoniques dont la répartition est l’un des éléments qui participent au timbre perçu par l’auditeur.  Le même logiciel nous permet de décomposer le spectre des harmoniques du timbre d’un instrument (ici, le même la joué au piano).

    Ces diagrammes nous montrent un autre paramètre important, l’intensité, représentée sur l’axe vertical par l’amplitude de la courbe. L’intensité d’un son (et de ses harmoniques) peut varier.

    Un la 440Hz joué au piano.

    Enfin la durée des sons est un autre paramètre qui intervient dans une organisation sonore. Ces quatre propriétés, fréquence, durée, timbre et intensité, constituent l’espace créatif dans lequel on produit (et on décrit) une œuvre musicale. Toutes correspondent à des valeurs quantitatives, et sont donc naturellement propres à une représentation numérique. Ces valeurs sont, de plus, à la fois simples et en nombre limité, car aussi bien l’espace des fréquences que celui des durées sont discrétisés. Les durées, par exemple, sont des fractions de la pulsation musicale: 1/2, 1/3, 1/4, 1/6, 1/8, pour l’essentiel.

    La décomposition spectrale en harmoniques du son précédent,

    La combinaison des sons obéit elle aussi à des principes mathématiques de proportionnalité. Deux sons dont les fréquences sont dans un rapport de 2 à 1 forment ainsi une octave, l’intervalle le plus simple, le plus “consonant”.   Les intervalles les plus « naturels » ou « purs » sont obtenus par généralisation de ce principe.  On obtient la quinte (3/2), la quarte (4/3) par complément de la quinte, la tierce dite majeure (5/4), la tierce dite mineure (6/5), etc. Au prix de quelques ajustements (dont l’étude nous mènerait très loin), le système occidental identifie ainsi 12 sons différents dans une octave.

    Le matériau de base est donc assez restreint, et les informations utilisées, toutes quantifiables, sont liées par des rapports arithmétiques forts. C’est sur ce matériau que s’est développée l’écriture musicale, dont la richesse repose donc sur les combinaisons des hauteurs et des durées disponibles, et sur des principes de composition (variables selon les styles) basés en partie sur des règles formelles régissant ces combinaisons.

    Ce qui nous intéresse ici, c’est que, dans une certaine mesure, ces principes et règles peuvent s’exprimer en termes de valeurs numériques et de rapports arithmétiques. Cela explique l’attractivité de la science du traitement de l’information et du calcul qu’est l’informatique pour la représentation, la production ou l’analyse de contenus musicaux.

    Informatique musicale et création

    Tout d’abord, le développement conjoint de l’électronique et de l’informatique a permis l’élaboration de nouveaux sons et leur intégration à la création musicale. Il est maintenant possible, avec des logiciels libres et intuitifs, de créer de nouveaux sons ou d’en enregistrer, de les transformer, d’effectuer des montages, sans trop de frais ou d’effort. Les professionnels disposent de systèmes très sophistiqués dont l’un des effets est de déplacer l’attention des créateurs vers des paramètres relativement négligés dans la notation traditionnelle.

    Le timbre, par exemple, et de manière plus générale la production du son, étaient, jusqu’au développement des dispositifs électroniques, indiqués assez sommairement par la mention de l’instrument/voix, et donc délégués au musicien. Un timbre est caractérisé par les fréquences secondaires associées à chaque son fondamental, par leurs intensités respectives, par leur variation sur la durée d’une même note. Les systèmes électroniques de production sonore développés depuis les années 1960 autorisent un contrôle complet des paramètres du timbre, et permettent la recherche, la production, la transmission de nouveaux timbres constitués d’assemblages complexes de sons et de bruits divers, parfois eux-mêmes capturés dans le monde réel.  L’informatique tient dans ce cadre un rôle modeste d’outil de contrôle des dispositifs et de leurs paramètres. Elle est à ce titre omniprésente dans les studios d’enregistrement et de production musicale, quel que soit le style.

    Plus intéressantes (pour notre domaine) sont les applications aux procédés d’écriture des méthodes de traitement de l’information et de calcul. Pour les compositeurs de musique dite savante, l’informatique a ouvert la perspective d’étendre et d’enrichir les méthodes usuelles de représentation et de création. Il faut introduire ici la notation occidentale, illustrée par le très simple exemple de la figure suivante.

    Une partition très simple.

    C’est un système de symboles qui encode graphiquement les quatre paramètres évoqués en introduction. Les durées sont représentées sur un axe horizontal (avec une symbolisation, blanches, noires, correspondant aux valeurs discrètes déjà évoquées), les fréquences sur un axe vertical (avec un système de grille correspondant à l’échelle des degrés). L’intensité et le timbre, traités secondairement, ne sont présents que sous la forme  d’annotations plus ou moins précises : « très doux » pour la première, ou indication de l’instrument (ici, la voix « Basse ») pour le second.

    Disposer d’un système élaboré de représentation de la musique est l’une des conditions de la conception et de la transmission d’œuvres complexes telles que celles, par exemple, impliquant plusieurs musiciens jouant de manière synchronisée des parties indépendantes, ou encore celles basées sur des formes sophistiquées comprenant des reprises, des changements de rythme, d’effectifs, etc. Il n’en  reste pas moins que la notation n’est pas la musique. Une large part de l’interprétation reste indéterminée (le tempo par exemple, mais aussi d’autres aspects comme le phrasé) et implique la mobilisation de connaissances culturelles et stylistiques souvent complexes. Non seulement une partie des intentions du compositeur n’est pas reportée dans la notation et relève de ces connaissances implicites, mais on peut de plus considérer que les limites du codage constituent un frein aux ambitions créatrices.

    Un premier apport de l’informatique est donc de permettre un élargissement considérable de la complexité de description d’une œuvre, bien au-delà des éléments de la sémiologie graphique usuelle, de préserver et de transmettre cette description.

    Voici un motif très simple, le carillon de Big Ben.

    Le carillon de Big Ben

    Numériquement il correspond à la séquence (1, 1, 1, 1) pour le rythme, et (494, 392, 440, 294) pour les fréquences. Voici quelques transformations de ce motif.

    Mutations d’un motif

    Toutes ces transformations peuvent s’exprimer, informatiquement, sous la forme d’opérations appliquées à l’une des structures de données les plus courantes : la liste. L’augmentation, par exemple, double simplement toutes les valeurs de la liste des  durées ; l’imitation rétrograde inverse la liste ; l’inversion effectue une symétrie, chaque intervalle descendant devenant ascendant et réciproquement. Enfin la transposition est équivalente, pour les fréquences, à l’augmentation pour les rythmes : on applique un facteur qui déplace toutes les valeurs de la liste sur les degrés de l’échelle. La séquence des fréquences pour le motif transposé est (659, 523, 587, 392). On peut vérifier qu’un rapport de 4/3, correspondant à un intervalle de quarte, a été appliqué à chaque valeur du motif pour obtenir la transposition.

    La composition (mathématique) de ces opérations est à la base de techniques de composition (musicale) d’une grande complexité formelle. Il ne s’agit bien entendu que d’un cadre au sein duquel peut s’épanouir la créativité des artistes compositeurs, lesquels ont d’ailleurs progressivement cherché à s’en affranchir le plus possible.

    Les calculateurs donnent à ce type de procédé une ampleur et une facilité de mise en œuvre sans précédent. La figure suivante montre un exemple de multiplication d’une formule rythmique selon des rapports très complexes, les résultats pouvant ensuite être synchronisés pour créer des œuvres polyphoniques  dotées d’une forte cohérence interne.

    Un exemple de transformation algébrique d’une structure rythmique avec le logiciel OpenMusic. La cellule rythmique (en haut) est répliquée et transformée par homothéties. Remerciements également à K. Haddad pour cette figure.

    Cette approche reste encore proche du modèle traditionnel, avec une notation plus complexe mais basée sur les principes anciens de discrétisation. En étendant l’idée de création musicale fondée sur des structures  mathématiques, et en la combinant avec un système de production sonore électronique, on s’affranchit de ces dernières limites. L’œuvre de Iannis Xenakis est représentative de cette tendance. Le lecteur est invité à consulter le site  qui présente un bel échantillon de créations faisant appel à des procédures mathématiques. L’exemple, entre autres, montre que la notation devient alors une forme d’illustration graphique du monde sonore, et partie intégrante de l’œuvre.

    Enfin, l’informatique permet d’aller au-delà des paramètres habituels de la notation. L’espace est par exemple une nouvelle dimension prise en compte par des compositeurs de la seconde moitié du XXe siècle comme Xenakis, Ligeti, Nono et Boulez. La distribution des sources sonores dans l’espace selon des règles précises aboutit à une nouvelle perception pour l’auditeur.

    Systèmes interactifs et temps réel

    Outre les nouveaux horizons ouverts par les extensions de la représentation musicale et sa génération par calcul, déjà évoquée ci-dessus, une autre piste a consisté à introduire l’ordinateur comme acteur interagissant dans la création au même titre que les « vrais » musiciens. On peut, dès la conception d’une œuvre, définir le rôle du programme informatique et son mode d’intervention au moment de l’exécution. Cela peut consister par exemple à ponctuer le discours musical par des interventions plus ou moins aléatoires, dans le but d’amener une réaction des autres interprètes.

    Dans des approches moins expérimentales, l’interaction consiste à analyser et à réagir en temps réel à l’interprétation de l’œuvre par les autres musiciens. Certaines applications sont tout à fait pragmatiques, comme par exemple la possibilité pour un violoniste d’être accompagné automatiquement par son ordinateur portable pendant qu’il répète son concerto préféré (Voir à ce propos l’entretien sur Binaire d’Arshia Cont). D’autres sont de nature plus créative, comme des systèmes d’improvisation en temps réel qui dialoguent avec un musicien en reprenant ses phrases et en élaborant de nouvelles variations, à la manière d’un partenaire. Ce dernier exemple débouche sur une palette de défis scientifiques et technologiques communs à de nombreuses problématiques de l’informatique musicale : comment analyser et « comprendre » un flux de signal audio ? Comment identifier les caractéristiques d’un discours musical issu d’un musicien improvisateur ? Comment apprendre à produire, à partir de ces caractéristiques, un véritable dialogue avec l’instrumentiste, autrement dit un discours complémentaire, similaire, mais différent ? Comment enfin effectuer tout cela en temps réel, pour obtenir un système véritablement interactif ?

    Gestion et analyse de contenus musicaux

    Inversons maintenant la perspective en considérant cette fois non pas la création mais  l’analyse d’œuvres existantes. Le problème peut être résumé de la manière suivante : étant donnée une source musicale, disons un enregistrement audio, quelles sont les méthodes informatiques qui permettent d’en extraire des informations, et de construire sur ces informations des applications pertinentes ?

    Certaines de ces applications sont extrêmement généralistes et sans doute connues de la lectrice ou du lecteur. Shazam, par exemple, vous permet de retrouver le titre d’une piste enregistrée en soumettant simplement à l’application un extrait audio de ce même enregistrement. C’est un bon exemple de l’apport des capacités de traitement de l’information à très grande échelle. Une approche très naïve, ou celle d’un être humain livré à ses seuls moyens, consisterait à passer en revue les millions d’enregistrements existants, et à les écouter un à un. Cela prendrait un temps… certain. Voyons comment obtenir le même résultat à peu près instantanément. Tout d’abord, chaque signal audio est traité de manière à en extraire une “empreinte digitale” (fingerprint) compacte, ce qui réduit considérablement la taille des données à examiner.  Ces empreintes sont ensuite placées dans une structure de données – un index – associée à un algorithme de recherche qui va très rapidement identifier les quelques candidats susceptibles d’être appariés à l’extrait audio. On a réduit drastiquement l’espace et le temps de recherche, grâce à des méthodes générales d’optimisation de ces ressources (structures, algorithmes) qui sont au cœur de la science informatique depuis ses débuts. En les associant à une ingénierie adaptée au problème traité, on obtient des résultats spectaculaires: quelques secondes au plus pour identifier un morceau de musique à partir d’un extrait d’une dizaine de secondes.

    C’est spectaculaire, certes, mais malgré tout assez limité : Shazam permet de retrouver un enregistrement particulier d’une chanson, mais pas la même chanson si l’orchestration, le chanteur, le tempo change. Et il est encore moins envisageable d’utiliser la même approche pour trouver des chansons “semblables” ou “du même genre”. Il faut donc utiliser des méthodes différentes si on veut satisfaire une autre application très courante, celle consistant à vous recommander, sur votre plate-forme de diffusion (streaming) préférée, des contenus similaires à ceux que vous avez déjà écoutés.

    Cela suppose d’être capable d’extraire des éléments caractéristiques de ces derniers : la durée, le tempo, le rythme, les accords, l’instrumentation, voire des notions plus complexes comme le style. Ces éléments correspondent à autant de dimensions descriptives d’un contenu audio, ce dernier pouvant alors être représenté par une sorte de vecteur. Il reste à évaluer la distance entre vecteurs pour déterminer le degré de similarité et être en mesure d’effectuer des classifications, des regroupements, et donc des recommandations (Voir l’article de Binaire sur les techniques de recommandation).

    La méthodologie est classique et utilisée dans bien d’autres domaines. La grande différence tient aux contenus considérés, textuels dans les cas usuels, constitués de signaux audio numérisés pour le domaine qui nous concerne. La niveau de difficulté est bien plus élevé.

    Regardons plus précisément comment on pourrait identifier un “style”, information sans doute très utile pour un système de recommandation. Le style est une notion assez difficile à définir précisément, ce qui constitue un encouragement à recourir, comme pour beaucoup d’autres problèmes de traitement de données, à des solutions basées sur l’apprentissage automatique. On donne à la machine un ensemble d’exemples d’un style donné, et la machine « apprend » de ces exemples en construisant progressivement une représentation de ce qui caractérise ce style, sans que personne n’ait eu, à un moment donné, à formaliser ces caractéristiques, construites donc uniquement par induction.

    Recommandation, classification, apprentissage : on retrouve pour cette partie de l’informatique musicale des techniques qui relèvent globalement de ce qui est maintenant dénommé la science des données. L’idée générale est d’extraire des informations de nature statistique à partir d’un grand nombre d’exemples et d’en inférer des “modèles” des données traitées. Ce qui fait la particularité, encore une fois, du domaine musical, c’est la structure particulière de son contenu, constitué d’une numérisation d’ondes sonores produites de manière organisée. Ce qui nous ramène aux considérations initiales sur ce qu’est la musique, et sur l’ambition qu’on peut se fixer d’utiliser l’informatique pour retrouver l’organisation d’un discours musical dissimulé dans un document audio numérique.

    Idéalement, un tel processus serait capable d’identifier chaque instrument et de reconstituer son discours musical : lignes mélodiques, accords, structures rythmiques. En d’autres termes, il produirait la notation musicale décrivant l’enregistrement.

    Une telle méthode de transcription automatique n’existe pas encore de manière vraiment fiable, mais fait l’objet d’actives recherches. Elle permettra par exemple l’assistance à l’écriture, la numérisation de l’immense corpus des partitions existantes et leur mise à disposition sous forme de données ouvertes, ou d’aider à l’analyse de musiques non notées (improvisations,  musiques traditionnelles).

    Philippe Rigaux, CNAM Paris

    Note : l’auteur remercie chaleureusement, C. Davy-Rigaux, R. Fournier-S’niehotta et F. Jacquemard pour leur relecture et leurs suggestions.

     

  • Les selfies de binaire : Pascal

    Si vous lisez ces lignes, c’est que vous connaissez le blog binaire et que l’informatique ou les sciences du numérique vous intéressent ou du moins attisent votre curiosité. Comme vous le savez, nous avons le souhait de proposer des sujets variés dans des domaines où l’informatique est omniprésente.  Aujourd’hui, nous avions envie de vous parler de nous, pour que vous puissiez découvrir la diversité des parcours qui sont les nôtres et avoir ainsi une meilleure connaissance de celles et ceux qui s’adressent à vous.  Après Thierry Viéville, c’est Pascal Guitton qui poursuit notre mini-série.

    Pascal Guitton
    Enseignant-chercheur en informatique
    Université de Bordeaux & Inria

     

    Ton parcours

    Juste après mon Bac, je suis parti en vacances avec des copains et ensuite j’ai bossé pour récolter un peu d’argent. En septembre, j’ai commencé à me demander ce que j’allais faire (on était très loin de ParcoursSup…) ; il se trouve que seule l’université de Bordeaux – on disait la Fac de Sciences – acceptait encore les inscriptions. J’y ai donc commencé un DEUG Scientifique où je me suis prodigieusement ennuyé jusqu’à ce que je découvre l’informatique qui m’a intéressée, puis passionnée quand je suis tombé sur la programmation. A tel point que j’ai failli ne jamais passé en seconde année car j’avais délaissé toutes les autres matières. Je me suis donc naturellement dirigé vers les études qui me permettaient d’approfondir cette discipline et j’ai obtenu une maîtrise, puis un DEA d’informatique. Dans cette 5ème année, j’ai effectué un stage où j’ai travaillé sur la description et la validation des protocoles de communication. Internet, le web n’existaient pas, il s’agissait alors de mettre en place les outils et les standards des réseaux que nous utilisons désormais tous les jours. C’est pendant la préparation de ma thèse sur ce même sujet que je me suis rendu compte que je voulais devenir enseignant-chercheur.

    Ton domaine d’activité

    J’ai successivement travaillé dans 4 domaines : les protocoles de communication donc, la synthèse d’images, la réalité virtuelle et depuis 3 ans l’accessibilité numérique. Il s’agit d’abord de réfléchir aux raisons pour lesquelles un grand nombre de personnes en situation de handicap ne peuvent accéder au monde numérique (logiciels, web…) et ensuite de proposer des solutions pour lutter contre cette discrimination. Je me suis plus particulièrement intéressé à ouvrir les systèmes d’enseignement en ligne comme les MOOC pour des personnes en situation de handicap cognitif (troubles de la mémoire, de l’attention, des émotions…) en développant de nouvelles formes d’interaction adaptées au plus grand nombre.

    Quelle est l’évolution de ton domaine ?

    Même si on constate des progrès, l’accessibilité numérique est encore trop souvent ignorée, alors qu’il existe des solutions techniques et des recommandations qui permettent de proposer une accessibilité numérique « basique ». Il convient en parallèle de cette prise de conscience de mener des activités de recherche pour aller plus loin que ces premières solutions et ainsi contribuer à rendre le monde numérique réellement accessible.

    Le plus et le moins dans ton activité

    Le plus : Mon métier d’enseignant-chercheur est passionnant : il m’a permis de rencontrer, d’essayer de comprendre et d’assister des personnes issues de domaines très différents : archéologues, fabricants de voitures, architectes, médecins, concepteurs de lanceurs spatiaux, etc. Cerise sur le gâteau : toutes ces activités se sont réalisées de façon collective au sein d’équipes où j’ai eu la chance de travailler avec des super collègues. Et puis, j’ai toujours aimé enseigner et être au contact des étudiant.e.s pour essayer de leur transmettre ce que j’avais appris avec toutes ces personnes.

    Le moins : je cherche depuis près de 35 ans et je pense que je partirai en retraite sans avoir trouvé. Ce métier, quel pied [1]!

    Equipe IPARLA (2007)

    [1] Traduction : Ce job, quel kif !

     

  • Mettre l’éthique dans l’algorithme ?

    Quand les algorithmes prennent une place de plus en plus importante dans nos vies, guident nos choix, décident parfois pour nous, ils se doivent d’avoir un comportement éthique pour que la cité ne devienne pas une jungle. Récemment, la CERNA s’est penchée sur le sujet lors d’une journée sur « Les valeurs dans les algorithmes et les données ». Catherine Tessier a présenté ses travaux avec Vincent Bonnemains et Claire Saurel dans ce domaine. Nous les avons invités à en parler aux lecteurs de Binaire. Serge Abiteboul

    Imaginons l’expérience de pensée suivante : une voiture autonome vide, en chemin pour aller chercher des passagers, est arrêtée à un croisement au feu rouge. Sur l’axe venant de sa gauche, une voiture passe à vitesse réglementaire au feu vert, lorsqu’une personne s’engage sur le passage piéton en face d’elle.

    Grâce au traitement des données issues de ses capteurs, la voiture autonome calcule que la voiture engagée va percuter le piéton. La voiture autonome a deux actions possibles :

    1. S’interposer entre la voiture engagée et le piéton
    2. Ne pas intervenir

    Comment concevoir un algorithme qui déterminerait l’action à effectuer par la voiture autonome et quelles seraient ses limites ?

    On se trouve ici dans le cadre (simplifié) de la conception d’un agent artificiel (l’algorithme de la voiture autonome) doté d’une autonomie décisionnelle, c’est-à-dire capable de calculer des actions à effectuer pour satisfaire des buts (par exemple : aller chercher des passagers à tel endroit) tout en satisfaisant des critères (par exemple : minimiser le temps de parcours) à partir de connaissances (par exemple : le plan de la ville) et d’interprétations de données perçues (par exemple : un piéton est en train de traverser la voie de droite). En outre, dans cette situation particulière, le calcul de l’action à effectuer met en jeu des considérations relevant de l’éthique ou de l’axiologie qui vont constituer des éléments de jugement des actions possibles. On peut remarquer en effet qu’aucune des deux actions possibles n’est totalement satisfaisante, dans la mesure où il y aura toujours au moins un effet négatif : c’est ce qu’on appelle une situation de dilemme. Plusieurs points de vue peuvent être envisagés pour qu’un algorithme simule des capacités de jugement des actions.

    L’approche conséquentialiste

    L’algorithme évaluerait dans ce cas les décisions possibles selon un cadre conséquentialiste, qui suppose de comparer entre elles les conséquences des actions possibles : l’action jugée acceptable est celle dont les conséquences sont préférées aux conséquences de l’autre action.

    Pour ce faire l’algorithme a besoin de connaitre (i) les conséquences des actions possibles, (ii) le côté positif ou pas des conséquences, et (iii) les préférences entre ces conséquences.

    (i)  Les conséquences de chaque action

    Immédiatement se pose la question de la détermination de ces conséquences : considère-t-on les conséquences « immédiates », les conséquences de ces conséquences, ou plus loin encore ? De plus, les conséquences pour qui, et pour quoi, considère-t-on ? D’autre part, comment prendre en compte les incertitudes sur les conséquences ?

    Le concepteur de l’algorithme doit donc faire des choix. Par exemple, il peut poser que les conséquences de l’action S’interposer sont : {Piéton indemne, Passagers blessés, Voiture autonome dégradée} et les conséquences de l’action Ne pas intervenir sont : {Piéton blessé, Passagers indemnes, Voiture autonome indemne}.

    (ii) Le caractère positif ou négatif d’une conséquence

    Si le concepteur choisit par exemple d’établir le jugement selon un utilitarisme positif (le plus grand bien pour le plus grand nombre), les conséquences des actions possibles doivent être qualifiées de « bonnes » (positives) ou « mauvaises » (négatives). Il s’agit là d’un jugement de valeur ou bien d’un jugement de bon sens, qui peut dépendre des valeurs que promeut la société, la culture, ou bien du contexte particulier dans lequel l’action doit être déterminée.

    Le bon sens du concepteur peut lui dicter la qualification suivante des conséquences : {Piéton indemne, Passagers blessés, Voiture autonome dégradée} et {Piéton blessé, Passagers indemnes, Voiture autonome indemne}.

    (iii) Les préférences entre les ensembles de conséquences

    Comment l’algorithme va-t-il pouvoir comparer les deux ensembles de conséquences, dont on constate que (i) ils comportent des conséquences positives et négatives et (ii) ces conséquences concernent des domaines différents : des personnes et des choses ? Le concepteur pose-t-il des préférences absolues (par exemple, toujours privilégier un piéton par rapport à des passagers qui seraient mieux protégés, toujours privilégier les personnes par rapport aux choses) ou bien variables selon le contexte ? Ensuite comment réaliser l’agrégation de préférences élémentaires (entre deux conséquences) pour obtenir une relation de préférence entre deux ensembles de conséquences ?

    Le concepteur peut choisir par exemple de considérer séparément les conséquences positives et les conséquences négatives de chaque action et préférer l’ensemble {Piéton indemne} à l’ensemble {Passagers indemnes, Voiture autonome indemne} et l’ensemble {Passagers blessés, Voiture autonome dégradée} à l’ensemble {Piéton blessé}.

    Compte tenu de ces connaissances, dont on constate qu’elles sont largement issues de choix empreints de subjectivité, un tel algorithme conséquentialiste produirait l’action S’interposer, puisque ses conséquences (celles qui sont considérées) sont préférées (au sens de la relation de préférence considérée) à celle de l’autre action.

    L’approche déontologique

    L’algorithme évaluerait dans ce cas les décisions possibles selon un cadre déontologique, qui suppose de juger de la conformité de chaque action possible : une action est jugée acceptable si elle est « bonne » ou « neutre ».

    Comment équiper l’algorithme de connaissances qui lui permettraient de calculer un tel jugement ? Que signifient « bon », « mauvais » ? Une action peut-elle être « bonne »  ou mauvaise » en soi ou doit-elle être jugée en fonction du contexte ou de la culture environnante ? Quelles références le concepteur doit-il considérer ? Par exemple, l’action de « brûler » un feu rouge peut être considérée comme « mauvaise » dans l’absolu (parce qu’elle contrevient au code de la route), mais « bonne » s’il s’agir d’éviter un danger immédiat.

    Dans notre exemple, le concepteur de l’algorithme peut choisir de qualifier les deux actions S’interposer et Ne pas intervenir comme « bonnes » ou « neutres » dans l’absolu. L’algorithme déontologique ne pourrait alors pas discriminer l’action à réaliser. Cette question relève de manière classique des choix inhérents à l’activité de modélisation.

    Actions, conséquences, est-ce si clair ?

    Sans jeu de mots, arrêtons-nous un instant sur la question du feu rouge, et plus précisément sur « brûler un feu rouge ». S’agit-il d’une action (la voiture autonome brûle le feu rouge et ce faisant, elle s’interpose) ? S’agit-il d’une conséquence de l’action S’interposer (la voiture autonome s’interpose, et une des conséquences de cette action – un effet collatéral – est qu’elle brûle le feu rouge) ? Ou bien s’agit-il simplement d’un moyen pour réaliser l’action S’interposer (la voiture autonome utilise le fait de brûler le feu rouge pour s’interposer) ?

    Nous voyons ici que selon ce que le concepteur va choisir (considérer ou non « brûler » un feu rouge, et si oui, le considérer comme action, conséquence, ou comme autre chose) les réponses de l’algorithme conséquentialiste ou déontologique seront différentes de celles que nous avons vues précédemment.

    Les valeurs morales

    Le concepteur pourrait également s’affranchir de ces notions d’actions et de conséquences et considérer uniquement des valeurs morales. L’algorithme consisterait alors à choisir quelles valeurs morales privilégier dans la situation de dilemme considérée, ce qui revient de manière duale à programmer la possibilité d’infraction, de dérogation aux valeurs. Veut-on par exemple programmer explicitement qu’une infraction au code de la route est envisageable ?

    Dans notre exemple, le concepteur pourrait choisir de considérer quatre valeurs morales : la conformité au code de la route, la non atteinte aux biens, la non atteinte aux personnes, la protection des personnes, et de les placer sur une échelle de préférences (>), forcément subjective, de la manière suivante :

    Le concepteur a ici considéré que les valeurs de non atteinte aux personnes et de protection des personnes, non hiérarchisables entre elles, étaient préférables à la valeur de non atteinte aux biens, elle-même préférable à la valeur de conformité au code de la route.

    Ensuite le concepteur pourrait choisir les valeurs à respecter et parmi celles-ci, celles qui sont préférées au sens de son échelle au détriment d’autres valeurs qui pourraient être transgressées.

    Si le concepteur choisit de respecter la valeur protection des personnes, c’est l’action s’interposer qui est satisfaisante, dans le sens où le piéton sera protégé. Dans ce cas la valeur non atteinte aux biens sera transgressée (les voitures subissent des dommages), ainsi que la valeur de conformité au code de la route (la voiture autonome « brûle » le feu rouge). On remarque qu’il est difficile d’établir si la valeur de non atteinte aux personnes est respectée ou non : en effet, en s’interposant, la voiture autonome provoque un accident dans lequel les passagers de la voiture habitée peuvent éventuellement être blessés.

    Si le concepteur choisit au contraire de respecter la valeur non atteinte aux personnes, ainsi que la valeur non atteinte aux biens et la conformité au code de la route, ou bien s’il cherche à minimiser le nombre de valeurs transgressées, c’est l’action ne pas intervenir qui est satisfaisante. Ainsi les passagers de la voiture habitée sont épargnés, les deux voitures restent indemnes et la voiture autonome respecte le feu rouge. En revanche la protection des personnes n’est pas respectée – ce qui ne signifie pas que le piéton sera obligatoirement blessé (la voiture habitée peut freiner, le piéton peut courir, etc.)

    Des questionnements

    Ces tentatives de modélisation de concepts éthiques et axiologiques dans le cadre d’une expérience de pensée simple illustrent le fait que la conception d’algorithmes dits « éthiques » doit s’accompagner de questionnements, par exemple :

    • Dans quelle mesure des considérations éthiques ou des valeurs morales peuvent-elles être mathématisées, calculées, mises en algorithme ?
    • Un tel algorithme doit-il être calqué sur les considérations éthiques ou les valeurs morales de l’humain, et si oui, de quel humain ? N’a-t-on pas des attentes différentes vis-à-vis d’un algorithme ?
    • Un humain peut choisir de ne pas agir de façon « morale », doit-on ou peut-on transposer ce type d’attitude dans un algorithme ?

    Enfin il faut garder à l’esprit que  l’« éthique », les « valeurs » programmées sont des leurres ou relèvent du fantasme –  en aucun cas une machine ne « comprend » ces concepts : une machine ne fait qu’effectuer des calculs programmés sur des données qui lui sont fournies. En ce sens, on ne peut pas parler de machine « morale » ou « éthique » mais de machine simulant des comportements moraux ou éthiques spécifiés par des humains.

    Catherine Tessier (1, 2), Vincent Bonnemains (1,3), Claire Saurel (1)

    Pour aller plus loin

    • Vincent Bonnemains, Claire Saurel, Catherine Tessier – Machines autonomes « éthiques » : questions techniques et éthiques. Revue française d’éthique appliquée (RFEA), numéro 5. Mai 2018
    • Vincent Bonnemains, Claire Saurel, Catherine Tessier – Embedded ethics – Some technical and ethical challenges. Journal of Ethics and Information Technology, special issue on AI and Ethics, January 2018

     

     

     

     

  • L’autre abécédaire de l’informatique

    Le monde de l’informatique regorge de termes qui sont aujourd’hui rentrés dans le langage courant comme USB, Bluetooth ou Cloud. Binaire vous propose un abécédaire de l’informatique décalé avec des mots communs, imagés voire surprenants. Nous sommes notamment allés piocher dans le dicofr.com réalisé par Eric Goguey ainsi que dans le glossaire Celog des termes officiels de l’informatique pour vous faire une sélection insolite de A à Z. Vous découvrirez que Fibre Channel n’est pas un textile de luxe, que le bus est un moyen de transport peu ordinaire ou qu’on peut dire OUI sans risque ! Marie-Agnès Enard

    Arbre : En informatique, un arbre binaire est une structure de données qui peut se représenter sous la forme d’une hiérarchie dont chaque élément est appelé nœud, le nœud initial étant appelé racine.

    Bus : Support de transfert d’information entre les différents ensembles d’un ordinateur. Un bus permet de transférer des données entre la carte mère et les périphériques qui s’y connectent. Sa rapidité dépend de sa largeur en bits et de sa fréquence.

    Crénelage : Effet visuel indésirable provoqué par l’insuffisance de la définition d’une image ou par un filtrage inadéquat des contours d’objets, et qui prend habituellement la forme de dentelures et de contours brisés. En anglais : aliasing

    Dorsale : Partie principale d’un réseau de télécommunication ou de téléinformatique, caractérisée par un débit élevé, qui concentre et transporte les flux de données entre des réseaux affluents.  Équivalent anglais : backbone (Journal officiel du 16 mars 1999 « Vocabulaire de l’informatique et de l’internet »).

    Étiquette : Une étiquette dans un programme est une séquence de caractères qui identifie un emplacement dans le code. Elle peut servir à se « déplacer » dans le code (goto dans le langage C). Elle peut aussi être utilisée pour attacher une propriété à un morceau de code (par exemple, pour donner une couleur à un titre en HTML).

    Fibre Channel : Protocole de transport s’appuyant sur des composants fibre optique (disque, carte réseau, concentrateurs). Il permet d’obtenir des débits de transferts très rapides, que ce soit entre des stations de travail ou entre des périphériques de stockage.

    Grappe :  Ensemble d’appareils de même type (terminaux, ordinateurs, etc.) rattachés à une même unité de contrôle. Anglais : cluster.

    Hop : Quand l’information transite par un routeur, on parle d’un hop. Vos messages passent souvent par plusieurs hops avant d’atteindre leur destinataire.

    Indicatif : Un caractère ou une série de caractères qui apparaissent sur l’écran pour demander une entrée à l’utilisateur.

    Joker : Caractère (le plus souvent, il s’agit d’un astérisque) utilisé en remplacement d’un ou de plusieurs caractères quelconques. Il permet donc de tronquer les mots, ce qui facilite la recherche de termes apparentés. Anglais : wildcard.

    Klips : Unité de mesure des performances d’un ordinateur à base de connaissances.

    LAN : De l’anglais Local Area Network, ce réseau local est situé dans une zone réduite ou dans un environnement commun, tels qu’un immeuble ou un bloc d’immeubles. Un réseau local devient une partie d’un réseau étendu lorsqu’une liaison est établie (via des modems, routeurs distants, lignes téléphoniques, satellites ou une connexion hertzienne) avec un gros système, un réseau de données public (Internet par exemple) ou un autre réseau local.

    Miroir : On peut répliquer un site Web pour le rendre plus disponible. Les copies du site original sont  appelées des sites miroirs.

    Nœud :  Un « noeud », ou node en anglais,  est une machine (serveur, ordinateur, imprimante par exemple) qui sert de passerelle entre deux autres machines. Ce nœud permet l’inter-connectivité entre plusieurs machines.

    OUI :  De l’anglais Organizationnal Unit Identifier. Séquence de trois octets identifiant les constructeurs de matériel de raccordement aux réseaux locaux. Ces trois octets constituent la première partie des adresses de type Ethernet ou 802.3 sur 6 octets.

    Ping : De l’anglais Packet INternet Groper.  Commande informatique permettant d’envoyer une requête d’une machine à une autre machine pour tester la connexion. La réponse attendu n’est pas Pong :).

    Queue : Une masse d’instructions qui attendent d’être traitées : e-mail, documents à imprimer, recherche dans une base de données, requêtes diverses, etc.

    Retouche : Modification destinée à corriger provisoirement un défaut dans un programme informatique existant, dans l’attente d’une nouvelle version. Anglais : patch.

    Spoule : Mode d’exploitation d’un ordinateur en multiprogrammation selon lequel les opérations d’entrée et de sortie sont automatiquement dissociées des traitements intermédiaires, les données correspondantes étant placées dans des mémoires tampons. Anglais : spool (Simultaneous Peripheral Operation On-line).

    Tirage : Document graphique résultant du transfert sur un support permanent d’une image présentée sur un appareil permettant la présentation visuelle et non permanente d’informations (visu). Anglais : hard copy.

    Unicast : Unicast est un protocole de connexion point à point entre le client et le serveur. La diffusion sur Internet en Unicast est le début de la vidéo à la demande, qui consiste en ce que chaque utilisateur puisse consulter n’importe quel programme audio et vidéo en différé.

    Veuve : Dernière ligne d’un paragraphe isolée au sommet d’une page. Un traitement de texte peut contrôler l’apparition des lignes veuves ou orphelines et y remédier en imprimant tout le paragraphe sur la même page. Anglais : widow.

    Wrapper : Programme « enveloppant » l’exécution d’un autre programme, pour lui préparer un environnement particulier. Utilisé par exemple pour sécuriser le fonctionnement de certaines applications en contrôlant très précisément leur interface avec le reste de l’univers connu.

    XOFF : Signal indiquant que l’émission doit s’arrêter et que la transmission ne pourra reprendre qu’à la réception d’un signal XON. On parle du protocole XON-XOFF.

    Yoyo : En jargon informatique, se dit d’un système très instable.

    Zombie : Un ordinateur « Zombie » est en fait un ordinateur piraté qui va servir, à l’insu de son propriétaire, à des actes de piratages. Les machines « Zombies » vont officier à l’insu de leurs propriétaires respectifs, peut-être pour envoyer des millions de messages en direction de serveurs-cibles, ou des routeurs qui aiguillent le trafic. Une machine Zombie permet de créer plusieurs attaques, rendant la traque du pirate difficile.

     

  • Libertés numériques, ça va être votre fête !

    Le numérique s’est installé dans nos vies ; les lecteurs de binaire l’ont bien compris. Il s’invite de plus en plus au parlement. En ce moment, citons entre autres :

    ⇒ La proposition de loi sur les « fake news ».
    ⇒ Le projet de loi Elan, évolution du logement, de l’aménagement et du numérique.
    ⇒ Le plan d’action pour la transformation des entreprises (des aspects sur leurs transformations numériques).
    ⇒ Le projet de loi relatif aux violences sexuelles et sexistes (cyberharcèlement).
    ⇒ Le projet de loi de programmation militaire (cyberattaques).
    ⇒ Le projet de loi de programmation et de réforme pour la justice (plusieurs volets sur le numérique).
    ⇒ Le projet de loi sur l’audiovisuel (volets numériques).

    Parmi tous ces projets, le projet de loi RGPD va particulièrement transformer nos vies. Nous vous en avions déjà parlé lors d’un précédent billet, ce 25 mai marquera une étape importante au niveau législatif dans l’ensemble de l’union européenne. Le règlement général sur la protection des données (RGPD) entre officiellement en vigueur. Ce texte de référence européen renforce et unifie la protection des données pour les individus.

    Depuis plusieurs mois, le web regorge d’articles sur le sujet. Sur les réseaux sociaux, le hashtag #RGPD affiche complet. Tous les sites web qui collectent ou utilisent nos données sont contraints de se mettre en conformité avec le nouveau cadre légal et nous inondent de messages en ce sens.

    Parmi toutes les ressources existantes, nous vous conseillons d’aller visionner cette petite vidéo réalisée par le youtubeur Samson Son – alias Cookie Connecté qui nous explique en 6 minutes et en Emoji le RGPD. Elle permet de comprendre ce qui change vraiment pour nous aujourd’hui.

    Et une autre vidéo du même auteur a été réalisée en partenariat avec la CNIL qui s’adresse principalement aux professionnels. Si vous n’avez pas encore mis en application ce règlement, il est grand temps !

     

    Pour célébrer cette journée particulière, nous vous donnons rendez-vous pour faire la fête des  libertés numériques lors d’événements organisés dans toute la France.

    Marie-Agnès Enard et Serge Abiteboul

  • W3C invente la nouvelle manière de concevoir les standards du numérique

    Le World Wide Web (ou le Web) a été conçu par Tim Berners-Lee au début des années 90. Pour mener le Web à son plein potentiel, Tim a fondé le Consortium World Wide Web ou W3C. Depuis près de 25 ans, W3C a permis de concevoir les nouvelles fonctionnalités du Web de manière collective et d’inventer une nouvelle manière de mener la standardisation dans le domaine du numérique. Binaire a demandé à Jean-François Abramatic (Directeur de recherche Émérite Inria qui a partagé sa carrière entre la recherche (Inria, MIT) et l’industrie (Ilog, IBM) et a présidé W3C de 1996 à 2001) ainsi qu’à Coralie Mercier (qui travaille au W3C depuis 1999 et est Directrice de la Communication depuis 2015) d’expliquer le rôle de W3C dans le développement et le déploiement du Web, puis de présenter les choix stratégiques du Consortium pour les années à venir. Pascal Guitton

    Il y a 25 ans, en Mars 1993, Marc Andreessen a annoncé que Mosaic, le premier navigateur Web mis en œuvre sur toutes les plateformes informatiques de l’époque (PC, Mac, Stations Unix), était disponible pour qui souhaitait le télécharger. Le Web avait été inventé, au début des années 90, par Tim Berners-Lee alors qu’il travaillait au CERN, à Genève.

    Marc et Tim ont choisi deux voies différentes et complémentaires pour contribuer au développement du Web. Marc a participé à la création de Netscape, la première start-up basée sur la technologie Web. Tim a décidé de créer le World Wide Web Consortium (W3C) pour « mener le Web à son plein potentiel ».

    W3C, héritier du X Window Consortium

    Pour construire W3C, Tim s’est appuyé sur l’expérience acquise par le « Laboratory of Computer Science » du « Massachusetts Institute of Technology » (MIT-LCS) qui avait mis en place le X Consortium dans les années 80. Ce consortium, hébergé par le MIT, avait associé de nombreux acteurs industriels et académiques pour définir et mettre en œuvre l’interface homme-machine X Window qui est devenue l’interface standard des machines Unix.

    W3C veut mériter les deux premiers WW (World Wide) de son nom

    Après une rencontre avec Michael Dertouzos, directeur de MIT-LCS, en Février 1994, Tim décide de rejoindre le MIT et de fonder W3C. Il fait aussi le choix immédiat d’étendre la portée géographique du nouveau consortium en associant à l’hôte américain (MIT), un hôte européen et un hôte asiatique. Inria, l’Institut National de Recherche en Informatique et Automatique, devient l’hôte européen de W3C début 1995, l’Université de Keio à Tokyo sera l’hôte asiatique courant 1996. Depuis, l’Université de Beihang est devenue, en 2013, l’hôte pour la Chine, pour faciliter la participation de la communauté chinoise. Dans les autres régions du monde, W3C a étendu sa couverture géographique en ouvrant des bureaux dans 18 pays.

    Grâce à cette couverture internationale précoce, W3C a pu développer les nouvelles spécifications du Web en garantissant leur internationalisation. De plus, les documents produits par W3C sont traduits dans plus de 35 langues grâce aux contributions de traducteurs bénévoles répartis à travers le monde.

    W3C, héritier de l’IETF

    Tim a conçu le Web en définissant trois composants, un système d’adressage (URL ou Uniform Resource Locator), un protocole (HTTP ou HyperText Transfer Protocol), un langage (HTML ou HyperText Markup Language). Tim a choisi l’IETF (Internet Engineering Task Force) pour standardiser ces trois composants. Les travaux sur l’adressage et le protocole sont restés à l’IETF. En effet, la communauté de l’IETF a toujours été familière avec les conventions d’adressage et la conception de protocoles. Elle avait développé, par exemple, les protocoles de base de l’Internet : TCP (Transmission Control Protocol), IP (Internet Protocol) et les standards du courrier électronique.

    Par contre, l’évolution d’HTML était conduite par les développeurs de navigateurs, principalement Microsoft et Netscape. La compétition était telle que de nouvelles fonctionnalités du langage apparaissaient dans chaque version de navigateur à un rythme très élevé (pratiquement chaque trimestre). Devant cette situation déraisonnable, les acteurs industriels ont répondu positivement à la proposition du MIT de créer un consortium dédié au développement des standards du Web, en particulier HTML. L’équipe du consortium a donc participé aux groupes de travail de l’IETF pour l’adressage et le protocole et créera, au sein de W3C, de nombreux groupes de travail dont un groupe pour HTML.

    W3C, un consortium chargé de la cohérence de l’architecture du Web

    Suivant l‘exemple du X Consortium, W3C a mis en place une équipe technique de plus de 50 ingénieurs et chercheurs qui ont animé le développement et le déploiement des standards du Web. Ce choix n’est pas courant dans les instances de standardisation où les personnels y sont plutôt chargés de tâches managériales ou de promotion. Les travaux de recherche et de conception sont conduits au sein de laboratoires publics et privés avant d’être soumis au processus de standardisation. Le choix de Tim, sa volonté de construire le Web de manière collective et la vitesse à laquelle l’innovation fleurissait sur le Web ont conduit à inventer une organisation d’un type nouveau basée sur de solides fondations techniques.

    W3C et ses principes de fonctionnement

    Pour construire cette équipe technique, W3C a pu compter sur les contributions financières de plus de 400 membres (entreprises, universités, laboratoires de recherche publics et privés, etc.) et assembler un budget qui lui a permis de mener son activité depuis plus de 20 ans. La confiance que Tim et toute l’équipe ont su bâtir a permis de mettre en pratique un ensemble de principes fondamentaux :

    – Ouverture : Les activités de W3C sont ouvertes à toutes celles et tous ceux qui sont intéressés et qui sont désireux de contribuer. Avant de lancer des activités nouvelles, W3C s’assure de la participation des communautés correspondantes. C’est ainsi, par exemple, qu’ont été mises en place les activités sur l’accessibilité, la mobilité et plus récemment les activités verticales (automobile, édition électronique, paiement, …).

    – Transparence : Les activités de W3C sont définies, présentées et discutées avant d’être engagées. Les résultats intermédiaires des travaux sont disponibles en permanence sur le site du consortium. Les décisions sont enregistrées, y compris les objections. Chaque décision finale est précédée par une période de commentaires publics.

    – Consensus : Le W3C recherche le consensus pour toutes les décisions importantes. Une culture du consensus a ainsi été bâtie au fil des années. Dans les cas difficiles (heureusement très rares) où le consensus ne peut être atteint, le Directeur (Tim Berners-Lee) tranche et doit expliquer les raisons de son choix. On trouve un exemple récent dans le blog de Tim sur la recommandation EME (Encrypted Media Extension) relative à l’insertion de contenus aux droits protégés dans un document HTML. Une procédure d’appel est prévue.

    – Equilibre : Aucune entreprise, aucun groupe d’intérêt ne peut forcer une décision quelle que soit sa contribution au consortium. Les critères de décision sont toujours basés sur des considérations liées à l’architecture du Web et aux besoins des utilisateurs.

    – Process : W3C a construit un ensemble de règles de fonctionnement pour mener ses activités. Ces règles sont décrites dans un document, en permanence disponible sur le site du consortium. Ce document s’enrichit au fil des expériences vécues sous la conduite de l’ « Advisory Board » (comité de 9 membres élus par et parmi les membres du consortium).

    – « Royalty Free » : W3C a inventé une politique de propriété industrielle dite « Royalty Free » selon laquelle la mise en œuvre des standards du W3C ne peut être soumise à licence payante de la part des organisations qui ont participé à leurs conceptions. Cette politique est différente de la politique dite RAND (Reasonnable And Non Discrimantory) souvent utilisée par d’autres organisations de standards et qui laisse l’ambiguïté sur les conditions financières d’utilisation des standards soumis à cette politique.

    Au fil des années, W3C a également mis en place une organisation aux formes variées de manière à faciliter la communication, le dialogue, les débats parmi les concepteurs des standards du Web : groupes de travail, rencontres entre groupes, listes de courrier archivées,  canaux de « chat », audioconférences, assemblées générales permettent à chaque contributeur de choisir la manière qui lui convient pour participer aux travaux.

    La mise en œuvre de ces principes fondamentaux a fait l’objet de débats souvent intenses qui ont parfois mené au départ de quelques membres du consortium. La variété des acteurs du Web rend la recherche de consensus complexe et difficile. W3C n’a aucun pouvoir pour imposer le déploiement des standards issus de ses travaux. Son succès est donc venu de la mise en œuvre volontaire par les acteurs du Web des standards conçus au W3C.

    L’évolution stratégique de W3C

    Après avoir concentré ses efforts sur les fonctionnalités génériques du Web, W3C a décidé d’étendre le champ de ses activités au développement de standards verticaux nécessaires pour le déploiement du Web au service de nouvelles industries. Le dialogue avec ces nouveaux utilisateurs a enrichi les réflexions du consortium. Il permet à la plateforme Web d’être la plus interopérable de l’histoire en  se nourrissant toujours plus de l’expérience des utilisateurs.

    Les premiers secteurs industriels à avoir constitué des groupes de travail au sein du consortium sont l’automobile, l’édition numérique, le paiement, les télécommunications, la télévision et le divertissement.

    Le Web et l’automobile

    Depuis 2013, l’intérêt grandissant autour des véhicules connectés et des véhicules autonomes a amené l’industrie automobile à collaborer au sein du W3C à l’élaboration de standards fournissant aux conducteurs et aux passagers une expérience Web riche et sûre, et aux constructeurs une plateforme commune permettant l’intégration de services connectés embarqués, ainsi que le moyen d’interagir avec leurs données (ravitaillement en carburant, recharge, parking, péages, etc.)

    Le Web et l’édition numérique

    L’industrie de l’édition (qui précède le Web de plusieurs siècles 🙂 s’appuie désormais sur les fonctionnalités de base de la plate-forme Web, des liseuses aux manuels scolaires, en passant par les enseignements délivrés par les écoles et les universités. Le Web est devenu la plate-forme d’édition universelle. Depuis la fusion de W3C et de l’International Digital Publishing Forum (IDPF), la feuille de route de l’édition numérique s’est enrichie d’activités conduites au sein de W3C telles que la typographie et la mise en page, l’accessibilité, la convivialité d’utilisation, la portabilité, la distribution, l’archivage, l’accès hors ligne et le référencement croisé fiable.

    Le Web et le paiement

    A présent que des milliards de dollars d’échanges commerciaux s’effectuent sur le Web chaque année, l’industrie financière développe au sein de W3C l’infrastructure permettant d’optimiser, sécuriser et homogénéiser le paiement sur le Web, en particulier sur mobile. Les travaux menés au W3C ont aussi permis d’innover en standardisant de nouveaux moyens de paiement inter-émetteurs, justificatifs vérifiables, offres numériques, crypto-monnaies, services sécurisés basés sur le matériel, et les modèles de contenu payant.

    Le Web et les services de télécommunications

    Les fournisseurs de services de télécommunication et les fournisseurs d’équipements de réseau ont depuis toujours été des acteurs essentiels du déploiement du Web. À mesure que la plateforme Web évolue, elle offre aux fournisseurs de services des capacités de plus en plus riches pour étendre les services existants à de nouveaux utilisateurs et appareils, et pour proposer de nouveaux services aux abonnés tels que l’intégration de paiements sur mobiles, l’enrichissement des communications en temps-réel, la création d’une couche Web pour la 5G (« Web5G »).

    Le Web et l’industrie du divertissement

    Depuis l’avènement de l’audio et de la vidéo sur le Web, rendu possible grâce au déploiement d’HTML5, l’industrie de la télévision et du divertissement s’intéresse à la création d’expériences de plus en plus immersives. Le Web doit permettre de réaliser un nouvel éventail de services, allant des portails de vidéo à la demande au streaming adaptatif, en prenant en charge tout type d’appareils multimédia embarqués et tous les contenus, ainsi qu’en assurant une bonne intégration des réseaux sociaux et du commerce en ligne.

    Le plateforme Web en route vers son plein potentiel

    Chacun de ces secteurs verticaux contribue à l’évolution du Web dans son ensemble en met en avant des besoins nouveaux en matière, par exemple, de sécurité et confidentialité, d’accessibilité, d’internationalisation. La plateforme Web s’enrichit de nouvelles fonctionnalités au service de tous les usages.

    HTML étend encore ses fonctionnalités

    La récente version d’HTML, HTML 5.2, a ainsi tiré parti des travaux sur le paiement, la sécurité, et l’accessibilité. HTML 5.2 rend également obsolète le vénérable système de plugiciels (« plug-ins ») et permet ainsi un meilleur contrôle des failles de sécurité potentielles  et une réduction des coûts de développement.

    Sécurité

    La sécurité a, bien sûr, toujours reçu une grande attention de la part des concepteurs de l’Internet, puis du Web. Récemment, un effort particulier a porté sur l’authentification sur le Web de façon à mieux sécuriser des mots de passe qui peuvent être volés ou qui sont réutilisés sur de nombreux sites. L’API d’authentification sur le Web, dont W3C publiera le standard l’été prochain, tirera parti de dispositifs de sécurité matériels et d’informations d’identification spécifiques au site basées sur la cryptographie à clé publique.

    W3C : 25 ans au service des trois milliards d’utilisateurs du Web

    Créé le 1er Octobre 1994, W3C fêtera donc ses 25 ans en 2019. W3C contribue toujours à faire en sorte que le Web reste ouvert, accessible et interopérable pour tout le monde, dans le monde entier. Les travaux de W3C  permettent également que le Web fonctionne sur tous les appareils, dans toutes les langues, pour les personnes de toutes capacités, et qu’il réponde ainsi aux besoins de plus de trois milliards d’utilisateurs.

    L’activité du W3C se décline en 35 groupes de travail et 13 groupes d’intérêt, œuvrant sur plus de 230 spécifications dont près de 200 sont destinées à devenir des standards, qui rejoindront les 400 standards déjà publiés à ce jour. En comptant les quelques 300 Groupes Communautaires (« W3C Community and Business Groups ») servant d’incubateurs, gérés par la communauté elle-même, plus de 10000 personnes travaillent ainsi à définir le Web d’aujourd’hui et de demain en participant aux travaux de W3C.

    Les choix d’organisation originaux mis en place par Tim Berners-Lee et l’ensemble des acteurs du consortium ont permis de développer les fonctionnalités du Web de manière consensuelle. W3C n’a aucune autorité pour imposer les standards qu’il recommande. Son succès vient de la qualité des recommandations, du fait qu’elles aient été conçues par la communauté appelée à s’en servir et finalement de la mise en œuvre volontaire de ces standards au service de tous.

    Jean-François Abramatic (DR émérite Inria) @ Coralie Mercier (Directrice de la communication W3C)

     

    Liens vers

    Video de presentation de W3C : https://www.w3.org/2011/11/w3c_video.html

    W3C Process document : https://www.w3.org/Consortium/Process/

    Blog de Tim sur les défis du Web : https://medium.com/@timberners_lee/the-web-is-under-threat-join-us-and-fight-for-it-69cb3408c770

    Liste des recommandations : https://www.w3.org/TR/tr-date-stds

     

    Proposition de note de bas de page : « La Politique du W3C sur les brevets, conçue pour assurer la poursuite de l’innovation et de l’interopérabilité qui a fait le succès du Web, facilite le développement des recommandations du W3C, favorise la mise en œuvre généralisée de ces recommandations et permet l’accès sans redevance aux brevets détenus par les auteurs des recommandations qui sont essentiels à leur mise en œuvre. »

  • Manipulation informationnelle et psychologique

    Nous étions déjà nombreux à nous inquiéter de ce qui est fait de nos données personnelles que les services du web entassent. L’affaire Cambridge Analytica, avec des données de Facebook, n’a fait qu’accentuer cette prise de conscience. Pour mieux comprendre les utilisations pernicieuses de telles données, Binaire a demandé à un spécialiste de ces questions, Claude Castelluccia, de nous parler des manipulations informationnelles et psychologiques. Serge Abiteboul
    Claude Castelluccia

    Nos données personnelles sont collectées et analysées par diverses entreprises ou entités à des fins de personnalisation, catégorisation ou de surveillance. Ces techniques d’analyse sont très puissantes et permettent, par exemple, d’identifier nos états émotionnels ou nos profils psychologiques. Il a par exemple été montré que l’analyse des données Facebook permettent d’identifier précocement les utilisateurs qui ont des tendances suicidaires.

    Ce qu’on sait moins, c’est que nos données personnelles sont de plus en plus utilisées pour nous influencer, voire nous manipuler. En contrôlant les informations que nous recevons en ligne et en les adaptant à nos comportements, un service comme Facebook peut être utilisé pour influencer nos comportements de clients, nos opinions, nos émotions, voire, comme le suggère l’affaire récente «  Cambridge Analytica », nos choix politiques. Ces manipulations, très étudiées en marketing comportemental (neuromarketing), sont les conséquences même du modèle économique de l’Internet et de ses services « gratuits ».

    Les techniques de manipulation par les données sont nombreuses et variées. On peut cependant les classer en deux grandes catégories : les techniques basées sur la « manipulation informationnelle » et celles basées sur la « manipulation psychologique ».

    La manipulation informationnelle

    Les techniques de cette catégorie tentent de modifier notre système cognitif en polluant les informations/connaissances que nous utilisons pour le construire. C’est typiquement le cas des fausses informations publiées sur le web ou les réseaux sociaux (les fake news) dont l’objectif est d’influencer nos opinions, et parfois nos votes. Dans un rapport récent, le conseil de l’Europe fait la distinction entre deux classes de publications d’information fausses :

    • La désinformation consiste à diffuser une information fausse dans le but de nuire (on parle alors de dis-information ou fake news en anglais), ou par ignorance ou erreur (on parle alors de mis-information en anglais). Un exemple de dis-information est l’information, qui a circulé pendant la campagne présidentielle, prétendant faussement que la campagne du candidat Macron était financée par l’Arabie Saoudite.
    • La malinformation est une information correcte, souvent confidentielle ou privée, mais publiée à grande échelle dans un but spécifique. C’est l’exemple des courriels privées, volés et publiés sur Internet pendant la dernière campagne présidentielle aux États-Unis.

    La manipulation psychologique

    Les techniques de cette catégorie sont plus subtiles car, au lieu de modifier nos systèmes cognitifs, elles cherchent à exploiter ses faiblesses en tirant parti de nos biais cognitifs. Un biais cognitif est un mécanisme de la pensée qui dévie de la pensée rationnelle, et qui fait porter des jugements ou prendre des décisions sans tenir compte d’un raisonnement analytique.

    Il existe globalement différents biais cognitifs comme les biais qui découlent d’une saturation d’informations, d’informations incomplètes ou vagues, de la nécessité d’agir rapidement et des limites de la mémoire.

    L’exemple de la figure 1 illustre comment les biais liés à la « nécessité d’agir rapidement » peuvent être exploités par un site marchand, ici expedia.com. En affichant le message In high demand – We have 1 left (« Très demandé – seulement un seul restant »), le site donne l’impression que le produit est très demandé et risque de ne plus être disponible rapidement. L’utilisateur est alors incité à finaliser son achat, sans trop réfléchir.

    Figure 1 : un exemple d’exploitation de biais cognitifs sur expedia.com

    La figure 2 montre un exemple intéressant de manipulation basée sur la perception. Sur cette figure, le troisième visage est obtenu en combinant les deux premiers visages selon un ratio 40:60. Des chercheurs ont montré que les intentions de vote pour un candidat, ici G. Bush, augmentaient considérablement lorsque le visage du candidat était combiné avec celui du votant (*) ! Cette manipulation exploite le biais qui stipule, selon le célèbre adage « qui se ressemble, s’assemble », que les gens tendent inconsciemment à être attirés par les personnalités qui leur ressemblent physiquement. Ces techniques de manipulation, personnalisées et imperceptibles, sont aujourd’hui tout à fait envisageables à grande échelle grâce aux données disponibles sur les réseaux sociaux.

    Figure 2 : manipulation par image morphing. Extrait de l’article (*).

    Le profilage psychologique OCEAN

    Les publicités sur Internet sont souvent personnalisées selon les centres d’intérêt des utilisateurs. Par exemple, un internaute qui visite un site de vente de piscines aura une grande chance de recevoir des publicités pour des piscines par la suite. Des résultats récents ont montré que les performances de ces publicités ciblées dépendraient aussi des profils psychologiques des cibles (**). Pour un même produit, par exemple un téléphone X, les personnes catégorisées comme « introverties » auraient une probabilité supérieure à 40% par rapport aux personnes « extraverties » de cliquer sur une publicité dont le message est : « Soyez en sécurité et toujours joignable avec le téléphone X ». Les personnes « extraverties » seraient plus réceptives à un message de type : « Soyez toujours branchée et au bon endroit avec le téléphone X ». Un annonceur pourrait donc optimiser ses campagnes publicitaires s’il connaissait les profils psychologiques de ces clients potentiels.

    La construction du profil psychologique d’une personne peut reposer sur le modèle OCEAN qui évalue, pour chaque personne, les 5 facteurs suivants :

    • (O) Ouverture d’esprit : tendance à être ouvert aux expériences nouvelles.
    • (C) Conscienciosité : tendance à être prudent, vigilant et consciencieux.
    • (E) Extraversion : tendance à chercher la stimulation, l’attention et la compagnie des autres.
    • (A) Agréabilité : tendance à être compatissant et coopératif plutôt que soupçonneux et antagonique envers les autres.
    • (N) Neuroticisme : tendance persistante à l’expérience des émotions négatives (anxiété, colère, culpabilité, déprime, etc.).

    Voir Figure 3.

    Ces profils sont établis en analysant les réponses données par la cible à une longue liste de questions telles que : « Croyez-en en l’importance de l’art ? » ou « Avez-vous régulièrement des moments de déprime ? ». Il s’agit donc d’une tâche laborieuse, nécessitant la coopération des cibles et pouvant difficilement être mis en œuvre à grande échelle.

    Figure 3 : 2 exemples de profils OCEAN

    Cependant, une équipe de l’université de Cambridge a récemment démontré qu’il était possible d’établir le profil psychologique d’une internaute uniquement en analysant ses likes sur Facebook (+) ! Plus spécifiquement, ces travaux ont montré que 250 likes suffiraient pour obtenir un profil aussi précis que celui établi par son époux (ou épouse) ! Il est donc complètement envisageable d’établir des profils psychologiques très précis, à grande échelle, en utilisant des plateformes comme Facebook et complètement à l’insu des cibles ! Ce sont d’ailleurs ces résultats que l’entreprise Cambridge Analytica auraient utilisés lors de la campagne présidentielle de D. Trump pour cibler les électeurs indécis et influençables ! La plateforme de Facebook est idéale pour ce type de ciblage et de manipulation car elle permet à tout annonceur de définir des critères très fins (comme le niveau d’éducation, de revenus, les centres d’intérêt, les lieux géographiques, etc.). Ces critères peuvent, sans aucun doute, être choisis pour cibler différents profils psychologiques sans avoir à collecter les données personnelles. Les rôles sont bien partagés. L’annonceur définit les critères de ciblage et les messages à transmettre. Facebook a la charge, en utilisant toutes les données personnelles qu’elle possède, d’identifier les personnes à cibler et de leur transmettre les annonces.

    Conclusion

    Avec le développement de l’Intelligence Artificielle, les techniques de détection des émotions et de l’utilisation de la neuroscience en marketing ainsi que les techniques de manipulation vont devenir de plus en plus efficaces, dangereuses et insidieuses. Les fake news seront de plus en plus réalistes et difficilement détectables, et utiliseront des nouveaux formats comme le son ou la vidéo (les deep fakes).

    La manipulation de masse en ligne par les données est un danger croissant pour nos libertés et nos démocraties. Il s’agit d’un problème étonnamment sous-estimé aujourd’hui et qui mériterait beaucoup plus d’attention, de transparence et de recherche ! ”

    Claude Castelluccia, Inria Rhône-Alpes, @PrivaticsInria

    (*) Facial Similarity between Voters and Candidates Causes Influence, Jeremy N. Bailenson, Shanto Iyengar,Nick Yee, Nathan A. Collins, Andrew Orin, Megan Miller and Kathryn Rickertsen, Public Opinion Quarterly, Vol. 72, No. 5 2008, pp. 935–961

    (**)  Psychological targeting as an effective approach to digital mass persuasion by S. C. Matz, M. Kosinski, G. Nave, and D. J. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2017.

    (+) Computer-based personality judgments are more accurate than those made by humans by W. Youyou, M. Kosinski*, D. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2015

     

  • Et le web devint sémantique

    Ne vous y trompez pas, la science informatique est si sophistiquée que les scientifiques sont souvent, de la même manière que nous toutes et tous, comme des enfants devant les travaux d’autres sous-domaines très pointus. Faut-il pour autant dire « c’est pas pour moi » ? Voici la preuve que non avec un sujet vraiment sophistiqué : le Web sémantique. Thierry Viéville.

    Cet article est repris du blog « intelligence mécanique »

    C’est bien de la connaissance » humaine qui est thésaurisée sur le Web, par exemple dans la plus grande encyclopédie de savoir de tous les temps qu’est Wikipédia. Le système informatique assure la mémorisation et la mise à disposition de ces informations pour tous les utilisateurs, mais les algorithmes n’ont strictement aucun accès au sens de ce qui y est stocké. Pas de surprise, puisque -comme le dit Gérard Berry- « un ordinateur est complètement con » (Rue89, février 2015).

    Est-ce à dire que nous ne pouvons ni modéliser, traiter à l’aide d’algorithmes de manière formelle le sens de ces informations, leur « sémantique » ? Il se trouve que l’on peut le faire. Et c’est ce qui permet de construire le Web sémantique que nous allons partager ici. Allons-y !

    Où l’on commence par énoncer des faits, pas à pas.

    Pour nous, c’est Fabien Gandon, le collègue d’Inria, qui explique le mieux tout ça.websemantique1

    Ça c’est vrai. C’est un fait. Qui veut comprendre comment fonctionne le Web, par exemple, a juste à se régaler à écouter sa conférence large public sur les quatre aveugles et l’éléphant (supports de présentation), où il nous fait découvrir les concepts les plus profonds du Web, pour comprendre, et donc maîtriser cet espace numérique qui est le nôtre désormais.

    Il nous explique que le Web est documentaire, social, participatif mais aussi sémantique (dès qu’on a pu formaliser le sens des contenus) et algorithmique puisqu’il lie entre eux, des programmes et calculs.

     Soit. Mais, comment expliquer à une machine la phrase suivante :

    «Pour nous, c’est Fabien Gandon, le collègue Inria, qui explique le mieux tout ça» ?

    Beaucoup d’informations contenues en une seule phrase ! Qu’il existe un humain, qu’il se nomme Fabien Gandon, qu’il travaille chez Inria (nous aussi du coup puisque c’est un collègue), qu’il sait expliquer le Web (le « tout-ça » c’est une variable qui désignait justement le Web), que tout autre humain explique le Web moins bien que lui. Enfin, presque, uniquement mieux que les humains que nous connaissons.

    Plusieurs grands principes permettent de « mécaniser le sens » de ces informations. Commençons par les représenter dans une machine en appelant « machin » notre collègue et « bidule » l’autre personne qui partage mon point de vue. Nous pouvons alors énoncer :

    :machin     :a_pour_prénom                  "Fabien".
    :machin     :a_pour_patronyme               "Gandon".
    :machin     :travaille_à                    :Inria.
    :bidule     :travaille_à                    :Inria.
    :Inria      :est_un                 :Institut_de_Recherche.
    :Inria      :a_comme_domaine_de_recherche   :Mathématiques.
    :Inria      :a_comme_domaine_de_recherche   :Informatique.
     …

    qui commence à donner du sens à ce collègue et à son lieu de travail, ainsi qu’à une autre personne, dite bidule.

    Ces principes se retrouvent dans le Formalisme de Description des Ressources (en anglais, RDF, pour Resource Description Framework) qui permet de mécaniser le sens des informations.

     – Toutes les connaissances ont été exprimées sous forme de triplets de la forme :

    sujet verbe objet

    On ne pense plus qu’à énoncer des faits, ou encore extraire les données d’un document, et il faut tout expliciter.

    Ce qui est étonnant ici, c’est que chaque terme (machin, bidule) n’a aucun sens en soi ! Ce sont toutes les relations créées pour les qualifier qui vont petit à petit leur donner du sens. Tout comme on a tissé une toile (Web) de documents, on va tisser une toile de sens.

    C’est également vrai pour tous les autres termes. Par exemple, nous les humains comprenons que travaille_à, relie une personne à un lieu de travail. Mais rappelons-nous que la machine n’a aucune intelligence en soi ; la locution verbale travaille_à ne va prendre du sens que parce que, par ailleurs, nous allons ajouter d’autres triplets pour la qualifier et des règles pour la traiter.

    Cette sémantique possède une structure de graphe comme celui qui suit. Les nœuds (en bleu) de ce graphe sont les sujets et les objets dont on construit le sens. Les flèches (en rouge) correspondent aux relations entre ces nœuds.

    websemantique2

    Pour nommer ces entités, on utilise des adresses web (comme www.truc.bidule.machin.chose.fr) que l’on nomme des Identificateurs Universels de Ressources (en anglais, URI pour Universal Resource Identifier) (*). Pour les décrire, on utilise les principes du RDF. Ce qui est remarquable, c’est que ces deux mécanismes suffisent, comme base, pour commencer à tout décrire autour de nous.

    On peut alors utiliser des outils de recherche qui vont balayer ce graphe structuré et retrouver non plus de simples mot-clés (comme sur les moteurs de recherche usuels) mais de vrais éléments structurés (par exemple tous les instituts de recherche dont le domaine inclut les mathématiques).

    Où la notion d’ontologie permet d’organiser ces données sémantiques.

    Comme Fabien nous l’explique très bien sur )i(nterstices.info, une ontologie informatique (il pronostiquait il y a presque dix ans un bel avenir à cette notion, devenue omniprésente aujourd’hui) permet d’organiser ces données sémantiques sous forme d’une hiérarchie de classes (par exemple Fabien est un homme, donc un humain, donc un animal aussi, puisque ces classes ou catégories s’emboîtent au sens où tous les humains sont des animaux). Et ces classes sont reliées entre elles par des propriétés elles aussi hiérarchisées : si Fabien était le fils de Bob Marley (ou pas:)), il serait aussi l’enfant de Bob Marley, puisque la première propriété est un cas particulier de l’autre. Commence alors un travail de modélisation de la connaissance, avec de nouveaux outils pour exprimer :

    – comment se hiérarchisent ces classes et ces propriétés ;

    – à quel domaine et relativement à quelle valeur s’applique une propriété (ainsi la propriété travaille_à s’applique à une personne et relativement à un lieu de travail) ;

    – quelles sont les méta-propriétés de ces classes ou propriétés, par exemple la symétrie (si machin est le collègue de bidule, alors bidule est le collègue de machin), le nombre de valeurs possibles (on peut avoir plusieurs enfants, mais une seule mère biologique), et ainsi de suite.

    C’est là que les collègues qui travaillent sur ces sujets ont fait un triple travail très précieux :

    – ils ont fourni des constructions suffisamment riches pour représenter et structurer toutes les données issues des connaissances humaines, de l’anatomie du cerveau à la musique populaire ;

    – ils ont mis en place des mécanismes permettant de « calculer » sur ces données : vérifier leur cohérence, effectuer toutes les déductions mécaniques possibles pour les enrichir automatiquement, faire coopérer différentes bases de données sémantiques en reliant leurs ontologies;

    – ils ont surtout étudié très finement la complexité algorithmique de ces calculs. En effet, il y a eu de nombreuses tentatives de formaliser des propriétés logiques et des connaissances (on parlait autrefois de système expert ou de langage de haut niveau comme «Prolog») avec des constructions tellement générales que … les temps de calcul explosaient souvent dès qu’on allait au-delà des applications jouets. À l’inverse, c’est une hiérarchie d’éléments de langage qui sont proposés du plus simple au plus complexe, avec une méthode pour nous guider dans l’expression de ces connaissances de la manière la plus efficace possible.

    Et le Web est devenu sémantiquewebsemantique3

    Dans cette vidéo de quelques secondes, Rose Dieng, chercheuse pionnière sur ces sujets, nous expliquait il y a quelques années avec des mots très simples comment ces mécanismes permettent de créer le Web sémantique, et ce que cela nous apporte au quotidien ne serait-ce que pour faire des recherches « plus intelligentes ».

    Écoutons là : «Pour le moment, seuls les humains sont capables de comprendre le sens de tous les documents numériques : par exemple qu’un camion est un véhicule, qu’une collision est un accident, etc. L’idée du Web sémantique, c’est de structurer, classer, systématiser, schématiser, formaliser toutes ces ressources sous la forme de symboles que le système peut stocker et manipuler mécaniquement». Cette vision de chercheurs de l’époque que décrivait Rose est devenue réalité. Ainsi « à côté » de Wikipédia qui est lu par des humains, il existe DBpedia, qui propose une version structurée sous forme de données normalisées au format du Web sémantique, des contenus de chaque fiche encyclopédique, comme sur cet exemple de page à propos d’une structure cérébrale :

    En bas de la page sur le Striatum destinée aux humains, on peut trouver, et exploiter, des éléments qui ne sont plus du texte mais des données structurant l’information. C’est ainsi que, non seulement les personnes, mais aussi les algorithmes peuvent manipuler le contenu de l’ information.websemantique4

    Le Web change alors de visage, il n’est plus juste un outil documentaire, il devient potentiellement un immense logiciel planétaire, où on peut agréger les connaissances les plus diverses et les manipuler. Lors du cours en ligne (un MOOC) sur le Web Sémantique, les enseignants, Fabien Gandon, Catherine Faron-Zucker et Olivier Corby, nous invitent à «monter ensemble dans les tours … de la logique» et c’est bien cette logique contemporaine,  dont Bertrand Russell, parmi d’autres, est le père,  qui  assure les fondements du web sémantique par une mise en œuvre de ses principes et de ses concepts.

    Dans la théorie de l’atomisme logique de Russell, celui-ci pose des propositions atomiques  qui ne possèdent qu’un seul verbe et s’attache «à faire un inventaire du monde en s’appuyant sur des choses ou des faits particuliers, des relations, des attributs» **. Nous y retrouvons le modèle RDF que nous avons déjà mentionné avec le triplet constitué d’un sujet,  d’une relation et d’un objet.

    «La connaissance se fait par le processus de description de ce qui est » dit encore Bertrand Russell : grâce au formalisme logique dans lequel les données sont décrites, le Web sémantique propose une modélisation de la connaissance que la machine pourra utiliser pour nous  aider à accroître et  mieux partager cette connaissance.

    Marie-Hélène Comte, Fabien Gandon, Catherine Faron-Zucker et Olivier Corby.

    (*) à ne pas confondre avec les adresses que nous avons l’habitude d’utiliser et que l’on nomme des URL

    (**) Bertrand Russell, l’œuvre d’une vie (1/4) :  Des mathématiques à l’éthique, une vie philosophique par Ali Benmakhlouf  http://www.franceculture.fr/emission-les-nouveaux-chemins-de-la-connaissance-bertrand-russell-l%E2%80%99oeuvre-d%E2%80%99une-vie-14-des-mathemat (voir aussi Bertrand Russell : l’oeuvre d’une vie :  http://www.franceculture.fr/emission-les-nouveaux-chemins-de-la-connaissance?page=15 )