Catégorie : Actualité

  • Sciences & Médias 2020 : Femmes scientifiques à la Une !

    Nous partageons avec vous cette invitation à la prochaine journée Sciences & Médias, qui se tiendra à la Bibliothèque nationale de France le 16 janvier 2020 sur le thème « Femmes scientifiques à la Une ! »
    En raison des mouvements sociaux, la journée Sciences et Médias,
    initialement prévue le 16 janvier, est reportée à une date ultérieure.
    Nous vous prions de nous excuser ce report de dernière minute et vous
    tiendrons informé de la nouvelle date pour cet événement.

    https://www.societe-informatique-de-france.fr/2019/12/sciences-medias-2020-femmes-scientifiques-a-la-une/

    Femmes et Sciences : il faut un effort mondial ©theconversation.com

    Le thème abordé cette année concerne les femmes scientifiques, peu présentes dans les médias. Cette absence n’est pas seulement due à la
    faible proportion de femmes dans certaines disciplines scientifiques,
    mais à d’autres ressorts propres au fonctionnement des médias et de la
    communauté scientifique. La journée s’articulera autour d’exposés et de
    tables rondes, réunissant journalistes, scientifiques et médiateurs, qui
    feront un état des lieux et proposeront des solutions :

    • Quelle est la représentation des femmes scientifiques dans les médias ?
    • Quel rôle joue le vocabulaire utilisé pour les noms de métier, et au-delà ?
    • Quelles bonnes pratiques peuvent être mises en œuvre par les institutions
      scientifiques ? Et par les médias ?

    Programme complet

    Inscription (gratuite mais obligatoire)

    À noter que cet événement sera également diffusé en direct sur la
    chaîne YouTube de la BnF.

    Cet événement est organisé par la Société Française de Physique (SFP),
    la Société Chimique de France (SCF), la Société Mathématique de France
    (SMF), la Société Française de Statistique (SFdS), la Société Informatique de France (SIF), la Société de Mathématiques Appliquées et Industrielles
    (SMAI), l’Association des Journalistes Scientifiques de la
    Presse d’Information (AJSPI) et la Bibliothèque nationale de France (BnF).

    La SFP, la SCF, la SMF, la SIF, la SMAI, la SFdS, la BnF et l’AJSPI, a.b.s. Fabien Tarissan.

    Références:

    Femmes en sciences: il faut un effort mondial, dit une chercheure.

    Femmes & Sciences, une association pour promouvoir les sciences et techniques auprès des jeunes, filles et garçons et pour promouvoir les femmes dans les sciences et techniques.

    Femmes et Sciences : et si c’était une affaire de mecs ? Binaire

  • Bonne année 11111100100

    Tu aimeras ton robot comme toi-même, Serge A.

    Toute l’équipe de binaire vous souhaite une année 2020 :

    • Pleine de 😂 🤩🥰🤗

    • Avec aussi beaucoup de 👏💪🏾👍💃 🕺🙌🏽🤙🏾 🥂

    • Et encore 🥰😍 😘🙏🏾 pour tout !

     

  • On termine en podcast !

    Pour patienter jusqu’à l’année prochaine, binaire vous invite à réécouter trois interviews de Serge Abiteboul sur les sujets de la numérisation de l’État, l’impact du numérique sur la transition énergétique et les enjeux du numérique à l’ère des réseaux sociaux.

    Toute l’équipe de binaire vous retrouve le 1er janvier !

     

    La numérisation de l’État : interviewé par Gaëlle Gangoura pour Acteurs Publics dans le cadre de la semaine de l’innovation publique

     

    Face aux innovations numériques, l’homme reste le maître du jeu : interviewé par Yolaine de la Bigne pour EDF – podcast Ça change tout

     

    Disinformation and hate speech in social networks : interviewed by Julian Jaursch for is Stiftung Neue Verantwortung, an independent German think tank (to develop concrete ideas as to how German politics can shape technological change in society) – Interview in English (transcript)

  • Les défis scientifiques de la cybersécurité

    Un nouvel « Entretien autour de l’informatique ». Guillaume Poupard a obtenu une thèse de doctorat en cryptographie sous la direction de Jacques Stern à l’École normale supérieure de Paris, dans une des meilleures équipes au monde dans le domaine. Après avoir été responsable du pôle « sécurité des systèmes d’information » à la direction technique de la Direction générale de l’armement (DGA), il est devenu Directeur général de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) en 2014. Guillaume Poupard nous parle de la cybersécurité et des défis scientifiques qu’elle soulève.
    Guillaume Poupard, © Patrick Gaillardin

    Binaire : comment devient-on spécialiste de cybersécurité, et directeur de l’ANSSI ?

    GP : je me suis intéressé très tôt à l’informatique théorique. Pendant mes études, j’ai fait un stage dans l’équipe de Jacques Stern de cryptographie autour de la programmation de carte à puce. Le sujet était à la fois très théorique et hyper pratique. J’ai réalisé que j’adorais ce mélange des genres. J’ai fait une thèse en cryptographie. Je suis ensuite passé naturellement de la cryptographie à la sécurité des logiciels, à la cybersécurité, à la confiance numérique, jusqu’à arriver à l’ANSSI. C’est comme cela que j’entends mon travail : participer à ce que les entreprises et les citoyens puissent avoir confiance dans le numérique qu’ils utilisent quotidiennement.

    Binaire : il va te falloir un peu décrypter un certain nombre de termes employés comme cryptographie ou cybersécurité.

    GP : le but de la cryptographie est de pouvoir échanger des messages sans avoir confiance dans les intermédiaires. On chiffre le message typiquement à l’aide d’une clé de chiffrement de telle façon que seul le destinataire soit en mesure d’avoir accès à son contenu. On imagine bien un gouvernement donnant des instructions à un ambassadeur ou deux conspirateurs s’échangeant des secrets. Le but est de garantir la confidentialité de la communication. C’est pareil sur Internet.

    On peut aussi tenir à garantir l’intégrité du message, pour qu’il ne puisse pas être modifié par un intermédiaire. On trouve encore d’ailleurs d’autres utilisations de la cryptographie. Par exemple, dans les « rançongiciels », ransomware en anglais. Quelqu’un de mal intentionné arrive à chiffrer des données essentielles et à détruire les données originales. Il propose le code de déchiffrement contre une rançon. C’est ce qui s’est passé avec le virus WannaCry pour le service de santé NHS en Angleterre et en Écosse en 2016, bloquant des dizaines de milliers d’ordinateurs et d’équipements médicaux. Dans ce dernier cas, on perd la propriété essentielle de disponibilité de l’information.

    Binaire : et la cybersécurité ?

    GP : nous devons nous protéger contre des attaques informatiques, notamment via Internet. La sécurité n’est pas un sujet nouveau. Depuis toujours, les gouvernements, les entreprises cherchent à protéger la confidentialité de certaines informations. Le renseignement, un des plus vieux métiers du monde, inclut les deux facettes : chercher à obtenir des informations confidentielles, et se protéger contre les ennemis qui essaieraient de faire cela. Avant on se protégeait avec des moyens physiques comme des chiens et des fils de fer barbelés. S’il y a aujourd’hui de nouveaux risques, si on dispose de moyens numériques, le problème n’a pas changé. Il n’est d’ailleurs pas possible de séparer les mondes physiques et numériques. Par exemple, si un attaquant arrive à faire introduire une clé USB dans un ordinateur supposé être protégé ou à placer des équipements d’interception d’ondes à proximité physique d’un tel ordinateur, il peut être capable de récupérer des secrets.

    Binaire : nous sommes bien dans une guerre ancienne et classique entre attaquants et défenseurs. Le numérique donne-t-il l’avantage à un des camps ?

    GP : pour ce qui est de la cryptographie, dans le passé, l’avantage était à l’attaque. On finissait toujours par trouver des façons de décrypter les messages, à « casser » les codes. Très souvent, c’était un travail rémunérateur pour les mathématiciens. Aujourd’hui, nous disposons de « chiffrements asymétriques » qui permettent des échanges chiffrés avec le secret garanti entre deux interlocuteurs sans qu’ils aient eu besoin de se rencontrer au préalable pour convenir d’un « secret » commun. Le moteur de ces techniques est l’informatique. Le chiffrement demande un peu de calcul, mais c’est surtout le décryptage qui est très gourmand, demandant un temps de calcul dont l’attaquant ne dispose pas.

    Bob chiffre le message avec la clef publique d’Alice et envoie le texte chiffré. Alice déchiffre le message grâce à sa clef privée. Wikipedia

    De tels systèmes de chiffrement sont à la base de tous les échanges sécurisés sur Internet, par exemple des achats que nous faisons, et de plus en plus systématiquement des lectures de documents sur le web (avec HTTPS).

    Binaire : comment se fait en pratique la vérification d’un circuit ou d’un logiciel ?

    GP : on s’appuie sur la certification d’un produit par un tiers. En France, ce tiers doit être homologué par l’ANSSI. Évidemment, le niveau d’exigence dépend du service fourni et du contexte. On n’aura pas les mêmes exigences pour l’application qui compte vos pas et un logiciel d’une centrale nucléaire. Le plus souvent, on examine (avec différents niveaux d’attention) le code. Pour des exigences plus élevées, par exemple pour un véhicule de transport, on essaie d’établir des preuves formelles de sécurité. C’est-à-dire qu’on essaie de prouver mathématiquement à l’aide de logiciels de preuve que le logiciel ou le circuit fait bien ce qu’on attend de lui.

    On réalise également de manière complémentaire des analyses de vulnérabilité. On demande à des attaquants d’essayer de trouver des failles dans le système. S’ils en trouvent, on colmate. Des chercheurs qui travaillent dans ce domaine s’amusent aussi à trouver de telles failles. La pratique responsable est de la signaler discrètement aux concepteurs, et de leur laisser le temps de la corriger avant de rendre ces failles publiques.

    Il ne faut pas croire que c’est simple. Très souvent, on découvre des faiblesses. Par exemple, si les cartes bancaires ont une durée de vie assez courte, de l’ordre de trois ans, c’est essentiellement pour corriger des faiblesses de sécurité potentielles.

    ANSSI/ Les différents métiers de l’ANSSI. Reportage sur les métiers de l’ANSSI. © Patrick Gaillardin.

    Binaire : la question se pose donc particulièrement pour les nouveaux protocoles. On a parlé par exemple de trous de sécurité dans la 5G.

    GP : la question se pose en particulier pour la deuxième génération de la 5G, la 5G standalone. Le protocole n’est pas encore stabilisé, l’encre n’est pas encore sèche. Le travail de R&D autour du développement de ce protocole est intense.

    On est dans un cas relativement simple. Comme la 5G standalone n’est pas encore utilisée, on peut changer le protocole pour fixer ses bugs sans avoir à modifier des masses de matériels et de logiciels. Par contre, quand un circuit ou un service est déployé, la découverte d’un trou de sécurité peut être extrêmement coûteuse.

    Binaire : on parle d’ordinateurs quantiques. Leur menace sur ces systèmes de chiffrement est-elle sérieuse ?

    GP : l’arrivée de tels ordinateurs donnerait un avantage certain aux attaquants qui pourraient casser les codes de chiffrement utilisés aujourd’hui. Mais des chercheurs sont déjà en train de travailler sur des algorithmes de chiffrement post-quantiques… alors que les ordinateurs quantiques n’existent pas encore. Ça montre bien que la menace est prise au sérieux même si je suis incapable de vous dire quand de telles machines seront disponibles.

    Binaire : quels sont les sujets de recherche actifs dans ce domaine ?

    GP : je vous ai parlé de la recherche d’algorithmes qui résisteraient aux ordinateurs quantiques. Mais il y a d’autres sujets.

    On voit pas mal de recherche autour des chiffrements qui permettraient de manipuler les données chiffrées, par exemple avec des chiffrements homomorphes. Prenons l’exemple de la recherche d’information pour trouver dans un corpus tous les documents qui contiennent un mot particulier. Si je chiffre les documents avant de les déposer dans le cloud, le service du cloud a besoin de la clé de chiffrement pour faire cette recherche pour moi. Mais pour livrer cette clé, je dois avoir toute confiance en ce service. Comment faire si je ne l’ai pas ?

    Un autre sujet où la recherche pourrait aider énormément, c’est celui de l’accès à des données chiffrées dans des circonstances exceptionnelles. Toutes les méthodes dont on dispose fragilisent le secret, comme d’avoir un tiers-parti qui soit dépositaire des secrets. La question est comment faire pour utiliser des chiffrements qui protègent parfaitement la confidentialité des données personnelles mais qui permettent d’avoir accès à ces données dans des cas exceptionnels, par exemple sur décision judiciaire. On aimerait que les juges puissent avoir accès aux données mais sans compromettre la confidentialité des données pour la grande masse des citoyens qui ne sont pas sous le coup d’une demande judiciaire.

    Binaire : la cryptographie est un maillon essentiel dans le paysage mais le plus souvent les attaques ne cassent pas la cryptographie mais le protocole de communication, une implémentation d’un algorithme.

    GP : tout à fait. Cela conduit au sujet passionnant de la vérification de protocoles, par exemple du protocole que vous utilisez quand vous payez avec une carte de crédit sur Internet. Le code du protocole est typiquement très court mais vérifier qu’il ne laisse pas un trou de sécurité est super ardu. Très souvent on trouve des failles.

    C’est peut-être le moment de faire une distinction entre sûreté et sécurité. Un logiciel ou un matériel peut tomber en panne. Il faut gérer les pannes ; on parle de sûreté informatique. Le cas de la sécurité est différent : là, un adversaire malicieux va essayer de trouver une faille. Pour s’en protéger, il faut prévoir tout ce qu’un tel adversaire, peut-être très intelligent et avec une grande puissance de calcul, pourrait imaginer. Une autre dimension consiste à se préparer à répondre à une attaque, par exemple, dans le cas des rançongiciels, être capable de relancer les systèmes très rapidement à partir de copies des données originales et saines.

    Binaire : est-ce que la sécurité des systèmes est satisfaisante ?

    GP : elle ne l’est pas. Dans le numérique, la compétition est mondiale et les premiers arrivés sur un service ont une prime énorme. Alors, les développements de logiciel se font trop vite, au détriment de la sécurité. Si nous ralentissons trop un produit français pour plus de sécurité, le marché est alors pris par des services bien moins sécurisés. Le sujet n’est pas simple. Mais la situation est inquiétante même pour des produits qui par définition devraient être bien sécurisés comme des pace makers.

    Binaire : on ne peut couper au sujet de l’apprentissage automatique, tellement à la mode. Est-ce un sujet pour la cybersécurité ?

    GP : absolument. Pour trois raisons. D’abord, du côté des attaquants. Les systèmes et leurs défenses étant de plus en plus complexes, les attaques sont de plus en plus automatisées, agiles. On commence à les voir utiliser des techniques d’intelligence artificielle.

    Ensuite, bien sûr, l’analyse de données massives et l’apprentissage automatique sont utilisés pour la défense, notamment la détection d’intrusion. Il s’agit par exemple de détecter des comportements inhabituels. Bien sûr, le système va aussi retourner de fausses alertes. Des humains vérifient.

    Enfin arrive la question des attaques pour biaiser l’apprentissage automatique de systèmes. Les techniques d’apprentissage automatique restent fragiles et relativement faciles à berner, manipulables par des attaquants qui introduisent, peut-être massivement, des données biaisées. De manière générale, le domaine de l’apprentissage automatique témoigne d’ailleurs d’une certaine naïveté, d’une croyance un peu aveugle dans la technique. En cybersécurité, nous avons appris à nous méfier de tout. Il est indispensable d’instiller un peu de notre méfiance dans le domaine de l’apprentissage automatique.

    Binaire : attaque ou défense. Chapeau noir ou blanc. Est-ce que ce sont les mêmes personnes qui font les deux ?

    GP Dans le modèle français, le gouvernement sépare clairement les services d’attaque et de défense. Dans des pays qui ont fait un autre choix, les services qui font les deux à la fois ont une tendance naturelle a délaissé une des deux facettes. Évidemment, cela ne veut pas dire qu’on ne parle pas à l’autre bord ; on a à apprendre d’eux comme ils apprennent de nous.

    ANSSI/ Les différents métiers de l’ANSSI. Reportage sur les métiers de l’ANSSI. © Patrick Gaillardin.

    Binaire : binaire s’intéresse particulièrement aux questions d’éducation. Nous imaginons bien que ce sujet se pose en cybersécurité.

    GP : d’abord, le pays a besoin d’experts dans ce domaine, bac+3, bac+5 et plus. Et, tous les experts en numérique doivent acquérir des compétences en cybersécurité. Cela passe par des cours spécialisés au niveau master mais le sujet doit aussi être un fil rouge tout au long de l’enseignement de l’informatique. Enfin, tous les élèves doivent obtenir des bases de cybersécurité, au collège, au lycée. La cybersécurité doit devenir la responsabilité de tous.

    J’aimerais ajouter que cela ne devrait pas juste être un truc barbant à étudier. C’est un sujet absolument passionnant, un challenge intellectuel qui peut aussi être ludique. Par exemple, j’ai étudié le calcul modulaire et cela me passionnait peu. Mais quand j’ai appris comment c’était utilisé dans des systèmes cryptographiques asymétriques, cela a été une révélation !

    Dans un pays comme Israël, les élèves parmi les plus brillants, détectés à partir de 14 ans, apprennent l’informatique et se spécialisent en cybersécurité. Ce sont un peu des stars dans la société. Évidemment, la situation politique de la France est différente, mais on aimerait aussi voir plus de nos meilleurs cerveaux suivre une telle filière. C’est d’ailleurs un excellent moyen d’inclusion sociale pour les milieux défavorisés.

    Serge Abiteboul, Inria et ENS Paris, Pierre Paradinas, CNAM-Paris.

    Chiffrement asymétrique.

    La cryptographie asymétrique est un domaine de la cryptographie où il existe une distinction entre des données publiques et privées, en opposition à la cryptographie symétrique où la fonctionnalité est atteinte par la possession d’une donnée secrète commune entre les différents participants. La cryptographie asymétrique peut être illustrée avec l’exemple du chiffrement à clef publique et privée, qui est une technique de chiffrement, c’est-à-dire que le but est de garantir la confidentialité d’une donnée. Le terme asymétrique s’applique dans le fait qu’il y a deux clefs de chiffrement (que l’utilisateur qui souhaite recevoir des messages fabrique lui-même), telles que si l’utilisateur utilise une première clef dans un algorithme dit « de chiffrement », la donnée devient inintelligible à tous ceux qui ne possèdent pas la deuxième clef, qui peut retrouver le message initial lorsque cette deuxième clef est donnée en entrée d’un algorithme dit « de déchiffrement ». [Wikipédia]

    Un peu de vocabulaire

    • Chiffrer un document consiste à le transformer pour le rendre incompréhensible à qui ne possède pas la clé de chiffrement.
    • Déchiffrer est l’opération inverse qui consiste à reconstruire le document à partir du document chiffré et de la clé.
    • Décrypter consiste à reconstruire le document sans avoir la clé. On dit alors qu’on a « cassé » le code de chiffrement.

    Pour aller plus loin :

    À propos de la cryptographie quantique : https://binaire.socinfo.fr/2016/11/08/la-crypto-quantique-debarque/

    À propos de l’évaluation de la sécurité d’un produit (Critères communs), voir encadré de l’article https://binaire.socinfo.fr/2017/10/27/chiffre-securite-et-liberte/

  • Raconte-moi un algorithme

    Raconte-moi une histoire par jour… Vous souvenez-vous de cette petite lecture du soir, avant d’aller dormir ? Elle est pour beaucoup d’entre nous une petite madeleine, un souvenir d’enfant, de parent ou de grand-parent. Pour celles et ceux qui, comme nous chez binaire, sont encore de grands enfants, un collectif coordonné par Ana Rechtman Bulajich (Université de Strasbourg)  a préparé le Calendrier Mathématique 2020.

    Le Calendrier Mathématique existe depuis 2014. En plus d’être un bel objet, à l’édition soignée et rempli de chouettes illustrations, il fera travailler vos méninges :

      • chaque jour grâce à de petits quizz mathématiques proposés du lundi au vendredi. Un livret accompagne le calendrier pour vous donner non seulement le résultat, mais surtout le raisonnement qui permet d’y parvenir,
      • chaque mois grâce à de très beaux textes rédigés par des scientifiques qui prennent la plume pour l’occasion.

    Cette année, les textes ont été confiés à nos camarades de jeu Charlotte Truchet et Serge Abiteboul. Ces histoires d’algorithmes vous transporteront des blockchains aux algorithmes de tri en passant par le web.  Si vous aimez traîner sur le blog binaire, vous adorerez vous plonger dans ces belles histoires d’algorithmes. Au moment de vous endormir, vous ne compterez plus les moutons comme avant…

    Antoine Rousseau

     

    Charlotte Truchet Serge Abiteboul

     

  • La régulation des contenus en ligne : défaire Charybde en prévenant Scylla

    Le sujet de la régulation des contenus, par le prisme de la régulation des nouvelles plateformes que sont les réseaux sociaux, s’impose à l’ordre du jour des agendas parlementaires nationaux, Allemagne puis France, et bientôt européen. La société entière est traversée par ces réseaux mondiaux qui séduisent, fascinent parfois jusqu’à l’addiction, font résonner des tendances, raisonner des consciences, et aussi malheureusement charrient des flots d’immondices ad nauseam.

    Qu’ils soient de provocation aux actes terroristes ou apologiques, pédopornographiques, haineux, discriminants, harcelants, porteurs de fausses nouvelles, violant les droits d’auteurs et voisins, la toxicité variée de certains contenus nécessite des traitements différenciés en vertu du principe de proportionnalité. Le réseau lui-même, moyen d’expression populaire extraordinaire, se retrouve ainsi en accusation et rejoint sur la sellette l’auteur du contenu toxique.

    Il serait affligeant d’oublier que ces incroyables outils interconnectent des milliards d’individus pour ne voir que leurs dérives. S’assurer de leur bon usage revient à se poser la question d’une modération de leurs contenus dans le respect des utilisateurs et des droits fondamentaux, sans, en ce faisant, obérer la capacité des entreprises à innover.

    Le défi est le suivant : quelle ligne de crête à inventer pour nos démocraties modernes, irriguées d’expression citoyenne mais menacées dans la cohésion sociale par une toxicité imparfaitement maîtrisée ?

    Les réflexions ultérieurement exposées sont nées en partie de travaux sur la modération des discours de haine chez la société Facebook, en France, à l’occasion d’une mission regroupant des membres de diverses administrations publiques[1]. Évidemment, les mêmes principes peuvent potentiellement s’appliquer à d’autres contenus toxiques, à d’autres plateformes permettant à des utilisateurs de publier des contenus, que ce soient des réseaux sociaux (Twitter, YouTube, Snapchat…) voire d’autres médias (lemonde.fr, jeuxvideo.com…), et à d’autres échelles, notamment l’Union européenne.

    Aujourd’hui, une modération traditionnelle fondée sur la loi pénale existe déjà, émanation régalienne de l’État de droit. La modération technologique des conditions générales d’utilisation (CGU), émanation « régalienne de la plateforme souveraine », s’y superpose. Leur effectivité et leur articulation restent insatisfaisantes.

    Si elle dérange, l’expression « plateforme souveraine » recouvre une certaine réalité. Au triptyque, un territoire, une population, une autorité, caractéristiques de l’État en droit international, se substitue dans le monde numérique : un cyberespace, des usagers et la capacité autoproclamée de définir les règles.

    L’État de droit, afin de préserver nos valeurs démocratiques, doit s’assurer des standards de qualité et d’efficience de la modération mais également prévenir toute censure privée excessive. Il est naturel pour ce faire de passer par un régulateur des réseaux significatifs. En effet, par leur caractère systémique[2], les grands réseaux ont pris une importance considérable dans l’espace public. Un retour en arrière semble improbable, hormis l’hypothèse radicale d’un démantèlement imposé par la puissance publique (américaine).

    Deux lignes directrices pourraient sous-tendre une telle régulation :

    • Un équilibre entre le droit d’expression et le droit des internautes d’être protégés de contenus toxiques ;
    • Un partage des rôles entre les juges arbitres ultimes de l’illégalité des contenus, et un régulateur public en charge des réseaux sociaux contrôlant le fonctionnement des plateformes systémiques.

    1.    La liberté d’expression des deux côtés de l’Atlantique

    La force et la portée du 1er amendement de la Constitution américaine, ratifié en 1791, demeurent inoxydables. Le droit américain et notamment le principe de Freedom of speech, plus absolu que le principe européen de la liberté d’expression imprègne les CGU des réseaux sociaux. Sur le vieux continent, la Cour européenne des droits de l’homme a su apprécier le principe de la liberté d’expression avec la souplesse nécessaire. Consacrée par l’article 10 de la Convention européenne des droits de l’homme[3], la liberté d’expression est tempérée par de possibles restrictions « nécessaires dans une société démocratique ». La Cour considère la liberté d’expression comme un pilier de la démocratie, une condition basique pour le développement humain, et sait affirmer que les idées exprimées peuvent et doivent parfois choquer ou troubler l’État ou des fractions de sa population. Ces expressions « politiquement incorrectes » sont le fruit concret du pluralisme, de la tolérance et de l’ouverture d’esprit sans lesquels il n’existerait pas de société démocratique. En conséquence, les restrictions légitimes pouvant être apportées à la liberté d’expression doivent impérativement respecter le principe de proportionnalité[4].

    Ces distinctions fondamentales entre les conceptions juridiques ont non seulement participé à l’incompréhension entre les plateformes et les États européens désormais enclins à légiférer afin de faire respecter leur souveraineté, mais freinent également l’accès à la preuve numérique dans la nécessaire répression judiciaire des abus constatés.

    L’accord récent entre anglais et américains pour améliorer l’accès transfrontalier à la preuve[5] l’illustre à nouveau, puisque les États-Unis font valoir une exception pour toute requête susceptible de porter atteinte au Freedom of speech, portant notamment sur les données de contenu, étant rappelé que dans l’écrasante majorité des cas les données numériques sont en possession des réseaux sociaux ou hébergeurs américains.

    Toutefois, des marges de manœuvres sont parfois possibles sur certaines catégories de données, telles les adresses IP, moins sensibles que les correspondances elles-mêmes. Ainsi les échanges institutionnels entre autorités publiques et plateformes privées peuvent aboutir à de réelles avancées, à l’instar de Facebook qui a modifié en juillet dernier ses pratiques, afin de mieux répondre aux réquisitions judicaires visant les auteurs de contenus haineux. Un futur règlement actuellement en cours de négociation au parlement européen devrait également faciliter ces premiers actes d’enquêtes.

    2.    La régulation des messages de haine

    Quand il s’agit de régulation de messages de haine, on peut distinguer trois approches essentiellement différentes.

    1. L’approche prônée notamment aux États-Unis qui consiste à laisser toute responsabilité et liberté aux plateformes. Des plateformes s’attaquent donc au sujet, y affectant parfois des ressources considérables avec des succès mitigés. Leurs efforts souffrent d’un déficit de légitimité et sont très critiqués.
    2. Le contrôle étroit des réseaux sociaux par les États, prôné principalement par des régimes totalitaires, mais tentant aussi pour les démocraties. En supposant que les États aient les moyens d’un tel contrôle, on peut questionner leur légitimité à le réaliser seuls. Et même, la solution des problèmes serait alors au prix du recul de la démocratie.
    3. Une troisième voix est envisageable, un modèle européen conforme à des valeurs universelles qui protège la liberté d’expression bien affirmée, mais aussi la liberté d’être correctement informé, et d’être protégé des prédateurs du réseau, humains ou organisations. Les trois facettes d’une telle régulation, comme souligné dans une tribune du Monde par un groupe de ministres français[6], sont : « punir les auteurs de comportements illicites, responsabiliser les réseaux sociaux et améliorer l’éducation et la formation des citoyens, en premier lieu des plus jeunes ». Nous nous focalisons dans cet article sur la seconde.

    Les propositions de la « mission FB ». Début 2019, un groupe de fonctionnaires français, à la demande de l’État et avec le soutien de Facebook, a étudié comment était réalisée la modération des contenus haineux dans les réseaux sociaux et en particulier Facebook. À partir de ce constat, il a proposé une structure de modération avec pour vocation de dépasser le cadre de Facebook, des contenus haineux, et de la France.

    Trois principes directeurs sont préconisés : suivre une logique de conformité où le régulateur supervise la mise en œuvre de mesures préventives et correctrices au sein des réseaux sociaux ; se concentrer sur les acteurs systémiques sans créer de barrière à l’entrée à de nouveaux acteurs européens ; assurer une fonction de régulation en « mode agile » et non figée afin d’éviter une obsolescence prématurée.

    La politique publique de régulation serait garante des libertés individuelles et de la liberté d’entreprendre des plateformes. Elle serait mise en œuvre en toute transparence par une autorité administrative indépendante en partenariat avec les différentes branches de l’État, et avec la participation effective de la société civile.

    L’autorité régulerait la responsabilisation des principaux réseaux sociaux via le contrôle des obligations de transparence des fonctions d’ordonnancement et de modération des contenus, et de devoir de diligence leur incombant. Elle ne serait ni le régulateur des réseaux sociaux dans leur globalité, ni le régulateur des contenus spécifiques qui y sont publiés. Surtout, elle ne serait pas compétente pour qualifier les contenus pris individuellement (du domaine de la justice). Elle coopérerait avec les services de l’État et les services judiciaires. D’autre part, elle participerait activement à un réseau des régulateurs européens.

    Le gouvernement de son côté, via son pouvoir règlementaire, fixerait les principes comme l’obligation de défendre l’intégrité du réseau social et de ses membres, et le cadre de la régulation comme les seuils de déclenchement des obligations ou les modalités des obligations de transparence des fonctions d’ordonnancement des contenus.

    Le travail de ce groupe, limité dans le temps, ne visait pas l’exhaustivité. Certains sujets n’ont pas été examinés en détail comme l’analyse de l’impact concurrentiel du schéma de régulation proposé sur les autres offres de services de réseaux sociaux[7] et les échanges de contenus au sein de groupes privés sur les réseaux sociaux (dont service de messagerie privée type Telegram ou WhatsApp).  Les réseaux sociaux « non-coopératifs », qui ne répondent pas à une rationalité économique classique, qu’ils soient prisés des activistes (4chan, 8chan…) ou contrôlés par un État étranger poursuivant des stratégies d’influence, n’ont pas été pris en compte.

    Figure 1 Schéma extrait du rapport « Régulation des réseaux sociaux »

    3.    Le régulateur national, réseau social

    Le problème ne peut être selon nous résolu que par la combinaison des efforts des plateformes, des services de l’État, de la justice et de la société civile. La participation de la société civile est indispensable pour que, quelle que soit la modération des réseaux envisagée, elle soit perçue comme légitime par les internautes.

    Cela conduit à la transparence des plateformes pour que les internautes comprennent comment la modération fonctionne et qu’ils aient confiance dans ses choix. Un monitoring fin de l’activité de modération doit être mis en place avec le régulateur qui partagera ces informations avec la société civile. Les internautes doivent pouvoir participer activement à la plateforme par leurs signalements, en pouvant suivre les procédures et faire appel des décisions. Ils devront en particulier être informés des motifs d’une modération qui les concerne, si le contenu a été jugé indésirable ou même toxique selon les CGU mondiales de la plateforme ou illégal selon une norme nationale ou européenne.

    Cela conduit également à ce que la société civile soit associée à la spécification des choix de modération de la plateforme, à côté de l’État et de la justice, par l’intermédiaire notamment des associations d’internautes, et des chercheurs en informatique et en SHS.

    Cela nous paraît être des conditions indispensables pour que la modération soit acceptable, pour que les blocages significatifs de contenus voire d’internautes, puissent se réaliser sans lever des soupçons de censure, sans craintes d’atteintes excessives à la démocratie. Le processus de modération doit au contraire permettre de consolider la démocratie, de la réinventer, dans une transparence quasi-sacrée avec une vraie implication de la société civile.

    Le régulateur pourrait également veiller aux formations et conditions de travail des employés chargés de la modération de ces plateformes, même si des progrès ont pu être réalisés notamment après une première série de révélations dans la presse outre-Atlantique[8]. Les dimensions du flot de contenus conduisent à une culture de la performance, un modérateur n’ayant en moyenne que quelques secondes ou minutes pour « traiter » un contenu. Des temps de formation renforcés, une sensibilisation à la culture locale et linguistique des contenus modérés, sans oublier des garanties sociales et une valorisation des carrières semblent s’imposer. Le temps de la modération doit aussi permettre, dans les cas litigieux, un véritable dialogue entre le modérateur et l’usager/créateur de contenu, afin de comprendre le contexte et éclairer le modérateur.

    Enfin, on peut largement remettre en cause la conception extensive des clauses de type NDA (Non Disclosure Agreement) qui, sous couvert légitime de respecter la vie privée des usagers, prennent des airs de baillons inavouables imposés aux salariés, rarement employés par les plateformes elles-mêmes mais par des prestataires. Cette culture du secret est en totale contradiction avec la transparence nécessaire pour l’acceptabilité de la modération. Les premiers lanceurs d’alerte commencent d’ailleurs à se manifester, et un régulateur national semble un interlocuteur privilégié pour obtenir des informations de première main[9].

    4.    Le numérique à la rescousse

    Pour avoir un espoir de régler ces problèmes des plateformes, il faut se déplacer volontairement dans le monde du numérique et intégrer les forces et faiblesses de ses structures technologiques.

    Détection de contenus nocifs. Des algorithmes sont de plus en plus utilisés pour la détection de contenus toxiques ou illégaux. La question est complexe. Si les modérateurs humains tombent facilement d’accord sur des contenus « manifestement » terroristes, violents, haineux, etc., la qualification des contenus est plus complexe dans une large zone grise où le manifestement n’est plus de mise. Les modérateurs humains se divisent alors sur la question de « bannir ou pas ». La question peut également diviser les magistrats et seule une décision de justice peut alors trancher. Des algorithmes vont typiquement se fonder sur l’apprentissage automatique à partir de corpus de données annotées par des humains. Ils vont essayer de faire émerger un point de vue de compromis entre tous les modérateurs humains.

    Dans ce contexte, une tendance de la justice questionne. Dans une décision du 3 octobre 2019, la Cour de Justice de l’Union européenne[10] précise qu’un tribunal d’un pays de l’Union européenne peut demander à un réseau social de retirer non seulement un contenu jugé illégal (procédure classique) mais également tout contenu « identique ou équivalent », sans même attendre son signalement, l’obligation pouvant être étendue au niveau mondial. Au-delà de cette interprétation qui élargit l’exception au principe de non surveillance générale des contenus de la part des hébergeurs[11], on pourra noter une relative imprécision sur la nature d’un contenu « identique ou équivalent ». Un texte peut être modifié caractère par caractère. À quel moment cesse-t-il de devenir identique ou équivalent ? Et pour une photo, si la résolution est modifiée, le cadrage, si les couleurs sont modifiées pas à pas, à quel moment cesse-t-elle de devenir identique ou équivalente ?  La notion subtile de « message véhiculé » paraît centrale.

    Le raisonnement de la Cour se justifie essentiellement par son désir de rendre efficace l’injonction de retrait et de prévenir la réitération de l’acte illicite, sans obliger la victime à « devoir multiplier les procédures ». Or l’acte illicite « résulte non pas en soi de l’emploi de certains termes, combinés d’une certaine manière, mais du fait que le message véhiculé par ce contenu est qualifié d’illicite », comme des propos diffamatoires (§39-41).

    Une interprétation plus large encore conduirait donc les plateformes à bloquer « par analogie » des contenus qui présenteraient des caractères semblables à ceux trouvés dans des contenus jugés illégaux, en tant qu’indices probables d’un « message véhiculé » équivalent. Se pose alors la question d’évaluer automatiquement ces analogies. C’est ce que font aujourd’hui les algorithmes de détection, la responsabilité de la qualification étant laissée ultérieurement à des modérateurs humains.

    Les algorithmes ont l’avantage de « lisser » des choix humains qui peuvent présenter une large variance car trop souvent dans la subjectivité ; les signalements des internautes sur les réseaux sont notamment en moyenne de piètre qualité. Les algorithmes présentent aussi l’avantage de permettre une réaction rapide, et ce même avant que le contenu ait pu être vu par un internaute et causer des dégâts. Pour ces raisons, les algorithmes seront vraisemblablement de plus en plus la clé de voute de la modération, en termes de détection de contenus nocifs et de priorisation des actions des modérateurs humains. S’ils sont déjà performants dans les domaines du terrorisme et de la pédopornographie, les algorithmes de détection rencontrent, avec les messages de haine, tout comme avec les fakenews, des défis plus grands encore. Dans ces deux domaines, la qualification est plus complexe et il ne faut surtout pas attendre des algorithmes une « vérité » absolue :

    1. parce qu’une telle vérité n’existe pas,
    2. parce qu’il peut leur manquer des éléments de contexte indispensable pour évaluer la nature véritable d’un contenu et, surtout,
    3. parce que ces algorithmes sont encore très perfectibles.

    Si on peut espérer qu’ils apporteront une aide considérable à la modération, il est indispensable de collectivement travailler à améliorer les algorithmes pour les différentes facettes de la modération sans croire leurs résultats aveuglement et sans en attendre des miracles. Une condition essentielle de leur utilisation est la qualité de leurs résultats, qui doit être mesurée en permanence.

    Les données de la modération. Comme déjà souligné, ces algorithmes s’appuient, dans une phase d’entraînement, sur des corpus de données. La qualité de la modération tient donc en grande partie de la qualité des données, et donc du travail des humains qui développent ces corpus. Ce sont des choix humains qui guident les propositions des algorithmes de modération.

    De tels corpus sont donc essentiels pour le bon fonctionnement de la modération, en cela ils forment des « données d’intérêt général ». Il faut que ces données soient disponibles pour tous, en particulier pour les chercheurs et pour les petites entreprises confrontées aux problèmes et qui n’ont pas les moyens de les obtenir. On notera que si les plateformes semblent parfois soucieuses de partager de telles données, leur tendance naturelle est d’avoir du mal à les ouvrir. Facebook, par exemple, a mis en place un partenariat avec des chercheurs. En septembre 2019, ces chercheurs ont menacé de quitter ce partenariat parce qu’ils n’avaient pas accès aux données[12]. On peut aussi s’interroger sur la liberté d’expression de ces chercheurs quand ils dépendent aussi étroitement des plateformes pour les données sur lesquelles ils travaillent, voire parfois pour leurs ressources financières.

    Ces algorithmes et leurs données d’apprentissage prennent désormais une importance considérable dans notre société en évaluant les contenus qu’il est acceptable ou pas de partager, ils participent à la définition de notre société et leur régulation s’impose :

    • Transparence : on doit leur demander d’être transparents sur les traitements algorithmiques et les données qui servent à les entraîner.
    • Supervision : le régulateur doit surveiller ces algorithmes pour en déceler les manques ou les excès, puis en alerter la plateforme. La tâche est complexe et exige de fortes compétences du régulateur. Il pourra aussi s’appuyer sur le recueil de données de la foule et sur les travaux de chercheurs.
    • Co-design : les plateformes décident déjà leur modération. Même si le sujet est délicat, on peut collectivement parvenir à les aider à faire des choix aussi essentiels.

    L’accélération. Un nœud du problème est qu’un contenu posté par un internaute sur une plateforme peut devenir viral et rapidement atteindre des milliers de personnes, voire des millions. Bien sûr, le créateur reste l’internaute. Mais la plateforme permet la viralité, avec des usagers diffuseurs qui donnent un effet de levier à l’usager créateur, et surtout elle l’encourage même en « accélérant » ce contenu, par exemple par le système de recommandations.

    En cela, la plateforme joue un rôle essentiel dans la propagation de l’information, et peut avoir une influence considérable sur l’opinion publique. Les plateformes ont longtemps refusé cette responsabilité, se retranchant derrière le fait qu’elles n’éditent pas les contenus. Ce n’est plus possible aujourd’hui : leurs algorithmes et les données numériques sur lesquels elles s’appuient sont tenus pour responsables.

    Les algorithmes de recommandation doivent participer du même effort de transparence, supervision et co-design.

    4.    La dimension internationale

    Facebook met en place fin 2019 un « Oversight Board » (conseil de surveillance) international d’une quarantaine de membres[13]. S’inspirant sans doute de formations en assemblée plénière de certaines juridictions, amenées à dire le droit dans des affaires de principe, participant à la création prétorienne de la norme, son rôle sera de trancher les cas les plus litigieux et les plus contestés par les auteurs du contenu, et en quelque sorte de définir « la norme » du réseau. Des garanties d’indépendance sont évoquées, notamment une gestion de ce « conseil de surveillance » par un trust, certes financé intégralement par Facebook mais extérieur à sa structure de décision.

    Toutefois, aussi louable soit l’intention, il nous paraît indispensable d’éviter toute confusion avec une quelconque « Cour suprême » afin de respecter clairement les prérogatives des systèmes judiciaires des États. La justice française est ainsi rendue « au nom du peuple français » (article 454 du code de procédure civile), et devra conserver le dernier mot en la matière, quitte à assumer des divergences d’interprétation avec d’autres droits locaux. Cette proposition tient, nous semble-t-il, d’une tentation de Facebook de trouver en interne une solution à un problème qui doit par essence impliquer aussi les États, leurs justices, et les sociétés civiles.

    Il existe par exemple des particularités bien nationales, telle l’incrimination en France du négationnisme depuis la loi Gayssot du 13 juillet 1990, confortée en 2016 par le Conseil constitutionnel[14]. Là encore, une fine pesée avait été opérée par la juridiction constitutionnelle, qui à l’inverse censura une disposition législative visant à étendre l’infraction de négationnisme notamment au génocide arménien, la considérant non nécessaire ni proportionnée, aucune juridiction nationale ou internationale n’ayant jamais jugé les faits en cause, susceptibles de faire l’objet de débats historiques[15]. De manière symétrique, la liberté d’expression doit également être protégée par le régulateur par des remises en cause éventuelles par les plateformes, pour le moment relativement limitées[16].

    La plateforme ne peut donc être « souveraine » en ce qu’elle doit se plier à la souveraineté des États, qui ne peuvent se résumer à des marchés d’usagers. Une des conséquences est la prise en compte par la plateforme dans sa politique de modération des arbitrages légaux pris dans chaque pays démocratique relatifs à la liberté d’expression.

    Se posera ainsi la question de savoir si le régulateur pourra infléchir les CGU des plateformes, ou leur interprétation, afin de préserver un droit d’expression politique d’un pays. Par exemple, on sait aujourd’hui combien le marché émergeant de la Chine est important auprès de certaines entreprises numériques, et l’expression de soutien aux manifestations récentes à Hong Kong peut induire une pression économique en faveur d’une censure (habillée en modération standard), ou de techniques plus classiques de manipulation de l’information[17]. Pour le moment, les réseaux sociaux tels que Twitter ou Facebook semblent résilients, mais la vigilance semble être de mise[18].

    La France n’a sans doute pas seule un poids suffisant pour faire bouger des plateformes de la taille de Facebook. La bonne granularité pour une telle régulation est donc bien l’Union européenne. Après le succès du RGPD, qui intéresse de nombreux pays, l’Europe a l’opportunité d’apporter une autre contribution majeure à la démocratie. Une telle régulation implique donc un régulateur européen qui conçoit les grandes lignes de la régulation et coordonne les régulateurs nationaux, ce qui existe déjà en matière de données personnelles ou plus récemment de cybersécurité.

    Les initiatives nationales conservent leur intérêt, mais davantage dans un premier temps stratégique, afin d’établir un rapport de force avec les plateformes et de déplacer les lignes. La loi NetzDG allemande et la future loi dite Avia en sont des démonstrations éclatantes.

    Dans un deuxième temps, la dimension européenne permet à la régulation d’avoir plus de poids vis-à-vis des plateformes hyper puissantes, tout en réduisant les risques de régulation nationale inadaptée et manichéenne, réagissant à des événements particuliers. Le régulateur européen peut vérifier et équilibrer les réponses.

    Toutefois, si l’Europe est le bon niveau de granularité pour une telle modération, le portage de la régulation au niveau européen soulève un risque sérieux, à savoir le choix des critères de compétence du régulateur. Le critère du « pays de destination », c’est-à-dire le pays où réside l’internaute qui a été (ou pense avoir été) victime d’un discours de haine est le plus adapté, et pas le critère du « pays d’installation de la plateforme ». En effet, concrètement cela reviendrait à confier aux autorités hôtes (comme l’Irlande) la modération de la quasi-intégralité des plateformes systémiques quand les effets toxiques sont massivement ressentis et la volonté de corriger ailleurs, ce qui résulterait en un affaiblissement de l’engagement du régulateur.

    La régulation du cyberespace est une gageure, et s’il est toujours facile de voter une loi de régulation, mieux vaut armer correctement son régulateur, le doter d’une souplesse d’action suffisante, d’une compréhension poussée de l’écosystème des algorithmes, avec des objectifs ambitieux et porteurs des valeurs démocratiques, sans quoi ladite loi risque bien de n’être que… virtuelle.

    Serge Abiteboul (Inria et ENS, Paris) et Jacques Martinon (magistrat judiciaire)

     

    [1] https://www.numerique.gouv.fr/uploads/rapport-mission-regulation-reseaux-sociaux.pdf

    [2] En France, 35 millions d’usagers actifs mensuels et 22 millions quotidiens pour le service Facebook (Q2 2019).

    [3] « Toute personne a droit à la liberté d’expression. Ce droit comprend la liberté d’opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontière. […]. L’exercice de ces libertés comportant des devoirs et des responsabilités peut être soumis à certaines formalités, conditions, restrictions ou sanctions prévues par la loi, qui constituent des mesures nécessaires, dans une société démocratique ».

    [4] CEDH, Handyside v. the United Kingdom, arrêt du 7 Déc. 1976.

    [5] https://www.gov.uk/government/publications/ukusa-agreement-on-access-to-electronic-data-for-the-purpose-of-countering-serious-crime-cs-usa-no62019?utm_source=b4d391f0-3d36-4077-8793-d5b2b06944c1&utm_medium=email&utm_campaign=govuk-notifications&utm_content=immediate

    [6] https://www.lemonde.fr/idees/article/2019/06/18/mettre-fin-a-l-impunite-sur-le-web-des-ministres-soutiennent-la-proposition-de-loi-avia_5478019_3232.html

    [7] Le risque de travailler avec des acteurs comme Facebook ou YouTube, et dans une moindre mesure, Twitter, est de surdimensionner le dispositif de régulation, de créer une barrière à l’entrée insurmontable pour des acteurs de taille intermédiaire ou de nouveaux entrants.

    [8] https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona

    [9] https://www.theverge.com/2019/6/19/18681845/facebook-moderator-interviews-video-trauma-ptsd-cognizant-tampa

    [10] CJUE 3 oct. 2019, Facebook Ireland Limited c/ Eva Glawischnig-Piesczek, aff. C-18/18

    [11] Article 15, paragraphe, 1 de la directive « commerce électronique » 2000/31/CE du 8 juin 2000, transposé à l’article 6-I, 7, de la loi n° 2004-575 du 21 juin 2004, dite « LCEN »

    [12] https://www.lemonde.fr/pixels/article/2019/08/28/des-chercheurs-en-partenariat-avec-facebook-posent-un-ultimatum_5503821_4408996.html

    [13] https://fbnewsroomus.files.wordpress.com/2019/09/oversight_board_charter.pdf

    [14] Décision n° 2015-512 QPC du 8 janvier 2016.

    [15] Décision n°2016-745 DC du 26 janvier 2017.

    [16] On rappellera la politique très stricte de certains réseaux sociaux sur la nudité, même partielle et dénuée de caractère pornographique ou choquant.

    [17] https://www.nytimes.com/2019/08/19/technology/hong-kong-protests-china-disinformation-facebook-twitter.html

    [18]http://www.slate.fr/story/182751/lutte-contre-fakes-news-facebook-refuse-supprimer-pub-donald-trump-contient-une-usa

     

  • Internet a 50 ans le 29 octobre 2019

    Il y a seulement 50 ans, Internet n’existait pas. Nous ne pouvions pas imaginer à quel point nos manières de vivre, travailler, apprendre, se déplacer ou même s’amuser allaient se transformer. Quelles autres inventions du siècle dernier ont-elles eu autant d’impacts sur nos vies ?  A l’occasion de cet anniversaire, binaire avait envie de mettre à l’honneur les ressources et initiatives de nos amis et partenaires.

    Un évènement à ne pas rater !

    La Société Informatique de France organise un évènement spécial le mardi 29 octobre 2019 de 17h à 19h30 au CNAM à Paris. Le programme est composé d’interventions courtes de nombreux acteurs d’internet qui seront accessibles à un large public. Pour rendre hommage à la première connexion établie entre deux universités américaines, Stanford et UCLA, une connexion sera établie avec UCLA où une célébration de l’anniversaire a également lieu.

    Pour y participer, inscription obligatoire auprès de Marla Da Silva  (places limitées).

    Un dossier à éplucher !

    Interstices, l’excellente revue de culture scientifique en ligne qui vous invite à explorer les sciences du numérique, a préparé un dossier spécial à l’occasion de cette date charnière. Vous y retrouverez des articles sur l’histoire de cette grande aventure, des interviews de ceux qui ont vécu l’essor d’internet ou bien encore quelques clés de compréhension sur ce qu’est Internet. Le dossier complet est à retrouver sur Interstices.

    Retour au code source

    On ne se prive pas de vous inviter à découvrir ou redécouvrir la série Code Source réalisée en 2007 par Inria qui retrace l’histoire de l’institut depuis sa création en 1967. Profitons de l’occasion pour faire un zoom sur cette fameuse année 1969

    Code_Source Inria_1969

     

    Il y aura sans doute encore beaucoup d’autres contenus à découvrir en suivant le hashtag  #50ansinternet

    Marie-Agnès Enard

  • Vous prendrez bien un peu de nouvelles avant de partir ?

    Copyleft Serge Abiteboul

    binaire prend ses quartiers d’été et vous retrouve à la rentrée.

     

    En attendant, on ne vous abandonne pas. On vous propose tous les vendredis une nouvelle « Bêtises à bloguer » sur le blog de Serge Abiteboul. Vous plongerez dans un univers de science-fiction où le numérique tient une place prépondérante. L’humain s’en amuse et virevolte dans une société qui pourrait être la nôtre ou pas, c’est à nous de voir !

    Marie-Agnès Enard

    Et si vous en voulez plus : les « Bêtises à bloguer » de la Saison 1 (l’été dernier) sont maintenant disponibles en librairie et sur liseuse :
    Le bot qui murmurait à l’oreille de la vieille dame, Éditions le Pommier, 2018.

     

     

     

  • Claude Pair, pionnier de l’informatique

    L’informatique avance vite, trop vite pour certains. C’est pourquoi le domaine mérite de temps en temps un regard dans le rétroviseur. C’est ce que nous allons faire avec Pierre Lescanne, Professeur à l’ENS de Lyon, un chercheur français en logique et informatique théorique. Pierre Lescanne nous parle d’un des grands pionniers de l’informatique, Claude Pair. Il nous ramène à cette époque où tout était à inventer, et en particulier l’enseignement de l’informatique. C’est d’ailleurs un peu un paradoxe de parler de coup d’oeil dans le rétroviseur au sujet de Claude Pair, un visionnaire qui a participé à faire sortir des limbes le monde numérique. Serge Abiteboul
    Claude Pair, site d’Interstice

    Le 14 juin, ses amis et ses anciens élèves célébreront les 85 ans de Claude Pair, un pionnier de l’informatique [1]. En 1962, Claude Pair, ancien élève de l’École normale supérieure, est professeur de classe préparatoire au lycée de Nancy. Il a découvert la programmation pendant son service militaire comme scientifique du contingent. Mais c’est lorsqu’il rejoint Nancy que sa carrière de chercheur en informatique débute quand, ayant appris qu’un langage de programmation révolutionnaire venait d’être décrit par un groupe international, sous le nom d’Algol, il lance une équipe de doctorants dans la réalisation d’un compilateur pour ce langage, c’est-à-dire d’un traducteur, vers la machine à laquelle l’équipe a accès à l’époque, un IBM 1620, qui est mis à leur disposition, la nuit, par le constructeur et qui se trouve à Metz à 60 km, sans autoroute. A l’époque de telles machines ne se programment qu’en langage machine (même pas en assembleur) et les programmes sont saisis grâce à des cartes perforées. Algol est un langage dont les descendants contemporains sont Python, Pascal ou Java. Pour les chercheurs de l’époque, le traduire en code exécutable par la machine est un casse-tête, car aucune des méthodologies qui font partie du bagage d’un informaticien d’aujourd’hui n’existe. Il faut tout créer, tout inventer et les jeunes chercheurs sous la conduite d’un des leurs s’en sortent. Le compilateur commence à fonctionner, mais finalement IBM coupe l’accès à son ordinateur, or c’est le seul dans leur environnement. Cela n’empêche pas les thèses d’être soutenues.

    L’émergence de nouveaux concepts

    IBM 1620, Wiki Common

    Cette recherche empirique a cependant ouvert des horizons à Claude Pair qui a l’intuition que la technologie naissante est plus qu’une ingénierie et que l’« informatique » dont le nom vient d’être inventé est une véritable science, dont les concepts de base sont à inventer. Parmi ceux-ci, il découvre la pile, concept omniprésent, entre autres dans l’analyse syntaxique (l’analyse des programmes qui permet d’en découvrir la structure et de pouvoir les traduire). Pour cette analyse syntaxique, il invente une structure mathématique : le binoïde. En effet, il comprend qu’il faut attaquer l’informatique avec la culture qui est la sienne, celle des mathématiques. A l’époque les calculateurs servent surtout aux physiciens et aux mécaniciens et sont pour eux des outils. Ils sont peu intéressés par la conceptualisation du calcul et de ce qui lui est lié. La notion de binoïde n’a pas survécu, en tout cas pas sous ce nom, mais il est l’une des premières structures mathématiques dont la définition est récursive (on peut calculer sur elle) et c’est cela qui est intéressant. Ses travaux attirent l’attention d’une chercheuse hongroise, Rósza Péter, pionnière des fonctions récursives (ou fonctions calculables) dont elle a dégagé les bases dans les années 30. Il entretient avec elle une correspondance épistolaire en 1968-1969. Dès 1966, il comprend aussi comment une démarche algébrique, associée à l’utilisation d’une « pile », permet de concevoir des algorithmes de cheminement dans un graphe : existence d’un chemin , calcul du plus long chemin, calcul du plus court chemin, calcul de tous les chemins, etc. Le même algorithme abstrait s’instancie dans des algorithmes qui résolvent des problèmes différents. Cette approche innovante sera « redécouverte » de multiples fois, après lui. Mais il est encore insatisfait sur deux points : savons-nous ce qu’est un programme et comment enseigner la programmation ?

    Enseignement de l’informatique, Académie des technologies

    Comment enseigner la programmation ?

    Avant tout, que réalise un programme ? En fait, un programme décrit un calcul dont le but est de résoudre un problème. Ce qui conduit à deux nouvelles questions. Qu’est-ce qu’un problème (informatique) ? Qu’est-ce qu’un calcul ? Avec son équipe nancéienne, il est l’un des premiers à se poser ces questions. Il comprend que les réponses se trouvent du côté de l’algèbre et de la logique, à l’époque peu diffusée en France.

    Quand vous demandez à un débutant d’écrire un programme résolvant un problème, il ne sait pas par quel bout prendre la question. Claude Pair, que ce dilemme préoccupe, met au point une méthodologie qu’il appelle la méthode déductive de programmation qui propose une approche, rigoureuse et raisonnée, pour aborder la programmation et son initiation. Cette méthode repose sur un principe : « il faut partir du résultat ». Il faut ensuite définir quand ils se posent des sous-problèmes à résoudre, le tout étant associé à une disposition rigoureuse et standardisée pour définir et présenter les identificateurs et les notions que l’on introduit, tandis que le programme s’élabore par étapes.

    Un chef de projet et un meneur d’hommes

    Dès la réalisation du premier compilateur pour Algol, Claude Pair s’est révélé un leader incomparable, mais il ne s’arrête pas là ! Il dirige de nombreux doctorants (32 thèses sous sa direction et à ce jour, plus de 120 « descendants » docteurs). Il crée à Nancy ce qui est devenu l’un des meilleurs laboratoires français et européen du domaine. Il préside une université. En 1981, qui marque la fin de sa carrière de chercheur, il est appelé comme Directeur des lycées au Ministère de l’Éducation nationale, puis il devient recteur. Dès 1971, sentant que les nouveaux enseignants maîtrisent difficilement les tout nouveaux concepts qui émergent, il crée une école d’été annuelle. En 1985, il participe à la création de SPECIF, dont il est le premier président, et qui se transformera en la Société informatique de France. Il est actuellement impliqué dans la lutte contre l’inégalité des chances dans l’éducation.

    En fêtant Claude Pair, nous revivons ainsi la naissance de l’informatique en France dont il est un des très grands acteurs.

    Pierre Lescanne, Professeur à l’ENS de Lyon

    [1] Colloque en l’honneur de Claude Pair, Nancy, 14 juin 2019, http://claudepair.fr/

  • Michel Serres est mort

    Binaire est triste. Bon vent Michel !

    Nous reprenons un entretien de Binaire avec lui.

    Les mutations du cognitif

    Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Gilles Dowek interviewent Michel Serres, philosophe, historien des sciences et homme de lettres, membre de l’Académie française. Michel Serres revient sur un thème qui lui est cher, les mutations du cognitif, qu’il a déjà par exemple développé dans Petite Poucette, un immense succès d’édition (Le Pommier, 2012). Cet article est publié en collaboration avec TheConversation.

    Michel Serres, professeur, auteur, membre de l’Académie Française, © Manuel Cohen

    B : Vous avez écrit sur la transformation de l’individu par l’informatique. C’est un sujet qui intéresse particulièrement Binaire.

    MS : Cette transformation se situe dans un mouvement très ancien. Avec l’écriture et l’imprimerie, la mémoire s’est externalisée, objectivée. L’informatique a poursuivi ce mouvement. Chaque étape a été accompagnée de bouleversements des sciences. L’informatique ne fait pas exception. Pour la connaissance, nous avons maintenant un accès universel et immédiat à une somme considérable d’information. Mais l’information, ce n’est pas encore la connaissance. C’est un pont qui n’est pas encore bâti. La connaissance est le prochain défi pour l’informatique. À côté de la mémoire, une autre faculté se transforme : l’imagination, c’est-à-dire la capacité à former des images. Perdons-nous la faculté d’imaginer avec toutes les images auxquelles nous avons accès sur le réseau ? Ou découvrons-nous un autre rapport à l’image ? Quant au raisonnement, certains logiciels résolvent des problèmes qui nous dépassent. Mémoire, imagination, raisonnement, nous voyons bien que toute notre organisation cognitive est transformée.

    B : Au-delà de l’individu, l’informatique transforme toute la société.

    MS : Je commencerais volontiers par les métiers. L’organisation sociale précédente, était fondée sur la communication et sur la concentration. Pour la communication, pensons aux métiers d’intermédiaires, de la « demoiselle du téléphone » au commerçant. Pour la concentration, pensons aux villes – concentrations de personnes et de pouvoir –, aux bibliothèques – concentration de livres, etc. L’informatique transforme ces deux éléments fondamentaux de nos sociétés. Pour la communication, nous assistons à la disparition des intermédiaires. Quant à la concentration, elle cède la place à la distribution. Par exemple, la monnaie émise par les banques centrales, concentration, sont remplacées par les crypto-monnaies, distribution.

    Le lien social a également été profondément transformé. Par exemple, le nombre d’appel le plus important sur un téléphone portable, sont les appels des mères aux enfants. Cela bouleverse les relations familiales. Ce qui a changé également c’est que nous pouvons contacter n’importe qui, n’importe quand, la distance est donc abolie et nous sommes passés d’un espace métrique à un espace topologique. Nous interagissions avant avec les gens qui vivaient près de chez nous. Nous sommes devenus les voisins de tous ceux que nous retrouvons sur le réseau, même s’ils sont au bout du monde. Ça change toute la société qui est bâtie sur des relations.

    Des habitants de Westchester en route vers la ville de New York, 1955. Photo de Guy Gillette

    B : Est-ce que vous y voyez une intensification des liens sociaux ?

    MS : Quantitativement c’est certain. On dit que les gens sont isolés, collés à leur téléphone portable. Quand j’étais jeune et que je prenais le métro, je n’étais pas en relation avec mes voisins. Maintenant, je suis au téléphone, je suis en relation avec quelqu’un. Contrairement à ce qu’on dit, je suis moins seul… Je parlais de solitude. Il faut distinguer entre la solitude et le sentiment d’appartenance. Avant l’informatique, on se disait français, chinois, gascon, breton, chrétien, etc.  C’étaient nos appartenances, qui se sont construites dans un monde qui ne connaissait pas l’informatique. Par exemple, nous vivons encore dans des départements découpés pour que nous puissions aller du chef-lieu n’importe où en une journée de cheval. Cela n’a plus aucun sens.

    Ces groupes se sont presque tous effondrés. L’informatique nous oblige à construire de nouvelles appartenances. C’est ce qui fait le succès des réseaux sociaux. Nous cherchons aveuglément de nouveaux groupes.

    B : Le réseau social d’une personne était naguère déterminé par son voisinage. Aujourd’hui, on peut choisir des gens qui nous ressemblent. N’existe-t-il pas un risque de s’enfermer dans des appartenances ?

    MS : Oui. Mais cela augmente nos libertés. Les aristocrates qui se rencontraient disaient « Bonjour, mon frère », ou « mon cousin ». Un aristocrate s’est adressé à Napoléon en lui disant, « Bonjour, mon ami », pour insister sur le fait que Napoléon ne faisait pas partie de l’aristocratie. Napoléon lui a répondu : « On subit sa famille, on choisit ses amis. »

    Non, le risque principal des réseaux sociaux aujourd’hui, ce n’est pas l’enfermement, ce sont les bobards, les rumeurs, les fausses nouvelles. Nous avons vu les dangers énormes de rumeurs, de haine. Voilà, nous avons un problème sérieux.

    Nous ne savons pas encore mesurer les effets de ces bobards. Les bobards ont-ils déterminé l’élection de Donald Trump ? Mais la question est plus générale. Ce que nous  savons, c’est qu’il y a eu Trump, le Brexit, Poutine, Erdogan, etc. La cause de cette vague vient de la peur que les gens ont du monde qui nous arrive. Et cela est en partie la faute de l’informatique. Nous autres, héritiers des lumières du XVIIIe siècle, nous avions une confiance presque absolue, trop forte peut-être, dans le progrès. Ces événements nous rappellent que tout progrès a un coût. C’est le prix à payer pour l’accès universel à toute l’information. Tout moyen de communication est à la fois la meilleure et la pire des choses. Il faut vivre avec cela.

    Cela donne une idée de la morale nouvelle. Monsieur Bush a parlé de l’axe du mal comme s’il y avait Saint-Georges d’un côté et de l’autre le dragon. Mais, dès que l’on combat le mal, on devient le mal et Saint-Georges se transforme en dragon. Le mal est intimement mélangé au bien. Cela donne une sorte de philosophie du mélange. Leibniz a un mot là-dessus : un accord de septième, une dissonance bien placée peut donner à une composition quelque chose de bien supérieur à l’accord parfait.

    Michel Serres © Plantu (Merci Michel et Plantu)

    B : Dans cette société qui se transforme, ne faut-il pas également que la politique se transforme ?

    MS : vous avez raison. Nous avons connu une bascule de culture énorme du fait des sciences dures, de la physique, la chimie, la médecine, etc. et de l’informatique bien sûr. Ces transformations ont été conditionnées par les sciences dures, moins par les sciences humaines. Pourtant ceux qui nous gouvernent sont surtout formés aux sciences humaines. C’est une catastrophe dont on ne mesure pas l’ampleur. Le décideur, le journaliste… ceux qui ont la parole, en savent peu sur les sciences dures. C’est très dangereux du fait que la politique doit être repensée en fonction du monde contemporain. Ils ne peuvent pas continuer à décider de choses qu’ils ne comprennent plus.

    On le voit tous les jours. Dernièrement, Laurent Fabius m’a invité pour La nuit du droit, avec une très grande partie réservée à l’environnement. Il y avait des juristes, des philosophes, des sociologues, etc., pas un savant. J’ai dit à Fabius : nous allons décider de choses que nous ne comprenons pas. Oh, nous avons des informations, me répondit-il. Vous avez des informations, mais vous n’avez pas la connaissance !

    B : Et le citoyen qui vit ces crises ?

    MS : Le citoyen vit un monde tout à fait nouveau, mais il est dirigé par des gens qui viennent de mondes complètement anciens. Donc, même s’il ne comprend pas ce qu’il vit, le citoyen est déchiré. Les crises politiques que nous traversons viennent de là. Elles sont fondamentalement épistémologiques. On construit, au nord de Paris, un Campus Condorcet exclusivement consacré aux sciences humaines. L’université de Saclay, au Sud, est principalement consacrée aux sciences dures. On met des dizaines de kilomètres entre les deux. Cultivés ignorants ou savants incultes. La tradition philosophique était exactement l’inverse.

    B : Cette séparation nous désespère autant que vous. Mais il semble qu’il y ait une prise de conscience, qu’on commence à ressentir le besoin de faire sauter ces frontières ?

    En période de crise, les problèmes majeurs sont tous interdisciplinaires. Le gouvernement est partagé en spécialités. Prenez le chômage. Il touche le travail, l’éducation, l’agriculture… Un gouvernement en petits morceaux ne peut plus résoudre ces problèmes interdisciplinaires.

    Nous sommes des scientifiques qui continuons une route qui a conduit à l’informatique avec Turing. Nous avons l’idée d’une histoire, d’un progrès. Gouverner, ça veut dire tenir le gouvernail, savoir où on est, d’où on vient, où on va. Aujourd’hui, il n’y a plus de cap, uniquement de la gestion. Il n’y plus de gouvernement parce qu’il n’y a plus d’histoire. Et il n’y a plus d’histoire parce qu’il n’y a plus de connaissance des sciences. Ce sont les sciences dures qui ont fait le monde moderne, pas l’histoire dont parlent les spécialistes de sciences humaines. Il faut conjuguer les deux. L’informatique a un rôle essentiel à jouer, y compris pour transformer les sciences humaines.

    Des informaticiens doivent apprendre à devenir un peu sociologues, un peu économistes, etc. Et les chercheurs en sciences humaines doivent devenir un peu informaticiens. C’est indispensable d’avoir les deux points de vue pour plonger dans le vrai monde.

    B : Peut-être pourrions-nous conclure sur votre vision de cette société en devenir ?

    C’était mieux avant; Le Pommier

    MS : La dernière révolution industrielle a généré des gâchis considérables. Par exemple, on a construit des masses considérables de voitures qui sont utilisées moins d’une heure par jour. Je ne partage pas le point de vue de Jeremy Rifkin qui parle de l’informatique comme d’une nouvelle révolution industrielle. La révolution industrielle accélère l’entropie, quand la révolution informatique accélère l’information. C’est très différent.

    Une autre différence avec une révolution industrielle tient du travail. À chaque révolution industrielle, des métiers ont disparu, et d’autres ont été inventés. Les paysans, par exemple, sont devenus ouvriers. Il est probable que l’informatique détruira beaucoup plus d’emplois qu’elle n’en créera. Nous n’avons pas les chiffres parce que la révolution est en marche, mais il faut s’y préparer. Dans la société d’hier, un homme normal était un ouvrier, un travailleur. Ce ne sera plus le cas dans celle de demain. C’est aussi en cela que nous ne sommes pas dans une révolution industrielle.

    Le travail était une valeur essentielle. Dans la société de demain, peut-être dans cinquante ans, le travail sera une activité rare. Il nous faut imaginer une société avec d’autres valeurs. Le plus grand philosophe de notre siècle sera celui qui concevra cette nouvelle société, la société de l’otium, de l’oisiveté. Qu’allons-nous faire de tout le temps dont nous disposerons ?

    Serge Abiteboul, Inria & ENS, Paris, Gilles Dowek, Inria & ENS Paris Saclay

  • Tout pour Paris, c’est pas juste !

    Lecteurs et lectrices de binaire, de Paris ou de passage à Paris, trois manifestations superbes autour du numérique que vous ne devez pas rater !

    C’est d’abord la très belle exposition « robots » à la Cité des Sciences. Vous pourrez découvrir les progrès en robotique réalisés notamment avec l’intelligence artificielle. On en profite pour vous inviter à relire l’interview d’un des commissaires de l’exposition, Jean-Paul Laumond, qu’il nous avait accordé dans le cadre des Entretiens autour de l’informatique. A consommer sans modération, pour tous les publics depuis les plus jeunes (l’expo pas l’interview).

    C’est ensuite une exposition très intelligente « Computer GRRRLS » à la Gaité Lyrique. Vous y découvrirez en particulier des femmes extraordinaires qui ont fait l’informatique ce qui rend encore plus incompréhensible le désamour actuel en France des femmes pour cette science et technique. L’expo est un gros coup de colère d’artistes devant le rapt de la discipline par les mâles blancs. Les nombreux articles de binaire sur ce sujet, notamment par Isabelle Collet ou Anne-Marie Kermarrec, montrent bien que nous partageons leur constat. Pour tous les publics en particulier les jeunes filles et garçons.

    Enfin, une pièce de théâtre nominée de nombreuses fois au Molière « La Machine de Turing ». La pièce insiste surtout sur la personnalité d’Alan, son amour des sciences, son homosexualité, les persécutions qu’il a eu à subir pour cela. La science est évacuée vite fait mais ce n’est pas le sujet. Et pourtant… la supériorité des humains sur les machines sur lesquelles certains insistent tant, ne tient-elle pas du même esprit que les prétendues distinctions entre hommes et femmes? Sur Alan Turing, on pourra relire, par exemple, l’article de Jean Lassègue sur binaire.

    Nous vous souhaitons beaucoup de plaisir dans ces manifestations. Et si vous avez apprécié, n’hésitez pas à le faire savoir autour de  vous et nous le faire savoir.

    Serge Abiteboul

  • Le World Wide Web, et demain ?

    Le Web est né en 1989. Il a fêté ses 30 ans. Seulement 30 ans et il a déjà véritablement transformé nos vies. On peut faire partie des fans de la première heure comme nous, continuer à croire à toutes ses promesses mais en même temps s’inquiéter de ses dérives. Quand ses plus grands pionniers comme Tim Berners-Lee lancent des alertes, on peut légitimement se poser des questions. Le Web que nous avons connu, celui que nous avons rêvé, n’existe plus. Que va t-il advenir du Web ? Une collection de plaques contrôlées par des États ? Des silos gérés par des oligopoles ? Nous voulons croire qu’il sera autre, qu’il sera ce que, collectivement, nous choisirons. Pour y voir plus clair, nous avons demandé à Jean-François Abramatic, un pionnier de cette belle histoire, ancien Président du World Wide Web Consortium (W3C), de nous parler du Web. Dans une première partie, Jean-François nous a parlé du passé du Web. Dans cette seconde partie, il en tire des leçons pour le futur.
    Le W3C développe les standards du Web pour permettre la multiplication des offres en ouvrant de nouvelles opportunités. C’est ainsi que les Progressive Web Apps ont cherché à fournir une alternative aux App stores. De même, ActivityPub permet une fédéralisation des réseaux sociaux. La difficulté, bien sûr, est de faire adopter ces standards par les leaders du marché. Est-ce par manque de relais politiques, ou surtout de la société civile  ?
    Serge Abiteboul & Pascal Guitton.

    Le Web et la démocratie

    A présent que des milliards de personnes peuvent lire et écrire sur le Web et qu’un petit nombre d’entreprises ayant accumulé des centaines de milliards de dollars de capitalisation boursière ont acquis un poids considérable dans l’économie mondiale, nos sociétés sont confrontées à des défis démocratiques d’un type nouveau.

    La concentration dans un petit nombre d’entreprises de pouvoirs essentiels pour la vie de nos sociétés pose la question de la gestion de monopoles à l’échelle mondiale. La collecte de données personnelles par ces entreprises ou par des organisations gouvernementales pose la question du respect de la vie privée de chacun d’entre nous.

    Par ailleurs, les attaques menées contre les sites d’information et d’échange posent la question de la sécurité de nos échanges et de nos données. La circulation d’informations fausses, diffamatoires, voire illégales, la confusion volontaire entre faits et opinions posent la question de la transparence du débat démocratique.

    Ces défis sont nouveaux dans leur nature mais aussi et surtout dans leurs caractéristiques en terme d’espace et de temps. Comme son nom l’indique, le World Wide Web est global et les défis sont eux aussi à l’échelle de la planète. Aucune solution locale aux problèmes mentionnés n’est sérieusement envisageable. Par ailleurs, la vitesse à laquelle circulent les informations (qu’elles soient vraies ou fausses, privées ou publiques) est elle aussi sans équivalent dans l’histoire.

    Oui, le Web, et nous avec, sommes confrontés à des dangers de nouveaux types.

    Les femmes, les hommes et les machines

    L’Internet est la plateforme de la convergence entre l’informatique, les télécommunications et l’audiovisuel. Apparus au fil du 20ème siècle, le téléphone et la télévision ont changé nos manières de partager informations et connaissances. C’est cependant le développement de l’ordinateur (en particulier lorsque la miniaturisation des composants l’a rendu personnel et connecté) qui a permis d’intégrer ces technologies en un environnement universel que nous utilisons désormais tous les jours, dans n’importe quel endroit, à des fins extraordinairement variées.

    C’est aussi avec l’aide de l’ordinateur que nous trouverons les réponses aux défis qui viennent d’être évoqués. Les contraintes espace-temps que nous devons affronter ne permettent pas aux femmes et aux hommes d’apporter des réponses sans l’usage intensif des ordinateurs. Il faut donc trouver la manière de mettre les technologies à notre service pour prévenir les dangers qui menacent nos démocraties.

    Tous autour de la table

    Cette phot montre une salle de conférences avec une jeune femme qui pfait une préesentation sur un tableau blanc devant une assemblée d'une quinzaine de personnes assises aurout d'une longue table rectangulaire
    Autour de la table – Photo Christina Morillo, site Pexels

    Comment faire en sorte que les moyens numériques soient mis au service de nos démocraties ? Il serait illusoire, voire irresponsable d’attendre qu’un ou quelques programmeurs de talent inventent les machines et programmes qui vont résoudre nos problèmes. Il faut, au contraire, mettre autour de la table gouvernements, entreprises, ingénieurs et chercheurs, représentants de la société civile dans une approche multi-acteurs pour concevoir les systèmes, les applications qui nous permettront d’apporter les réponses appropriées. Aucun de ces acteurs ne doit manquer, ce qui constitue aujourd’hui la première difficulté à surmonter. Sans les représentants de la société civile, il serait difficile de concevoir des systèmes qui gagnent la confiance des citoyens. Sans les entreprises, il serait difficile de développer et de déployer les solutions souhaitées. Sans les gouvernements, il serait difficile d’imposer les solutions ou faire respecter les lois lorsque cela sera nécessaire. Sans les chercheurs et le monde académique, il serait impossible de concevoir des systèmes innovants au service des usagers au rythme auquel le déploiement de ces systèmes est nécessaire pour être efficace.

    Mettre en place une telle approche multi-acteurs reste aujourd’hui encore une tâche complexe. Chacun de ces acteurs pense, à tort, avoir, seul, le droit, la responsabilité, la vision, les moyens pour faire évoluer le Web et l’Internet au service des usagers.

    Des efforts pour faire face aux défis

    Chacun des défis mentionnés fait, bien sûr, déjà l’objet de travaux à des stades très divers.

    La gestion des monopoles et, en particulier, de leur situation fiscale fait l’objet de débats récents mais très vifs à l’heure où ces lignes sont écrites.

    Les questions de sécurité ont été abordées dès les premières heures de l’Internet. Le développement des standards de l’Internet est mené par l’IETF (Internet Engineering Task Force). Depuis très longtemps, chaque projet de standardisation doit se poser la question de l’impact éventuel du nouveau standard sur la sécurité. Cette approche systématique a permis de faire naître des solutions que les acteurs se sont appropriées. Le dialogue multi-acteurs s’est largement engagé.

    Cette image affiche les 3 notions (responsabilité, transparence, confiance) à la base du RGPD
    Les notions clés du RGPD – Extrait du site de la CNIL

    Le respect de la vie privée est le domaine où les différences culturelles se font le plus sentir. L’Union Européenne a récemment adopté une réglementation, appelée Règlement Général sur la Protection des Données (RGPD). Cette réglementation fait l’objet de toutes les attentions. D’autres pays comme le Japon s’y intéresse. Elle pourrait, à terme, être déployée dans le reste du monde. Des grandes entreprises américaines soucieuses de leur présence sur le marché européen s’y intéressent très sérieusement. Il reste à développer les solutions techniques qui permettront la mise en œuvre concrète de la réglementation.

    La lutte contre la haine sur Internet fait également l’objet de rapports et projets de loi en Europe et dans le monde. Des solutions techniques sont, pour l’instant, au stade de l’évaluation. L’orchestration des travaux législatifs et techniques reste à mettre en place. Les algorithmes à la source de problèmes comme la diffusion massive de bobards (fake news) ou de messages de haine sont à même de participer aux solutions. Les grandes entreprises du Web travaillent dans ce sens. Mais sans la participation de la société civile et des gouvernements, leurs résultats seront à juste titre contestables, contestés. Il faut se mettre tous autour de la table.

    Pour être efficace dans leur mise en œuvre, ces lois et règlementations demandent donc des développements logiciels encore en devenir. Si les grandes entreprises du secteur disposent des ressources pour « se mettre en règle », il n’en va pas toujours de même pour les petites entreprises, voire pour les gouvernements lorsqu’il s’agit d’assurer le respect de ces lois. Le dialogue multi-acteurs doit avoir lieu le plus tôt possible pour que la mise en œuvre se fasse de manière efficace et dans l’intérêt de tous.

    Science ouverte au service des citoyens

    Pour montrer qu’il est, à la fois, difficile mais possible de progresser, en guise de conclusion, concentrons nous sur le problème de la véracité des informations et, plus spécifiquement, celui de la place de la science dans nos sociétés. Les débats récents sur le réchauffement climatique, les effets des pesticides, les risques liés au traitement des déchets nucléaires aussi bien que ceux traitant la réduction des inégalités, les effets de mesures fiscales, les coûts de décisions politiques montrent le besoin d’une approche scientifique rigoureuse pour traiter sérieusement ces questions complexes.

    S’agissant de questions essentielles pour la vie de nos sociétés, il est indispensable que le débat démocratique puisse s’organiser autour d’informations aussi exactes et précises que possible. Il est nécessaire que les résultats des travaux scientifiques soient rendus accessibles aux citoyens. Pour atteindre ces objectifs, il faut, dans un premier temps, que les scientifiques, eux-mêmes, se préoccupent de faire les efforts nécessaires pour que leurs résultats soient exploitables par d’autres. Durant les dix dernières années, la communauté scientifique a élaboré une liste de critères à remplir pour que les informations issues de travaux de recherche soient utilisables par tous.

    L’acronyme FAIR (pour Findable, Accessible, Interoperable, Reusable) est désormais utilisé pour qualifier des informations exploitables. Il faut donc qu’une information soit trouvable, accessible, interopérable et réutilisable. Si ces conditions sont remplies, un usager pourra exploiter l’information ou un tiers pourra développer les solutions logicielles qui rendent ces informations utiles pour les citoyens.

    Logo de Hal – Site du CCSD

    La communauté scientifique française montre l’exemple dans ce domaine. L’archive ouverte HAL rassemble plus d’un million de publications mises au service de toutes les communautés scientifiques.

     

    Logo Software Heritage

    Le programme Software Heritage, hébergé par Inria, a pour mission de collecter, préserver et partager tous les logiciels disponibles publiquement sous forme de code source. A ce jour, près de six milliards de fichiers sont ainsi archivés, faisant de Software Heritage, l’incontestable leader mondial.

     

    L’Europe a lancé un programme, appelé EOSC (European Open Science Cloud), dont le but final est de permettre à chacun d’accéder aux informations utiles à son activité. Après avoir vécu une période de lancement, EOSC est entré en 2019 dans une phase de déploiement qui doit l’amener à un régime pérenne en 2021. Si cet objectif est atteint, les productions scientifiques européennes seront disponibles pour que d’autres acteurs (gouvernements, entreprises, société civile) puissent en tirer parti.

    Il est intéressant de noter que parmi les organisations pionnières en ce domaine, le CERN occupe une place de choix. Ayant depuis 30 ans utilisé le Web pour gérer les informations engendrées par ses équipements de physique des hautes énergies, le CERN participe désormais à plusieurs projets européens pour faire progresser la science ouverte au service de toutes les communautés scientifiques.

    Trente ans plus tard, l’histoire se répète en mettant des solutions développées pour une communauté au service du bien commun.

    Ainsi donc,

    Oui, le Web est confronté à de nombreux défis, à de nombreux dangers. Oui, le Web a les moyens de faire face quand les acteurs s’engagent pour combattre les mauvais démons qui veulent tirer parti des opportunités de nuisance que l’ouverture du Web leur procure.

    Le Web continue de se construire grâce aux femmes et aux hommes qui exploitent les technologies de l’information pour faire en sorte que la communication entre citoyens du monde s’enrichisse au service de tous.

    Jean-François Abramatic, Directeur de Recherche Emérite, Inria

  • Le World Wide Web, il y a trente ans…

    Le Web est né en 1989. Il a fêté ses 30 ans. Seulement 30 ans et il a déjà véritablement transformé nos vies. On peut faire partie des fans de la première heure comme nous, continuer à croire à toutes ses promesses mais en même temps s’inquiéter de ses dérives. Quand ses plus grands pionniers comme Tim Berners-Lee lancent des alertes, on peut légitimement se poser des questions. Le Web que nous avons connu, celui que nous avons rêvé, n’existe plus. Que va t-il advenir du Web ? Une collection de plaques contrôlées par des États ? Des silos gérés par des oligopoles ? Nous voulons croire qu’il sera autre, qu’il sera ce que, collectivement, nous choisirons. Pour y voir plus clair, nous avons demandé à Jean-François Abramatic, un pionnier de cette belle histoire, ancien Président du World Wide Web Consortium (W3C), de nous parler du Web. Dans un premier article, il nous parle du passé. Dans un second, il nous fera partager sa vision du futur. Serge Abiteboul & Pascal Guitton.

    Alors que le Web vient de fêter ses trente ans, après avoir reçu une très longue suite de commentaires laudatifs, il est devenu de bon ton de se demander si on peut encore « sauver le Web ».

    Ayant participé aux travaux qui ont permis son développement fulgurant, après avoir assisté à l’événement organisé par le CERN en ce 12 mars 2019, date anniversaire, il m’est apparu utile de partager un point de vue nuancé sur les services que le Web nous rend et les défis auxquels il doit faire face.

    Ma première réaction aux discours promettant le pire est de me rappeler de commentaires similaires datant de la fin 1995. Lors de la clôture de la 4ème conférence World Wide Web tenue à Boston en Décembre 1995, je devais conclure l’évènement en invitant les participants à venir à la conférence suivante qui allait se tenir à Paris en Mai 1996. Juste avant moi, une célébrité du numérique, Bob Metcalfe (inventeur d’Ethernet, devenu pundit des technologies de l’information) avait prédit que l’Internet et le Web allaient s’effondrer en 1996. Son idée, à l’époque, était que la croissance exponentielle du nombre des sites Web et du nombre de leurs usagers allait avoir raison de l’infrastructure qui n’arriverait pas à offrir les bandes passantes nécessaires. Il avait promis de « manger » son article si sa prédiction était fausse.

    Pendant son exposé, j’ai téléchargé un plan du métro de Paris et je l’ai présenté en introduction à ma présentation. Au même moment, une grève de la RATP avait eu raison de la bande passante du métro parisien. J’ai introduit mon exposé en prédisant que l’Internet et le Web ne s’effondreraient pas en 1996 de la même manière que le métro parisien reprendrait son activité normale et serait à la disposition des participants à la conférence de Paris.

    Lors de la 6ème conférence tenue en 1997 à Santa Clara, en Californie, Bob, ayant perdu son pari (car l’Internet et le Web ne se sont pas effondrés en 1996 :-), a tenu parole et  « mangé » son article… devant une audience prête à déguster l’énorme gâteau que l’Université de Stanford, organisatrice de la conférence, avait préparé.

    Même si le Web a « gagné » la confiance de tant d’utilisateurs, on peut questionner ce qu’il est devenu avec lucidité, sans chercher à se faire peur.

    Moitié vide, moitié plein ?

    Tout d’abord, rappelons qu’il s’agit d’une application qui n’a que trente ans et est déjà utilisée par plus de trois milliards de personnes à travers le monde. Un tel déploiement est unique dans l’histoire de l’humanité. Il s’agit d’un « truc » qu’un peu plus de la moitié de la population de la planète utilise tous les jours.

    On doit, bien sûr, insister sur les difficultés auxquelles nous sommes confrontés pour faire en sorte que l’autre moitié de la planète ait accès au Web. La mise en place d’infrastructures dans les zones non couvertes, la baisse des prix des terminaux sont nécessaires pour fournir l’accès à celles et ceux qui en sont aujourd’hui privées. Même si le World Wide Web Consortium (W3C) a lancé le programme Web Accessibility Initiative (WAI) dès 1997, fournir l’accès au Web aux personnes en situation de handicap demande des efforts dans la durée. Des travaux importants sont en cours, animés par de nombreuses organisations gouvernementales ou associatives.  Parmi ses 17 objectifs pour le développement durable, les Nations Unies avaient fixé 2020 pour disposer d’une infrastructure universelle à un coût abordable pour toute la planète. Cet objectif ne sera pas atteint mais le nouvel objectif (2030) reste possible. Cela ne suffira pas à assurer l’accès à tous mais cela éliminera une barrière importante.

    Au service des utilisateurs

    On peut s’interroger sur les raisons qui ont fait que le Web a été inventé au CERN, en Europe, dans un centre de recherches en physique des hautes énergies. Tim Berners-Lee a partagé, à l’occasion de la célébration de l’anniversaire, plusieurs raisons que l’on peut résumer ainsi.

    Cette phot montre l'intérieur d'un tunnel bétonné où se trouvent des composants cymindriques de grande taille
    Un accélérateur de particule – Photographie extraite du site du CERN

    Premièrement, le CERN, grand utilisateur de technologies de l’information, avait besoin de gérer une masse grandissante d’informations complexes pour servir ses utilisateurs. Le mémo que Tim a présenté à sa hiérarchie, il y a trente ans, avait pour titre Information Management: a proposal. Le CERN était équipé de nombreux systèmes informatiques, incompatibles entre eux. Par ailleurs, ces informations devaient être rendues disponibles aux chercheurs en physique des hautes énergies répartis à travers la planète. Le besoin de gestion de l’information était donc à la fois pressant et clairement exprimé.

    Deuxièmement, l’infrastructure informatique du CERN était à l’état de l’art, mettant à disposition des ingénieurs et chercheurs les meilleures stations de travail du moment et la meilleure connectivité à l’Internet. Tim a développé le Web sur une machine NexT, la « Rolls » des stations de travail, conçue par Steve Jobs alors qu’il avait été remercié par le conseil d’administration d’Apple. De manière générale, les chercheurs du CERN bénéficiaient d’équipements haut de gamme. La connexion directe à l’Internet avait été installée en 1989, faisant du CERN un précurseur en Europe dans l’exploitation des protocoles de l’Internet. Les conditions techniques étaient donc remplies pour que Tim envisage de déployer un système de navigation hypertexte sur l’Internet.

    Troisièmement, l’environnement de recherche du CERN permettait la prise de risque voire aiguisait l’appétit des chercheurs pour l’utilisation de technologies innovantes. Tim savait que ses collègues apprécieraient le caractère audacieux de sa vision. Il savait aussi que s’il développait un environnement universel, de nombreux chercheurs et développeurs à travers le monde sauraient reconnaître le potentiel du Web et contribuer à son développement.

    Ainsi donc, les conditions nécessaires à la conception du Web étaient réunies à Genève, dans un des plus grands centres de recherche européen et non pas en Silicon Valley : un besoin (gérer des informations à la fois précieuses et complexes), un environnement à l’état de l’art, un appétit pour la prise de risque et l’innovation.

    Yes, we ‘re Open !

    Si le CERN offrait donc un environnement accueillant pour l’émergence d’innovations audacieuses, l’organisation a aussi su prendre des choix stratégiques essentiels lorsque les premières indications du potentiel du Web sont apparues. Dès 1991, à la demande de Robert Cailliau et de Tim, le CERN a fait savoir au monde entier que la technologie du Web serait mise dans le domaine public. Tout chercheur, tout développeur dans le monde pourraient ainsi apporter son talent et son énergie pour contribuer au succès du Web.

    Quelques années plus tard, le World Wide Web Consortium (W3C), sous la direction de Tim Berners-Lee, a institué une nouvelle manière de partager les standards du Web en faisant en sorte que ces standards soient disponibles pour tous Royalty Free. Jusqu’alors, la politique Reasonable And Non Discriminatory prévalait dans les organismes de standardisation, rendant l’exploitation de ces standards incertaine en terme de propriété industrielle.

    Ainsi donc, le Web est devenu libre de droits, favorisant la floraison de « milliers de fleurs ».

    Cette phot montre un grand nombre de fleurs bleues sur des tiges
    Fleurs – Extrait du site Pixambo

    Intégrer les services existants

    Une des grandes richesses des infrastructures numériques est qu’elle facilite l’usage par tout nouveau développement des déploiements antérieurs. Depuis l’apparition du système d’exploitation Unix au début des années 70, les innovations émergentes peuvent bénéficier naturellement des résultats des générations qui les ont précédées. La portabilité des systèmes et applications a permis, par exemple, d’exploiter « sans douleur » les innovations en matière de matériels (nouveaux processeurs) en limitant au strict minimum les développements logiciels spécifiques aux nouvelles machines.

    Dans le même esprit, Tim a conçu le Web pour qu’il puisse accueillir les autres applications de partage d’information (transfert de fichiers, systèmes documentaires). Ce choix a convaincu la communauté des développeurs de la sincérité de l’ouverture de Tim et accéléré l’adoption du Web.

    En choisissant le Web, on peut développer de nouveaux services en continuant à utiliser les anciens.

    Lire et écrire

    La première version du Web, développée par Tim, permettait à l’utilisateur de lire et écrire les informations rangées sur le serveur permettant ainsi aux usagers d’échanger, de communiquer grâce au Web.

    Le succès initial du Web a, cependant, été nourri par une ambition plus limitée où le navigateur mis à la disposition de l’usager pouvait seulement lire les données, faisant de la fonction d’écriture ou de création d’information une tâche réservée à une catégorie limitée d’auteurs. Dans cette version limitée, le Web a tout de même permis à des centaines de milliers de services de se développer, à de nombreuses entreprises de trouver leurs modèles de développement, … à quelques entreprises (telles que Google, Amazon, Microsoft, Apple) de prendre des positions dominantes.

    Il faudra attendre l’émergence des Wikis (tel que Wikipedia), puis des réseaux sociaux (tels que Facebook, Twitter) pour que la communication retrouve son caractère bidirectionnel.

    Ainsi donc, le Web a fourni l’occasion à quelques entreprises de l’ouest des Etats-Unis de devenir les premières capitalisations boursières mondiales, à d’autres entreprises de se réinventer, à des milliards d’usagers de partager des informations et d’utiliser des millions de services « en ligne ».

    Intérêt général, intérêts particuliers

    Dans le monde numérique, lorsque qu’une innovation devient un succès, de nombreuses voies peuvent être suivies par les inventeurs et créateurs. C’est ainsi que les deux acteurs à l’origine du succès du Web ont choisi des voies différentes.

    Cette image montr ele logo du W3C composée des 3 lettres ; les 2 premières sont en bleu, la dernière en noirb
    Logo W3C – (C) W3C

    Tim Berners-Lee a choisi de créer le W3C pour « mener le Web à son plein potentiel ». W3C a ainsi été hébergé dès le milieu des années 90 par le MIT, aux Etats-Unis, Inria, en Europe, l’Université de Keio en Asie. W3C a rapidement rassemblé plus de 500 organisations (grandes entreprises, universités et centres de recherche, petites et moyennes entreprises, start-ups, associations à but non lucratif ou gouvernementales) à travers le monde. W3C a développé de manière collective les standards du Web grâce aux contributions de plus de 10,000 ingénieurs et chercheurs. Plus de 300 recommandations ont été émises par le consortium, parmi lesquelles HTML, CSS, XML, WCAG qui fournissent le socle sur lequel le Web s’est développé.

    Marc Andreessen, l’auteur de Mosaic, le navigateur qui a permis le déploiement fulgurant du Web au milieu des années 90, a choisi de créer une société en Silicon Valley. Netscape a été la première start-up à exploiter le potentiel du Web. Netscape a fait une entrée en bourse record en 1995 avant de devoir fermer ses portes en 2003. La rivalité entre Netscape et Microsoft a cependant été au cœur du déploiement initial du Web. Les deux entreprises ont largement participé aux travaux du W3C pour bâtir les fondations solides sur lesquelles le Web repose encore aujourd’hui.

    Au fil des années, les entreprises et les organisations à but non lucratif ont contribué, côte à côte, au développement du Web.

    Le W3C et Wikipedia ont joué un rôle important dans le succès du Web. Le mouvement Open Source qui a pour objectif de partager les efforts de développement logiciel s’est largement amplifié grâce à l’infrastructure fournie par le Web. La Fondation Creative Commons, dans le but d’encourager la libre circulation des œuvres, propose des licences de mise à disposition d’un type nouveau tirant parti des possibilités offertes par le déploiement du Web.

    Les entreprises leaders du marché ont, également, offerts à leurs utilisateurs des services essentiels tels que moteur de recherche, courrier électronique ou outils de travail collaboratifs distribués avant d’inventer les modèles économiques qui ont fait leur fortune.

    De nouveaux services ont été créés pour permettre l’échange ou la vente entre particuliers. Les entreprises de l’ « ancien monde » ont changé leur manière d’interagir avec leurs clients en s’appuyant sur le Web.

    Le monde est devenu instrumenté, interconnecté et intelligent… Avec le Web, je peux aussi piloter à distance la nouvelle chaudière que je viens de faire installer…

    Il reste qu’aux côtés d’Apple et Microsoft, créées avant le Web, dans les années 80, d’autres entreprises, Google, Amazon créées à la fin des années 90, Facebook, Twitter créées au début des années 2000 ont eu le succès que l’on connaît aujourd’hui au point de prendre des positions dominantes qui sont des menaces pour le Web ouvert tel qu’il a été conçu par Tim Berners-Lee.

    Jean-François Abramatic, Directeur de Recherche Emérite, Inria

  • Au cœur des réseaux

    Au cœur des réseaux, Fabian Tarissan, Éditions Le Pommier, 2019

    Les réseaux routiers ou fluviaux. Les réseaux commerciaux. Le réseau des anciens d’une école. L’idée de réseau est présente depuis longtemps dans les organisations humaines. Le numérique l’a portée à des dimensions nouvelles avec Internet (un réseau de machines), le Web (un réseau de contenus), Facebook ou Twitter (des réseaux sociaux). La notion de réseau tient une place essentielle car elle permet une organisation agile entre des masses d’éléments – les nœuds du réseau – et les arcs qui les relient. L’absence de hiérarchie est la puissance, la force de cette structure que figure parfaitement la notion de toile (web en anglais).

    Le réseau relie à la masse des autres. Il enferme aussi dans les carcans des bulles locales (la fameuse Filter Bubble théorisée par Eli Pariser). Que toutes les connaissances du monde soient à la portée de quelques clics, c’est grâce aux réseaux. Que les messages de haine ou les fausses nouvelles se propagent comme des virus, c’est leur faute.

    Fabien Tarissan, chercheur en informatique et vice-président de la Société informatique de France, est un spécialiste du domaine. Dans son livre, il propose une introduction dans le monde des réseaux notamment sur les approches scientifiques de la théorie des graphes. Il couvre un spectre très large : les réseaux « petit monde » et réseaux « sans échelle », les aspects algorithmiques des moteurs de recherche du web et des réseaux sociaux, l’économie de l’attention, etc.

    On aimerait mieux comprendre le monde numérique. Peut-on trouver des points communs entre Internet, le Web, les réseaux sociaux ? Quels grands principes régissent ces réseaux et d’autres ? Avec le livre de Fabien Tarissan, on peut commencer pour cela à comprendre quelques grands principes, quelques lois qui régissent ces grands réseaux.

    Serge Abiteboul

  • Trottinettes électriques et intelligence artificielle

    La tête dans le guidon ©Saint-Oma

    Hasard du calendrier, l’annonce d’un neuvième service de trottinettes électriques en libre-service à Paris (le 21 mars 2019) est arrivée le lendemain de celle par la mairie d’une taxe sur les trottinettes, vélos électriques, et autres deux roues en libre-service qui encombrent la belle Cité comme d’autres d’ailleurs.

    Juste un service de plus ? Non ! La start-up Citron-Vert révolutionne véritablement la profession. Sa trottinette embarque un agent conversationnel qui nous a véritablement impressionné.

    La Citron-Vert parle pour indiquer le meilleur chemin, faire éviter un embouteillage, faire passer sur le trottoir parce que la route est pavée… Elle sait crier si vous êtes un peu dur d’oreille. Elle peut également choisir le chemin qui vous expose le moins possible à la pollution, y compris sonore. Vous renseignez sur votre compte quelques informations si vous le souhaitez : âge, genre, intérêts spécifiques comme l’histoire, les arts ou la gastronomie… Vous pouvez préciser si vous êtes pressé, prudent, en vacances… Elle s’adapte.

    J’ai pu essayer la Citron-Vert. Je lui ai indiqué mon intérêt pour la culture. Elle m’a fait faire un grand détour pour découvrir un mural ; j’ai adoré. Elle m’a ensuite saoulé un bon quart d’heure avec Ilya Khrzhanovsky et son installation. Là, je lui ai demandé de se calmer.

    Citron-Vert encourage ses utilisateurs à rechercher la sécurité. Elle utilise la reconnaissance d’image pour ne démarrer qu’après avoir vérifié que vous portez bien votre casque et votre gilet jaune fluorescent. J’avais choisi le mode prudent ; elle m’a trainé à 5 à l’heure sur de larges trottoirs, et même demandé parfois de mettre pied à terre pour traverser une rue. Alors je lui ai dit de passer en mode pressé. Elle n’a pas hésité à me faire emprunter à toute vitesse une voie express – où légalement il n’est pas clair qu’on ait le droit d’être en trottinette. Amateurs de sensations fortes, vous allez être servis. Les services d’urgence sans doute aussi.

    Fanny Ardant, Wikipedia, Photo Georges Biard

    J’avais choisi de la faire parler avec la voix de Fanny Ardant. Après une demi heure de balade dans Paris, j’avais comme le sentiment d’avoir Fanny comme nouvelle amie.

    Barry White, WikipediaFotograaf Onbekend / Anefo

    Bon, il reste bien quelques points de détail à régler avec l’algorithme. Ma trottinette a par exemple soudain cessé d’obéir à mes commandes. Je dois reconnaitre que j’ai un peu paniqué. Mais ce n’était finalement rien de grave : elle avait juste été attirée par une autre Citron-Vert qui passait à proximité, avec la voix de Barry White. On est bien peu de chose !

    Serge Abiteboul avec la participation de Marie-Agnès Enard

  • Le mythe du Syndrome de la Reine des abeilles

    A l’occasion de la Journée Internationale des Droits des Femmes, Anne-Marie Kermarrec a choisi de parler de la théorie du Syndrome de la Queen Bee, le Syndrome de la Reine des abeilles. Elle la dézingue pour Binaire. Serge Abiteboul

    Combien de fois dans ma carrière, académique ou entrepreneuriale du reste, à la faveur de jurys, de comités de sélection, de comités de recrutement, voire même dans la sphère personnelle, n’ai je entendu cette litanie dès qu’on aborde la parité « Le pire c’est que les femmes sont encore plus dures avec les autres femmes que les hommes eux-mêmes ». Un peu comme on entend parfois que les femmes sont bien pires avec leurs belles-filles qu’avec leurs gendres, ou plus sévères que les hommes avec leurs brus, voire finissent toujours par bitcher un peu sur leurs copines. En fait les femmes sont-elles vraiment les pestes de service quand leurs alter-égos sont irréprochables sur le sujet ?

    Dans le milieu professionnel, ce phénomène est encore plus marqué lorsque les femmes sont largement minoritaires, comme c’est le cas par exemple dans le numérique. Et chacun y va de son explication : qui d’expliquer que les femmes sont jalouses, qu’elles voient dans leurs congénères des rivales, qu’elles veulent conserver leur suprématie et j’en passe. Alors, mythe ou réalité ?

    Mon objectif n’est évidemment pas de défendre les femmes mais d’essayer de faire l’inventaire de ce que l’on raconte à ce sujet, des explications plus ou moins rationnelles dont ces théories sont assorties pour essayer de comprendre où nous en sommes aujourd’hui. Il est intéressant de constater du reste que les anglo-saxons, ont même un nom pour ce phénomène : le syndrome Queen Bee, reine des abeilles en français, en référence au fait que cette reine n’accepte pas de partager son pouvoir dans la ruche. Intéressant du reste de voir que même le syndrome est genré, on avait pourtant le choix quand on sait que les mâles se dispute la place unique de chef de clan chez les loups ou les lions. Mais manifestement nul besoin de nommer explicitement un comportement hostile d’un homme envers un autre homme, c’est si naturel.

    Si ce syndrome est donc bel et bien défini par nos amis d’outre-Atlantique comme celui qui pour une femme qui a percé dans son milieu professionnel, généralement numériquement dominé par les hommes, consiste à dénigrer voire brimer les autres femmes plutôt que de leur offrir son support inconditionnel, il s’applique du reste tout aussi bien à d’autres minorités, raciales, sexuelles ou sociales mais on en parle moins. Margareth Thatcher est souvent citée comme figure de proue de ce syndrome.

    Donc nous en sommes là, alors même que des études soulignent que les hommes font preuve d’autant, voire plus, d’agressivité que les femmes, le stéréotype est ancré, colporté, discuté : nous avons quelque chose dans nos gènes qui nous rend hostiles aux autres femmes. Je vous livre donc un florilège d’explications potentielles que j’ai pu découvrir en discutant autour de moi et en observant les multiples réactions à des candidatures féminines.

    Théorie numéro 1 : le complexe d’infériorité

    Certains pensent que ce syndrome relève du simple complexe d’infériorité, c’est du reste cette explication qui s’adapte le mieux aussi aux autres minorités (raciales, sexuelles, etc.). L’explication viendrait du fait que les femmes sont dominées depuis la nuit des temps : certaines théories, en particulier défendues par Françoise Héritier [1] tendent à montrer que c’est en effet dès le néolithique que les hommes ont cherché à dominer les femmes en particulier en limitant leur accès à des nourritures très protéinés. La théorie est que les hommes, effrayés du pouvoir des femmes à enfanter, ont cherché à les diminuer de cette manière et qu’ainsi le dimorphisme physique ait été favorisé par des comportements sociaux de la préhistoire qui, s’ils étaient inconscients, étaient organisés. Notez que cette théorie est contestée [2] et je ne suis pas anthropologue mais je la trouve osée en tous cas.

    Mais revenons à nos moutons, ainsi une femme, qui convaincue depuis son plus jeune âge, par la société qu’elle est « inférieure » en tous cas sur certains points à l’homme, applique ce complexe à toute représentante de son sexe et verra peut-être dans une candidature féminine, une infériorité dont elle souffre certes, mais dont elle a aussi largement accusé réception inconsciemment et qu’elle transmet inéluctablement.

    Théorie numéro 2 : la peur d’être remplacée

    Cette théorie est de loin la plus répandue et pourtant de mon point de vue la moins crédible. Elle consiste à expliquer que les femmes ont un comportement hostile vis à vis des autres femmes car elles ont une peur inconsciente d’être remplacées, en particulier dans certains milieux où en claire infériorité numérique, elles jouissent d’une situation particulière.

    En prenant le risque de me faire traiter de féministe agressive, qui déteste les hommes (comme si ça allait avec), ce sont du reste surtout des hommes qui généralement soutiennent cette théorie.

    C’est faire affront à notre bon sens que de penser ceci, il est bien évident pour toutes celles qui se trouvent dans des milieux très déséquilibrés en matière de parité, que nous aspirons à une plus grande diversité et que non seulement nous œuvrons pour la plupart à inciter plus de jeunes filles à embrasser des domaines éminemment masculins. Comme ce déséquilibre est un facteur aggravant pour l’engagement des jeunes filles dans ces disciplines, nous cherchons donc, pour la plupart, à défendre les femmes plus qu’à les dissuader.

    Théorie numéro 3 : l’envie de voir les autres en baver autant

    Cette théorie relève du fait que les femmes dans des milieux masculins en ont bavé pour arriver où elles en sont, en particulier en adoptant des modes de vie, de pensée, d’interaction, masculins, s’il en est. Ces femmes en particulier ont souvent mis leur bébé à la crèche à trois mois, n’ont pas nécessairement pris de congé parental, prennent des baby-sitters après l’école, adoptent un style d’interaction compatible avec leurs alter-égos etc. Quand bien même, elles affirment l’avoir fait délibérément et naturellement, elles ont parfois souffert de se voir malmener par la société ou leur entourage qui a pu tendre à les culpabiliser ou leur renvoyer une image de femme pour qui la carrière passe avant le reste, reproche assez peu formulé à l’égard des hommes.

    Est-il possible que ces femmes attendent alors de leurs congénères d’en passer par là ? C’est une théorie qui a pu avoir un sens pour d’autres générations, à des époques où effectivement réussir pour une femme passait par un abandon quasi total de vie de famille, sociale, etc. En conséquence ces femmes en attendaient autant des autres femmes, voire leur rendaient la vie plus difficile pour les endurcir et mieux les préparer. Ce n’est plus le cas aujourd’hui à mon humble avis, surtout dans des domaines aussi jeune que celui du numérique et les femmes ne cherchent plus nécessairement à endurcir les plus jeunes mais plutôt à les guider.

    Théorie numéro 4 : une simple réaction au machisme

    Cette théorie est de loin la plus politiquement incorrecte. Elle consiste à expliquer un comportement hostile des femmes vis à vis des autres femmes en réaction au machisme ambiant. Prenons l’exemple, d’une femme qui bénéficie d’un jugement positif par des hommes dans un cadre scientifique en raison de critères qui sont tout sauf scientifiques. Clairement un jugement, favorable certes, mais sexiste de la part des hommes. En contrepoids, les femmes, potentiellement très agacées par la prise en compte de ces critères qui d’une part ne devraient pas intervenir, d’autre part sont clairement déplacés, peuvent réagir en recentrant le débat et en forçant le trait sur les critères éligibles. C’est souvent dans ce type de situation que les hommes en arrivent à la conclusion que les femmes sont décidément très jalouses entre elles et se retrouvent ainsi affublées de ce syndrome de Queen Bee.

    Théorie numéro 5 : le double standard

    Probablement la théorie la plus crédible. Est ce que tout ca ne vient pas tout simplement du fait que les réactions des femmes envers les femmes sont extrêmement stigmatisées ?

    Comme je le voyais très récemment (juillet 2018) dans une vidéo de Girl gone international, quand un homme s’exprime de manière assurée, il est sûr de lui et c’est une qualité, une femme est plutôt perçue comme arrogante, quand un homme est incisif, une femme est plutôt agressive. L’équivalent d’un homme stratège est une femme manipulatrice, d’un bon manager est une femme qui cherche à contrôler. On est attendri par un homme féministe et agacé par ces femmes féministes, que l’on imagine constamment en colère contre le monde entier.

    C’est ce qu’on appelle le double standard : si des hommes critiquent d’autres hommes, c’est du bon sens, s’ils se disputent, c’est normal voire sain. Du reste on attend des hommes qu’ils ne soient pas d’accord, qu’ils argumentent, qu’ils affirment leurs idées. Une femme qui se manifeste est en colère (ou pire, a ses règles), si elle critique une autre femme, elle devient rapidement une harpie, jalouse de la concurrence. Et cette perception est malheureusement perpétuée par les hommes et les femmes elles-mêmes parfois.

    Pour conclure, nombreux (plus que nombreuses) s’accordent à dire que les femmes sont des chipies entre elles, et les théories fleurissent sur les explications au syndrome Queen Bee. Pourtant, il s’agit bien souvent de réactions normales simplement mal interprétées car les femmes ne encore pas soumises aux mêmes attentes et plutôt victimes de ce double standard. Et malheureusement ce double standard ne se cantonne pas aux comités de recrutement, mais touchent la sphère sociale, familiale, sexuelle etc. mais ça c’est une autre histoire !

    Il semblerait que si le mythe persiste, ce syndrome soit bel et bien révolu comme le montre une étude brésilienne effectuée sur plus de huit millions de travailleurs de plus de 5000 organisations [5] et aujourd’hui les preuves [6] ne manquent pas pour montrer que les femmes luttent quotidiennement contre les stéréotypes de genre, que plus il y a de femmes dans un milieu professionnel, moins il y a de harcèlement et plus les écarts de salaires sont faibles. En outre, une femme recevra une meilleure écoute de son manager si c’est une femme que si c’est un homme concernant l’organisation familiale par exemple, une entrepreneuse aura plus de chances de lever des fonds si des femmes se trouvent parmi les investisseurs. S’il a jamais existé dans des générations précédentes, ce n’est plus une réalité aujourd’hui. Qu’on se le dise !

    Anne-Marie Kermarrec, PDG de Mediego et Directrice de Recherche Inria

    Références

    [1] https://abonnes.lemonde.fr/societe/article/2017/11/05/francoise-heritier-j-ai-toujours-dit-a-mes-etudiantes-osez-foncez_5210397_3224.html

    [2] http://www.slate.fr/story/155300/patriarcat-steak-existe-pas

    [3] https://www.huffingtonpost.com/2014/03/07/things-women-judged-for-double-standard_n_4911878.html

    [4] https://uanews.arizona.edu/story/incivility-work-queen-bee-syndrome-getting-worse

    [5] https://phys.org/news/2018-04-queen-bee-phenomenon-myth.html

    [6] http://www.dailymail.co.uk/health/article-5612183/Queen-Bee-syndrome-isnt-real.html

     

     

  • Science numérique et technologie pour tou·te·s ! Oui mais comment ?

    Faire de la pub pour un Mooc à destination des profs de Sciences Numériques et Technologie dans un magazine grand public comme Binaire. Ils sont devenus fous chez Binaire ? Non ! D’abord, nous voulons vous sensibiliser à un problème qui nous obsède : quand on décide d’enseigner l’informatique massivement dans l’éducation nationale, comment fait-on pour former les enseignants déjà en poste ? Les MOOC peuvent aider. Ensuite, nous pensons que certains lecteurs de Binaire seront intéressés par ce MOOC sans pour autant avoir à enseigner. Tout le monde peut découvrir l’informatique, femme ou homme, jeune ou vieux. Si vous vous sentez frustré.e.s par votre méconnaissance de cette nouvelle science, nous vous invitons à suivre ce MOOC. Serge Abiteboul, Thierry Viéville.

    Dans le cadre de la réforme du lycée, l’enseignement des fondements de l’informatique prend une place importante. Ainsi dès la classe de Seconde générale et technologique, un nouvel enseignement, Sciences Numériques et Technologie (SNT), est proposé à toutes et à tous.

    Comment aider les enseignants de SNT ? Quels savoirs partager avec eux ? Quelles ressources sélectionner ? Quelles compétences leur transmettre pour qu’ils puissent assurer ce nouvel enseignement ?

    Une réponse à ces questions : un MOOC [1] pensé comme un outil de formation un peu particulier, un espace de partage et d’entraide, où chacune et chacun construira son parcours selon ses besoins et ses connaissances, un cours en ligne qui va évoluer avec le temps ; on commence quand on veut (dès le 15 mars 2019) et on y revient aussi souvent qu’on en a besoin.

    Ce cours a pour ambition de fournir des prérequis et des premières ressources pour démarrer des activités en SNT avec les lycéens en lien avec les 7 thématiques du programme. Des gros plans sur quelques sujets qui peuvent faire l’objet d’approfondissement et des activités clés en main seront proposés. Ce MOOC vient aider et complémenter les formations nécessaires à cet enseignement que propose l’éducation nationale.

    Pour accéder à plus d’informations sur le programme du cours et vous inscrire dès maintenant rendez-vous sur la plateforme FUN.

    Début du cours le 15 mars 2019.

    Ce cours est proposé par Inria en collaboration avec de nombreux contributeurs, avec le soutien du Ministère de l’Éducation Nationale et de la Jeunesse et en partenariat avec Class’ Code.

    On vous attend nombreux !

    A bientôt.

    L’équipe du MOOC SNT

    Ce billet a été publié sur pixees.fr, merci de leur partage.

    (*) MOOC, Massive Open Online Courses, se traduit en bon français en FLOT pour Formation en Ligne Ouverte à Tous.

    [1] créés en 2011, les MOOC offrent un ensemble de ressources pédagogiques de natures très différentes (vidéos, transparents, sous-titres, audios…) qui sont gratuitement mises à disposition  des participants via le web. Il suffit donc de s’inscrire sur une plate-forme (FUN, OpenClassrom, Cursera, EdX…), puis de suivre les contenus à son propre rythme. Par ailleurs, et ce n’est pas le moins important, les MOOC sont accompagnés d’un ensemble de forums où les participants et les enseignants peuvent échanger, se poser des questions, apporter des éclairages complémentaires.

  • Intelligence mécanique : le retour !

    En 2013, le blog Intelligence mécanique voyait le jour sous l’impulsion de Thierry Viéville ! Grâce à lui, plusieurs d’entre vous, en savent plus sur le monde de l’informatique.

    A l’époque l’objectif de ce blog était le suivant : parler de l’intelligence des machines, celle de l’informatique et surtout co-construire ensemble une culture scientifique liée à la science informatique  pour maîtriser ce monde numérique qui nous entoure sans le subir ni se limiter à le consommer.

    Ikram Chraibi Kaadoud

    Ikram Chraibi Kaadoud a récemment repris le flambeau : même objectif qu’en 2013, avec toutefois une variante, plus de sciences cognitives !

    Chaque article débute par une indication pour expliciter le niveau de complexité qui sera abordé dans l’article mais toujours dans un esprit de médiation :

    • Tout public, lycéen·ne·s : l’article contiendra peu ou pas de référence mathématique au delà du niveau de début de lycée, il servira de ressources aux lycéen·ne·s sur ces sujets
    • Public familial : l’article aura vocation à expliquer un concept, répondre à une question informatique d’un point de vue sociétal, sans pour autant imposer d’éléments techniques
    • Public averti : l’article contiendra des références en sciences informatiques et mathématiques et des notions plus techniques pourront être abordées, avec toujours les liens Wikipédia idoines

    « Mettre les sciences informatiques à la portée de toutes et de tous », tel est l’objectif d’intelligence mécanique.

    Ce billet a été publié sur pixees.fr, merci de leur partage.

  • Où va l’informatique ?

    Gérard Berry a de nombreuses casquettes : scientifique, membre de l’académie des sciences, entrepreneur (Esterel Technologies), Régent » de « Déformatique » au Collège de Pataphysique, écrivain, défenseur de l’enseignement des sciences… Il a été le premier informaticien a devenir Professeur du Collège de France en 2007-2008. (Voir la page Binaire sur ce collège.) Gérard Berry quitte le Collège de France pour de nouvelles aventures. Il nous parle de son dernier cours. Serge Abiteboul

    Gérard Berry, Journal du CNRS

    Cette année 2018-2019 sera la dernière de mon enseignement au Collège de France. Mon cours, intitulé « Où va l’informatique ? », me permettra de fermer la parenthèse ouverte en 2007-2008, année où j’avais tenu la chaire annuelle d’innovation technologique Liliane Bettencourt avec le cours « Pourquoi et comment le monde devient numérique ». Comme c’était alors la toute première fois que l’informatique était présentée au Collège de France, j’avais délibérément choisi un enseignement destiné au grand public. J’ai ensuite traité de sujets nettement plus techniques : la modélisation du calcul, le temps en informatique, la vérification de programmes, et le langage Esterel. Fermer la parenthèse ouverte par mon premier cours veut dire pour moi revenir 11 ans après vers un cours destiné à un public large mais curieux et attentif, comme celui qu’on trouve physiquement ou par Internet au Collège de France, de faire un point sur les transformations de ce domaine en plein essor, et de tracer les lignes de force probables de son évolution.

    Le paysage informatique a beaucoup changé depuis 2007, et il va encore probablement changer encore plus à l’avenir : le « numérique » révolutionne le monde. Un point symboliquement important est que, même s’il est souvent caché derrière « numérique », le mot « informatique » est enfin accepté comme désignant une discipline scientifique et technique affectant en profondeur quasiment tous les pans des techniques, des sciences, de la médecine et de plus en plus de la société toute entière. Pour mémoire, en 2007, ce mot désignait plutôt pour le public un rayon de supermarché ou les ennuis provoqués par des systèmes mal fichus, et on parlait encore de façon quelque peu condescendante de « l’outil informatique ». Mais, si le mot est mieux connu maintenant, il n’est pas pour autant mieux compris : le grand public reste largement ignorant des grandes évolutions du domaine et surtout de leurs causes scientifiques et techniques. Ces aspects sont d’ailleurs peu et souvent mal décrits dans les médias, au contraire de ce qui se passe pour d’autres sciences comme la physique ou l’astronomie où les scientifiques se sont depuis bien plus longtemps engagés dans la vulgarisation. Pour l’informatique, les principaux médias tendent à se concentrer tous ensemble sur un seul sujet à la fois. Ce furent les imprimantes 3D, qui devaient révolutionner l’industrie manufacturière mais dont on ne parle plus alors qu’elles existent toujours ; c’est maintenant l’intelligence artificielle, à laquelle on prête indifféremment des miracles ou des peurs qui n’ont pas beaucoup à voir avec la réalité. Sa composante d’apprentissage automatique obtient des succès impressionnants dans des domaines comme l’analyse d’images, la traduction des langues, et l’analyse de grandes données en général, mais ce n’est pas vraiment d’elle que parlent les journaux (la radio publique le fait bien mieux). Bien d’autres sujets tout aussi importants mais moins propices aux fantasmes sont trop rarement discutés.

    Or, la société informatisée qui nous attend dépendra directement de nos choix conscients ou inconscients. La persistance d’une mauvaise compréhension des raisons de la puissance des mouvements actuels nous conduirait à subir les choix faits par les autres plutôt que d’organiser nous-mêmes notre évolution. Cela se voit déjà clairement en observant que notre pays, qui a longtemps considéré l’informatique comme une activité secondaire, est loin de faire partie des leaders du domaine (sauf pour sa recherche, qui est de niveau mondial). Mais, pour faire des choix sensés, il faut d’abord comprendre. Mon objectif sera donc d’expliquer les ressorts de l’informatique moderne au grand public, afin de lui permettre de mieux saisir ses évolutions actuelles et apprécier leurs effets positifs ou négatifs. J’insisterai sur deux sujets particulièrement essentiels pour l’avenir : la sûreté des logiciels, trop souvent atteints par des bugs allant du pénible au dangereux, et la sécurité informatique, qui devient partout un problème majeur à cause de la multiplication et de l’industrialisation des vols de données et des attaques contre les systèmes informatisés, y compris ceux qui sont reliés directement à la vie courante comme les transports, les hôpitaux et l’industrie. Enfin, j’insisterai sur l’importance de l’éducation à l’informatique, qui se met enfin en place au lycée. Les séminaires approfondiront certains de ces points.

    Dans cet effort descriptif et prospectif, je m’appuierai largement sur mon livre « L’Hyperpuissance de l’informatique », écrit lors d’une année sabbatique en 2016-2017, et publié par les Éditions Odile Jacob en octobre 2017. Une autre référence importante en ce qui concerne les impacts sociaux est le livre « le temps des algorithmes », de Serge Abiteboul (titulaire de la chaire Informatique et sciences numériques en 2011-2012) et Gilles Dowek, paru en janvier 2017 aux Éditions Le Pommier.

    Gérard Berry, Professeur au Collège de France

  • Wikipédia : 270 profils de femmes scientifiques contemporaines

    Jess Wade, chercheuse spécialisée dans les appareils électroniques en plastique, a décidé de s’attaquer au problème de la sous-représentation des femmes dans les branches scientifiques. Afin de mettre en avant les grandes femmes scientifiques, elle rédige des fiches Wikipédia sur certaines d’entre elles.

    Des portraits qu’elle a partagés sur Twitter avec le hashtag #womeninSTEM (STEM désignant Science, Technology, Engineering, et Mathematics).

    En six mois, Jess Wade a écrit 270 pages Wikipédia sur des femmes ayant eu une influence dans la recherche scientifique. De quoi susciter des vocations chez les jeunes filles.

    Pour aller plus loin :

    L’article dans son intégralité (Science digital)

    En France, 21 % des ingénieurs sont des femmes. 13 % aux États-Unis. Lire l’article de Forbes : « 21% des ingénieurs sont des femmes en France. Ce n’est pas une fatalité»

    La brochure : « 40 femmes scientifiques remarquables du XVIII siècle à nos jours« .

     

     

    Le livret d’activités « Science au féminin »

     

     

    Ce billet est repris du site de ressources de médiation scientifique pixees.fr.