Catégorie : Informatique

  • Recommandés pour vous… ou presque 2/3

    La série d’articles « Recommandés pour vous… ou presque » a pour but d’expliquer les grands principes et les risques soulevés par les systèmes de recommandation, une famille d’algorithmes omniprésente pour les internautes. Après avoir présenté leur but et leur fonctionnement général, Eliot Moll se concentre sur les biais que peuvent présenter ces algorithmes, notamment ceux dits « naturels ». Jill-Jênn Vie.

    Qu’est-ce qu’un biais ?

    Commençons par définir la notion de « biais » dans le contexte des algorithmes et de l’intelligence artificielle. Un biais est une erreur systématique entre les résultats obtenus et les résultats théoriques attendus. Les biais ont tendance à engendrer de l’imprécision, des erreurs d’analyse, des différences de traitement voire des injustices. Les biais dans les résultats d’algorithmes proviennent essentiellement des données utilisées en entrée et émanent de biais cognitifs humains ou d’erreurs de mesures. Cependant, la construction algorithmique (i.e. l’imbrication des règles) de certains algorithmes, comme ceux des systèmes de recommandation, génèrent également des biais.

    Ces dernières années, nous avons pu constater les répercussions néfastes d’algorithmes biaisés sur les individus, qu’il s’agisse d’un outil de recrutement s’avérant être sexiste ou encore d’un algorithme d’analyse d’image particulièrement raciste. Ces comportements, s’ils n’ont typiquement pas été créés volontairement par les concepteurs de ces modèles, auraient dû être envisagés et évités. Cependant, nous constatons que des biais dans les données (surreprésentation d’hommes dans une entreprise, ou sous-représentation de personnes noires dans la labellisation d’humains) sont toujours possibles, avec des conséquences dramatiques.

    Cet article se concentrera sur 3 dérives algorithmiques spécifiques aux systèmes de recommandation.

    Le biais de popularité

    Ce biais se caractérise par le fait que les objets les plus populaires (les plus notés, les plus regardés, les plus achetés, etc.) reçoivent beaucoup plus d’exposition et apparaissent plus fréquemment dans les recommandations que les objets peu populaires ou de niche.

    Le biais de popularité n’est pas qu’un biais lié à la qualification des données (s’assurer d’utiliser des données non biaisées). Certes, on retrouve évidemment un biais sociétal lorsque certains objets sont uniformément plus présents à travers les utilisateurs (par exemple, une culture populaire cinématographique mondialisée). Cependant le problème provient aussi du traitement statistique en lui-même. Plus un objet A est coprésent avec d’autres objets (dans l’historique d’un utilisateur) plus il est statistiquement possible de lier cet objet A à d’autres objets. De la même manière, si un objet B n’a été vu que par une poignée d’utilisateurs on comprend qu’il soit plus difficile de trouver des liens robustes entre cet objet B et le reste des objets possibles.

    Le biais d’exposition

    Le second biais qu’il faut avoir à l’esprit est le biais d’exposition car il est au cœur de l’interaction entre l’utilisateur et le système de recommandation. Ce biais se caractérise par le fait que les choix des utilisateurs ne sont pas des choix libres mais sous contrainte de ce qui leur est proposé (i.e. recommandé). Bien que ce postulat semble évident, il implique quelques risques lorsqu’il s’agit de prendre en compte les actions des utilisateurs (achats, vues, clics, ajouts au panier, etc.). Il est compliqué d’intégrer la notion de choix contraint dans l’entraînement d’un modèle. Ce manque d’information fait donc confondre la situation « parmi les objets présentés, l’utilisateur a préféré celui-ci » et « l’utilisateur voulait cet objet ».

    Ainsi, pour les cas où les choix proposés ne sont pas parfaitement alignés avec les goûts de l’utilisateur, ce dernier choisira « le plus proche » de ses goûts réels. Cependant ce choix de l’utilisateur peut être interprété par le système comme étant parfaitement représentatif de ses goûts et donc mener à un apprentissage biaisé. Cela conduira à des futures recommandations ne couvrant qu’une partie de ses goûts.

    Le biais d’amplification

    Le dernier biais présenté dans cet article est un effet de boucle que l’on va appeler, par abus de langage, biais d’amplification. Chaque nouvelle interaction entre un utilisateur et le système de recommandation représente de nouvelles informations permettant de mieux cibler les prochaines recommandations pour cet utilisateur, pour les autres utilisateurs ainsi que pour les produits concernés (nouveaux liens entre les produits, entre les clients, etc.). Contrairement à beaucoup d’algorithmes qui sont entraînés puis déployés, les systèmes de recommandation s’adaptent en prenant en compte les interactions passées.

    Les boucles recommandations-choix-entraînement peuvent reporter des biais (comme ceux vus précédemment) d’itération en itération. L’effet le plus connu de cette amplification a été observé sur les réseaux sociaux. Nommé « bulle de filtre » (filter bubble en anglais), il désigne ce phénomène au cours duquel l’internaute se retrouve petit à petit dans une bulle, exposé uniquement à certains types de contenus. Un biais d’amplification n’est pas aussi palpable que les autres biais présentés précédemment mais peut seulement s’observer sur le long terme.

    Pour expliquer l’effet potentiel d’une amplification combinée aux biais d’exposition et de popularité, prenons l’exemple d’un internaute amateur de 3 genres de films : « action », « épouvante » et « science-fiction ». Lors de la première recommandation, le genre « épouvante » est malencontreusement absent car aucun film d’épouvante n’est suffisamment populaire pour être recommandé par défaut à cet utilisateur encore inconnu du système de recommandation. L’utilisateur y trouve son compte car les deux autres genres qu’il apprécie sont présents et il choisira des films parmi ceux présentés. Le nouvel entraînement du modèle prendra en compte ce qu’aura sélectionné l’utilisateur lors de ses interactions précédentes. Dans le meilleur des cas, s’il a choisi les 2 autres genres, ils seront probablement tous deux présents dans les recommandations suivantes. Dans le pire des cas, s’il n’a consommé qu’un seul de ses genres préférés présentés (« action » ou « science-fiction »), il se peut qu’il ne retrouve que ce genre aux prochaines recommandations.

    L’exemple présenté est simpliste et très radical à chaque étape. Un système de recommandation réel convergera de la même manière, cela nécessitera seulement plus d’itérations moins radicales. Cela permettra, dans de nombreux cas, à l’internaute de ne pas se faire enfermer dans une bulle de filtre, mais pourra en « piéger » quelques-uns.

    En conclusion

    Ces 3 biais naturels présentés sont les plus connus mais cela ne signifie pas qu’ils sont les seuls à impacter les résultats. Ils peuvent être considérés comme indépendants de la volonté de la plateforme car ils dégradent les recommandations sans apporter d’intérêt pour la plateforme.
    Le prochain article expliquera comment il est possible pour une plateforme de dégrader la pertinence des recommandations afin d’en tirer profit aux dépens des utilisateurs. Nous verrons ensuite des embryons de solutions permettant de lutter contre ces situations.

    Pour les plus curieux, vous pouvez vous rendre sur la page Wikipédia des biais cognitifs afin de prendre connaissance des biais que nous pouvons porter. Même s’ils ne sont pas tous en lien avec les biais dans les algorithmes, vous n’aurez pas de mal à en identifier certains qui pourraient être néfastes !
    Pour rester dans le domaine des biais algorithmiques, l’article Wikipédia Algorithmic bias (en anglais) sur le sujet est très détaillé et fournit, entre autres, de nombreux exemples réels observés ces dernières années.

    Eliot Moll, Ingénieur Data Science, Inria.

  • Elle simule des supercondensateurs avec un simple ordi

    Un nouvel entretien autour de l’informatique. Céline Merlet est une chimiste, chercheuse CNRS au Centre Inter-universitaire de Recherche et d’Ingénierie des Matériaux (CIRIMAT) de Toulouse. C’est une spécialiste des modèles multi-échelles pour décrire les matériaux de stockage d’énergie. Nous n’avons pas le choix, il va nous falloir faire sans les énergies fossiles qui s’épuisent. Le stockage d’énergie (solaire ou éolienne par exemple) devient un défi scientifique majeur.  Céline Merlet nous parle des supercondensateurs, une technologie pleine de promesses.
    Céline Merlet ©Françoise Viala (IPBS-Toulouse/CNRS-UT3)

    Binaire : Pourrais-tu nous raconter brièvement la carrière qui t’a conduite à être chercheuse en chimie et médaille de bronze du CNRS 2021

    Céline Merlet : Au départ je n’étais pas partie pour faire de la chimie mais de la biologie. J’ai fait une prépa et je voulais devenir vétérinaire, mais pendant la prépa, je me suis rendue compte que je m’intéressais de plus en plus à la chimie. J’ai aussi fait un projet de programmation et j’y ai trouvé beaucoup de plaisir. Je suis rentrée, dans une école d’ingénieur, Chimie ParisTech. En 2e année, j’ai fait un stage de trois semaines sur la modélisation de sels fondus, des sels qui deviennent liquides à très hautes températures. J’y ai découvert la simulation numérique de phénomènes du monde réel, j’ai compris que j’avais trouvé ma voie. Après l’école de chimie, je suis retournée faire un doctorat dans ce même labo où j’avais réalisé le stage. Un postdoctorat en Angleterre, et j’ai été recrutée au CNRS en 2017.

    B : Pourquoi n’es-tu pas restée en Angleterre ?

    CM : Avec la difficulté d’obtenir un poste en France et le fait que j’étais bien installée en Angleterre, j’ai aussi candidaté là-bas. Mais, il y a eu le Brexit et cela a confirmé ma volonté de rentrer en France.

    B : Tu es chimiste, spécialiste des systèmes de stockage électrochimique de l’énergie qui impliquent des matériaux complexes. Pourrais-tu expliquer aux lecteurs de binaire ce que cela veut dire ?

    CM : Le stockage électrochimique de l’énergie concerne l’utilisation de réactions électrochimiques pour stocker de l’énergie. Les systèmes qu’on connaît qui font ça sont les batteries dans les téléphones et les ordinateurs portables, et les voitures. Les batteries utilisent des matériaux complexes avec certains éléments comme le lithium, le cobalt, et le nickel. On charge et décharge le dispositif en le connectant à un circuit électrique. Les matériaux sont modifiés au cours des charges et décharges. C’est ça qui leur permet de stocker de l’énergie.

    Schéma d’un supercondensateur déchargé. Crédit Céline Merlet
    Schéma d’un supercondensateur chargé. Crédit Schéma Céline Merlet

    Ma recherche porte sur les supercondensateurs. Dans ces systèmes-là, on a deux matériaux poreux qui sont des électrodes qu’on connecte entre elles via un circuit extérieur. Quand on charge (ou décharge), des molécules chargées vont se placer dans des trous ou au contraire en sortent. Un stockage de charge au sein du matériau en résulte. Mais d’une manière très différente de celle des batteries. Il n’y a pas de réaction chimique. C’est une simple adsorption des molécules chargées.

    B : Tu travailles sur la modélisation moléculaire, en quoi est-ce que cela consiste ?

    CM : J’ai parlé des deux électrodes qui sont en contact avec cette solution d’ions chargés. Souvent pour les supercondensateurs, ce sont des carbones nanoporeux. Les pores font à peu près la taille du nanomètre (1 millionième de millimètre) : c’est quelque chose qu’on ne peut pas observer à l’œil nu. Pour comprendre comment les ions entrent et sortent de ces pores de carbone, au lieu de faire des expériences physiques, des mélanges dans un laboratoire, je fais des expériences numériques, des mélanges dans l’ordinateur. J’essaie de comprendre comment les ions bougent et ce qui se passe, à une échelle qu’on ne peut pas atteindre expérimentalement.

    B : Ça exige de bien comprendre les propriétés physiques ?

    CM : Oui pour modéliser la trajectoire des ions, la façon dont ils se déplacent, il faut bien comprendre ce qui se passe. Quand on lance une balle, si on donne les forces qu’on applique au départ, on peut en déduire la trajectoire. Pour les ions c’est pareil. On choisit le point de départ. On sait quelles forces s’appliquent, les forces d’attraction et de répulsion. On a des contraintes comme le fait qu’une molécule ne peut pas pénétrer à l’intérieur d’une autre. Cela nous permet de calculer l’évolution du système de molécules au cours du temps. Parfois, on n’a même pas besoin de représenter ça de manière très précise. Si une modélisation même grossière est validée par des expériences, on a le résultat qu’on recherchait. Dans mon labo, le CIRIMAT, il y a principalement des expérimentateurs. Nous sommes juste 4 ou 5 théoriciens sur postes permanents. Dans mon équipe, des chercheurs travaillent directement sur des systèmes chimiques réels et on apprend beaucoup des échanges théorie/expérience.

    B : Typiquement, combien d’atomes sont-ils impliqués par ces simulations ?

    CM : Dans ces simulations numériques, on considère de quelques centaines à quelques milliers d’atomes. Dans une expérience réelle, c’est au moins 1024 atomes. (Un millilitre d’eau contient déjà 1022 molécules.)

    B : Et malgré cela, vous arrivez à comprendre ce qui se passe pour de vrai…

    CM : On utilise des astuces de simulation pour retrouver ce qui se passe dans la réalité. Une partie de mon travail consiste à développer des modèles pour faire le lien entre l’échelle moléculaire et l’échelle expérimentale. Quand on change d’échelle, ça permet d’intégrer certains éléments mais on perd d’autres informations de l’échelle moléculaire.

    B : Dans ces simulations des électrodes de carbone au sein de supercondensateurs modèles en fonctionnement, quels sont les verrous que tu as dû affronter ?

    CM : Au niveau moléculaire, il y a encore des progrès à faire, et des ordinateurs plus puissants pourraient aider. Les matériaux conduisent l’électricité, les modèles considèrent que les carbones sont parfaitement conducteurs, mais en réalité ils ne le sont pas. Pour une meilleure représentation, il faudrait tenir compte du caractère semi-conducteur de ces matériaux et certains chercheurs travaillent sur cet aspect en ce moment.

    Pour obtenir des matériaux qui permettraient de stocker plus d’énergie il nous faudrait mieux comprendre les propriétés microscopiques qui ont de l’influence sur ce qui nous intéresse, analyser des résultats moléculaires pour essayer d’en extraire des tendances générales. Par exemple, si on a deux liquides qui ont des ions différents, on fait des mélanges ; on peut essayer brutalement plein de mélanges et réaliser des simulations pour chacun, ou on peut en faire quelques-unes seulement et essayer de comprendre d’un mélange à un autre pourquoi le coefficient de diffusion par exemple est différent et prédire ainsi ce qui se passera pour n’importe quel mélange. Mieux on comprend ce qui se passe, moins il est nécessaire de faire des modélisations moléculaires sur un nombre massif d’exemples.

    Configuration extraite de la simulation d’un supercondensateur modèle par dynamique moléculaire. Les électrodes de carbone sont en bleu, les anions en vert et les cations en violet. Crédit Céline Merlet

    B : Tu as reçu le prix « 2021 Prace Ada Lovelace » de calcul haute performance (HPC). Est-ce que tu te présentes plutôt comme chimiste, ou comme une spécialiste du HPC ?

    CM : Je ne me présente pas comme une spécialiste du calcul HPC mais mes activités nécessitent un accès à des ordinateurs puissants et des compétences importantes dans ce domaine. Une partie de mon travail a consisté en des améliorations de certains programmes pour pouvoir les utiliser sur les supercalculateurs. Rendre des calculs possibles sur les supercalculateurs, cela ouvre des perspectives de recherche, et c’est une contribution en calcul HPC.

    B : Quelles sont les grandes applications de ton domaine ?

    CM : Concernant les supercondensateurs, c’est déjà utilisé dans les systèmes start-and-stop des voitures. C’est aussi utilisé dans les bus hybrides : on met des supercondensateurs sur le toit du bus, et à chaque fois qu’il s’arrête, on charge ces supercondensateurs et on s’en sert pour faire redémarrer le bus. On peut ainsi économiser jusqu’à 30 % de carburant. Des questions qui se posent : Est-ce qu’on pourrait stocker plus d’énergie ? Est-ce qu’on pourrait utiliser d’autres matériaux ?

    Bus hybride utilisant des supercondensateurs, Muséum de Toulouse

    B : On sait que les batteries de nos téléphones faiblissent assez vite. Pourrait-on les remplacer par des supercondensateurs ?

    CM : Si les batteries stockent plus d’énergie que les supercondensateurs, elles se dégradent davantage avec le temps. Au bout d’un moment le téléphone portable n’a plus la même autonomie que quand on a acheté le téléphone. Un supercondensateur peut être chargé et déchargé très vite un très grand nombre de fois sans qu’il soit détérioré. Pourtant, comme les quantités d’énergie qu’ils peuvent stocker sont bien plus faibles, on n’imagine pas que les supercondensateurs standards puissent remplacer les batteries. On voit plutôt les deux technologies comme complémentaires. Et puis, la limite entre supercondensateur et batterie peut être un peu floue.

    B : Tu es active dans « Femmes et Sciences ». Est-ce que tu peux nous dire ce que tu y fais et pourquoi tu le fais ?

    CM : J’observe qu’on est encore loin de l’égalité femme-homme. En chimie, nous avons une assez bonne représentativité des femmes. Dans mon laboratoire, qui correspond bien aux observations nationales, il y a 40% de femmes. Mais en sciences en général, elles sont peu nombreuses.

    Un but de « Femmes et Sciences » est d’inciter les jeunes, et particulièrement les filles, à s’engager dans des carrières scientifiques. Je suis au conseil d’administration, en charge du site web, et je coordonne avec d’autres personnes les activités en région toulousaine. Je suis pas mal impliquée dans les interventions avec les scolaires, dans des classes de lycée ou de collège : on parle de nos parcours ou on fait des ateliers sur les stéréotypes, de petits ateliers pour sensibiliser les jeunes aux stéréotypes, pour comprendre ce que c’est et ce que ça peut impliquer dans les choix d’orientation.

    Nous avons développé en 2019 un jeu, Mendeleieva, pour la célébration des 150 ans de la classification périodique des éléments par Mendeleiev. Nous l’utilisons pour mettre en avant des femmes scientifiques historiques ou contemporaines : on a un tableau et on découvre à la fois l’utilité des éléments et les femmes scientifiques qui ont travaillé sur ces éléments. Nous sommes en train de numériser ce jeu.

    L’association mène encore beaucoup d’autres actions comme des expos, des livrets, etc…

    B : La programmation est un élément clé de ton travail ; est-ce que tu programmes toi-même ?

    CM : J’adore programmer. Mais comme je passe pas mal de temps à faire de l’encadrement, à voyage et à participer à des réunions, j’ai moins de temps pour le faire moi-même. Je suis les doctorants qui font ça. Suivant leur compétence et leur appétence, je programme plus où moins.

    B : D’où viennent les doctorants qui passent dans ton équipe ? Sont-ils des chimistes au départ ?

    CM : Ils viennent beaucoup du monde entier : Maroc, Grèce, Inde. Ils sont physiciens ou chimistes. J’ai même une étudiante en licence d’informatique en L3 qui fait un stage avec moi.

    B : Est-ce que certains thèmes de recherche en informatique sont particulièrement importants pour vous ?

    CM : En ce moment, on s’interroge sur ce que pourrait apporter l’apprentissage automatique à notre domaine de recherche.  Par exemple, pour modéliser, on a besoin de connaitre les interactions entre les particules. Des collègues essaient de voir si on pourrait faire de l’apprentissage automatique des champs de force. Nous ne sommes pas armés pour attaquer ces problèmes, alors nous collaborons avec des informaticiens.

    Serge Abiteboul, Inria et ENS, et Claire Mathieu, CNRS et Université Paris-Cité

     Pour aller plus loin

    Les supercondensateurs à la loupe ou comment l’écorce de noix de coco est utilisée pour stocker l’énergie, Céline Merlet, Muséum de Toulouse, 2019

    https://cirimat.cnrs.fr/?lang=fr

    https://www.femmesetsciences.fr/

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • Recommandés pour vous… ou presque 1/3

    La série d’articles « Recommandés pour vous… ou presque » a pour but d’expliquer les grands principes et les risques soulevés par les systèmes de recommandation, une famille d’algorithmes omniprésente pour les internautes. Ce premier article, écrit par Eliot Moll, portera sur une présentation générale des systèmes de recommandation et de leur utilité. Les deux articles suivants porteront sur les biais et les risques de ces algorithmes ainsi que les solutions qui s’offrent aux internautes. Jill-Jênn Vie.

    Des recommandations, partout !

    De nos jours les systèmes de recommandation sont omniprésents dans le quotidien de tout internaute. On les retrouve dès notre première requête dans un moteur de recherche, et dans la plupart des sites que nous consultons ensuite : streaming musical et vidéo, réservation de logements ou de vols, achats sur n’importe quel site de e-commerce, fils d’actualités, etc. Ce sont ces recommandations qui nous guident et nous influencent sans même que nous nous en rendions compte. Avez-vous déjà essayé de comprendre ce qui se trouve derrière ces listes personnalisées aux noms équivoques tels que « recommandés pour vous », « selon vos goûts » ou bien « susceptibles de vous plaire » ?

    Les recommandations sont-elles nécessaires ?

    La première question que nous sommes en droit de nous poser est celle du bien-fondé de l’utilisation de ces systèmes sur les sites. Y-a-t-il un intérêt à leur utilisation ou bien est-ce un simple gadget algorithmique qui amuse les spécialistes des données et les développeurs de site web ?
    Techniquement et en des termes simples, un système de recommandation est une combinaison de règles mathématiques ayant pour but d’identifier et présenter les éléments (comme des objets, films, actualités, etc.) les plus susceptibles d’intéresser un internaute.
    Que l’on souhaite acheter une cafetière, consulter une vidéo ou bien se faire livrer un repas, nous faisons face en permanence dans nos recherches sur le web à de multiples choix possibles. Face à cette situation, les moteurs de recommandation sont des points d’entrée nécessaires pour trier ces éléments, et ne nous présenter qu’une partie de ce qu’on appellera « le catalogue des possibles ». Le filtre réalisé par un moteur de recommandation nous propose un échantillon de biens de taille humainement accessible et classé selon l’intérêt.
    Dans un premier temps, prenons un peu de recul vis-à-vis des recommandations numériques et revenons aux recommandations classiques telles que pratiquées dans le commerce depuis bien longtemps.
    Lorsque nous nous rendons dans un supermarché pour acheter un shampoing, le rayon contenant des dizaines de shampoings différents est le résultat d’une sélection déjà effectuée par le magasin par rapport à l’ensemble des produits qu’il aurait pu acheter. Ensuite, la position des produits dans le rayon représente l’ordre de la recommandation faite par le magasin : la tête de gondole ainsi que les rangées à hauteur des yeux sont pour les produits que l’on veut nous vendre en priorité et les autres espaces (tout en bas, tout en haut) sont destinés aux produits les moins prioritaires.
    Le même principe peut s’appliquer à l’agence de voyage qui utilise un prospectus des voyages qu’elle propose, l’office de tourisme qui fournit des brochures de certaines activités de la région, etc.
    Bien que le supermarché, avec ses shampoings déjà en rayon, et l’agence de voyage, avec son prospectus, offrent un sous-catalogue standardisé grâce auquel tous les clients accèdent aux mêmes produits aux mêmes endroits, l’office du tourisme peut apporter une couche de personnalisation via son chargé de clientèle. En effet, il peut amener de l’intelligence relationnelle et essayer d’adapter ses propositions en discutant avec les touristes décrivant leurs envies.
    Le rôle d’un système de recommandation est d’être un point d’entrée du catalogue des possibles afin de nous présenter un sous-catalogue « humainement absorbable », c’est-à-dire nous prenant un temps raisonnable à parcourir pour y trouver notre bonheur. La plus-value d’un « bon » système de recommandation est de savoir réaliser une action de personnalisation, telle qu’on la retrouve dans le cas de l’office du tourisme. Cela signifie qu’il nous offre un sous-contenu personnalisé filtrant le catalogue des possibles et réduisant ainsi le temps de consultation de chacun d’entre nous.

    Comment sont réalisées les recommandations aujourd’hui ?

    Sans rentrer dans les détails algorithmiques et l’état de l’art de ces algorithmes, on peut distinguer 3 grandes familles d’approches sur lesquelles se basent les systèmes de recommandation.

      • La recommandation basée sur les produits (item-based en anglais) venant comparer les caractéristiques de l’ensemble des produits disponibles (taille, prix, couleurs, volumes, descriptions, etc.) afin de calculer une ressemblance entre tous les couples de produits possibles et recommander un produit similaire à un produit déjà consommé ou en cours de consultation. Si un internaute aime un produit A et que ce produit A est très proche d’un produit B alors il semble naturel de lui recommander le produit B. Ce genre d’approche fonctionne plutôt bien avec des films, des musiques, des livres, etc.
      • La recommandation basée sur les utilisateurs (user-based en anglais) venant comparer les caractéristiques des utilisateurs (via les informations renseignées sur leur compte client ou les cookies informatiques) afin de calculer une ressemblance entre les utilisateurs et recommander les mêmes produits que ceux consommés par les utilisateurs les plus proches. Ce genre d’approche peut fonctionner pour de la publicité : les gens de d’une catégorie d’âge regardent des skateboards (alors que les autres catégories regardent des voitures ou des déambulateurs) on va donc leur proposer des skateboards plutôt que des voitures ou des déambulateurs.
      • Enfin, le filtrage collaboratif (collaborative filtering en anglais) étant parmi les méthodes les plus à l’état de l’art et s’avère être particulièrement efficace. Le principe est de se baser uniquement sur l’historique de consommation afin de créer des regroupements d’utilisateurs consommant approximativement les mêmes produits indépendamment des caractéristiques des dits produits ou consommateurs. Si un internaute a apprécié les produits A et D et qu’une dizaine d’autres consommateurs ont apprécié les produits A, D et G, on va recommander à l’internaute le produit G que cette dizaine de personnes a également apprécié.

    En conclusion

    Avec les évolutions technologiques des dernières années (puissance de calcul, capacité de stockage), il est maintenant possible d’entraîner des algorithmes de plus en plus complexes. Malheureusement, cette complexité engendre un manque de lisibilité des prises de décision des algorithmes.
    Les systèmes de recommandation affichent des niveaux de personnalisation de plus en plus impressionnants mais ne semblent pas encore omniscients. Il nous est déjà tous arrivé de se faire recommander des publicités, des articles ou des produits qui étaient loin de nous correspondre. Cependant, derrière ce flou algorithmique il devient difficile de comprendre l’origine de ces recommandations erronées. Est-ce uniquement notre unicité que les systèmes n’arrivent pas à saisir ou est-ce que d’autres facteurs entrent en ligne de compte ? Dans les prochains articles nous apporterons des éclaircissements sur les autres facteurs potentiels tels que « les biais », volontaires ou non, présents dans les systèmes de recommandation.

    Pour ceux souhaitant approfondir leurs notions sur les systèmes de recommandation (et entrer un peu dans les détails algorithmiques) vous pouvez retrouver un ancien article sur binaire traitant du sujet (article de Raphaël Fournier-S’niehotta).

    Eliot Moll, Ingénieur Data Science, Inria.

  • La réalité virtuelle ? Des effets bien réels sur notre cerveau !

    Comment notre cerveau réagit et s’adapte aux nouvelles technologies ?  La réalité virtuelle permet de vivre des expériences sensorielles très puissantes … et si elle se mettait dès maintenant au service de votre cerveau ? Anatole Lécuyer nous partage tout cela dans un talk TEDx. Pascal Guitton et Thierry Viéville

    Au-delà des jeux vidéos, ces nouvelles technologies ouvrent la voie à des applications radicalement innovantes dans le domaine médical, notamment pour les thérapies et la rééducation. Anatole Lécuyer nous parle de nouvelles manières d’interagir avec les univers virtuels.

    En savoir plus : https://www.tedxrennes.com/project/anatole-lecuyer

    La conférence TED est une importante rencontre annuelle qui depuis 33 ans  rassemble des esprits brillants dans leur domaine, et on a voulu permettre à la communauté élargie de ses fans de diffuser l’esprit TED autour du monde. Les organisateurs souhaitent que les échanges entre locuteurs et participants soient variés, inspirés, apolitiques dans un esprit visionnaire et bienveillant. Les sujets traités sont très vastes : économie, société, culture, éducation, écologie, arts, technologie, multimédia, design, marketing…

    Le texte de la conférence :

    Et si .. nous partagions ensemble une expérience de réalité virtuelle? Imaginez-vous, en train d’enfiler un visio-casque de réalité virtuelle comme celui-là, avec des écrans intégrés juste devant les yeux, que l’on enfile un peu comme un masque de ski ou de plongée, avec le petit élastique là, comme ça…
    Et .. voilà ! vous voilà « immergé » dans un monde virtuel très réaliste. Dans une pièce qui évoque un bureau, qui ressemble peut-être au vôtre, avec une table située juste devant vous, une plante verte posée dans un coin, et un poster accroché sur le mur à côté de vous.

    Maintenant, j’entre dans la scène .. et je vous demande de regarder votre main. Vous baissez la tête et voyez une main virtuelle, très réaliste aussi, parfaitement superposée à la vôtre et qui suit fidèlement les mouvements de vos doigts.
    Par contre, il y a un détail qui vous gêne, quelque-chose de vraiment bizarre avec cette main ..
    Vous mettez un peu de temps avant de remarquer.. ah, ça y est : un sixième doigt est apparu, comme par magie, là, entre votre petit doigt et votre annulaire .. !
    Je vous demande ensuite de poser la main sur la table, et de ne plus bouger. Avec un pinceau, Je viens brosser successivement et délicatement vos doigts dans un ordre aléatoire. Vous regardez le pinceau passer sur l’un ou l’autre de vos doigts, et lorsqu’il arrive sur le sixième doigt, vous êtes sur vos gardes .. mais là, incroyable, vous ressentez parfaitement la caresse et les poils du pinceaux passer sur votre peau. Vous ressentez physiquement ce doigt en plus…
    En quelques minutes, votre cerveau a donc assimilé un membre artificiel !

    Et voilà tout l’enjeu des expériences que nous menons dans mon laboratoire : Réussir à vous faire croire à des chimères, à des choses impossibles.
    Entre nous, je peux vous confier notre « truc » de magicien : en fait, lorsque vous voyez le pinceau passer sur le sixième doigt, en réalité moi je passe au même moment avec mon pinceau sur votre annulaire. Et votre cerveau va projeter cette sensation tactile au niveau du sixième doigt .. et ça marche très bien !
    Mais le plus incroyable dans cette expérience, c’est quand, à la fin, j’appuie sur un bouton pour restaurer une apparence « normale » à votre main virtuelle, qui redevient donc, instantanément, une main à cinq doigts. Tout est rentré dans l’ordre, et pourtant vous ressentez cette fois comme un manque… Comme si .. on vous avait coupé un doigt ! Une impression d’ « amputation » qui montre à quel point votre cerveau s’était habitué profondément à un doigt qui n’existait pourtant pas quelques instants auparavant !

    Les effets de la réalité virtuelle peuvent donc être extrêmement puissants. Et c’est bien parce-que ces effets sont si puissants, que je vous conseille de faire attention au moment de choisir votre avatar.. vous savez, ce personnage qui vous représente sur internet ou dans le monde virtuel. Quelle apparence, et quel corps virtuel allez-vous choisir ? Le choix est en théorie infini. Vous pouvez adopter un corps plus petit ou plus grand ? Sinon plus corpulent, plus mince, plus ou moins musclé ? Vous pouvez même virtuellement essayer de changer de genre, ou de couleur de peau. C’est l’occasion.
    Mais attention il faut bien choisir. Car l’apparence de cet avatar, et ses caractéristiques, vont ensuite influencer considérablement votre comportement dans le monde virtuel.
    Par exemple, des chercheurs ont montré que si l’on s’incarne pendant quelques temps dans l’avatar d’un enfant de 6 ans, et bien nous allons progressivement nous comporter de manière plus enfantine, en se mettant à parler avec une voie à la tonalité un peu plus aigüe. Un peu comme si l’on régressait, ou si l’on vivait une cure de jouvence éclair. Dans une autre étude, des participants s’incarnaient dans un avatar ressemblant fortement à Albert Einstein, le célèbre physicien. Et on leur demandait de réaliser des casse-têtes, des tests cognitifs. Et bien le simple fait de se retrouver dans la peau d’Einstein permet d’améliorer ses résultats de manière significative ! Comme si cette fois on devenait plus intelligent en réalité virtuelle. Cela peut donc aller très loin…
    On appelle ça l’effet « Protéus » en hommage à une divinité de la mythologie Grecque appelée « Protée » qui aurait le pouvoir de changer de forme. Cela évoque l’influence de cet avatar sur votre comportement et votre identité, qui deviennent « malléables », « changeants » dans le monde virtuel, mais aussi dans le monde réel, car cet effet peut même persister quelques temps après l’immersion, lorsque vous retirez votre casque.

    Bon, c’est très bien tout cela, vous allez me dire ..mais .. à quoi ça sert ? Pour moi, les applications les plus prometteuses de ces technologies, en tout cas celles sur lesquelles nous travaillons d’arrache-pied dans notre laboratoire, concernent le domaine médical. En particulier, les thérapies et la « rééducation ».
    Par exemple, si nous évoquons la crise sanitaire de la covid19, nous avons tous été affectés, plus ou moins durement. Nous avons tous une connaissance qui a contracté la maladie sous une forme grave, qui a parfois nécessité une hospitalisation et un séjour en réanimation, avec une intubation, dans le coma.
    Lorsque l’on se réveille, on se retrouve très affaibli, notre masse musculaire a complètement fondu. Il est devenu impossible de marcher ou de s’alimenter tout seul. Il va donc falloir réapprendre tous ces gestes du quotidien…
    D’ailleurs cette situation est vécue pas seulement dans le cas de la covid19, mais par près de la moitié des patients intubés en réanimation

    Le problème … c’est qu’il existe actuellement peu de moyens pour se rééduquer et faire de l’exercice dans cet état. Notamment parce que si vous commencez à pratiquer un exercice physique, simplement vous mettre debout, votre cœur n’est plus habitué et vous risquez de faire un malaise/syncope !
    C’est pourquoi, avec mes collègues chercheurs, nous avons mis au point une application très innovante qui est justement basée sur la réalité virtuelle et les avatars.
    Je vous propose de vous mettre un instant à la place d’un des patients. Vous vous êtes réveillé il y a quelques jours, dans un lit d’hôpital, perfusé, relié à une machine qui surveille en permanence votre état. Vous êtes encore sous le choc, très fatigué, vous ne pouvez plus bouger. Les heures sont longues.. Aujourd’hui on vous propose de tester notre dispositif. Vous enfilez donc un casque de réalité virtuelle, directement depuis votre lit. Dans la simulation, vous êtes représenté par un avatar, qui vous ressemble. Vous êtes assis sur une chaise virtuelle, dans une chambre d’hôpital virtuelle, relativement similaire à celle où vous vous trouvez en vrai.
    Lorsque vous êtes prêt, le soignant lance la simulation et .. votre avatar se lève et fait quelques pas. C’est alors une sensation très puissante, un peu comme si vous regardiez un film en étant vraiment dans la peau de l’acteur, en voyant tout ce qu’il fait à travers ses propres yeux. Vous vous voyez donc vous mettre debout et marcher… pour la première fois depuis bien longtemps !
    Ensuite, l’aventure continue de plus belle : l’avatar ouvre une porte et sort de la chambre. Un ponton en bois s’étend devant vous sur plusieurs centaines de mètres, et vous avancez tranquillement dessus, pour parcourir un paysage magnifique, tantôt une plage, tantôt une prairie, tantôt une forêt. Dépaysement garanti !
    Pendant tout ce temps, vous vous voyez donc à l’intérieur d’un « corps en mouvement », « un corps qui marche », qui « re-marche » et se promène, alors que, en réalité, vous êtes toujours resté allongé dans votre lit d’hôpital.

    Cette séance de marche virtuelle « par procuration », nous allons la répéter tous les jours, pendant 9 jours, à raison de 10 minutes par session.
    Notre hypothèse est que, en se voyant ainsi tous les jours en train de marcher, et en imaginant que l’on est en train de le faire, le cerveau va réactiver certains circuits liés à la locomotion, et va d’une certaine manière démarrer en avance son processus de rééducation.
    Et nous espérons que, grâce à cela, les patients vont ensuite se remettre à marcher plus vite et récupérer plus efficacement ; en améliorant par la même occasion leur moral et leur confiance dans l’avenir.
    Les essais cliniques ont démarré depuis quelques mois au CHU de Rennes. Comme dans tout travail de recherche médicale on ne connaîtra les résultats qu’à la toute fin de l’étude, dans six à douze mois. Mais ce que nous savons déjà, à l’heure où je vous parle, le 25 Septembre 2021, c’est que pratiquement tous les patients et les soignants qui ont utilisé cet outil en sont ravis, et qu’ils souhaitent même pouvoir continuer de l’utiliser après les essais.

    Alors, le principe d’une hypothèse c’est que l’on ne maîtrise pas le résultat final, mais moi .. j’y crois. Et je suis persuadé que cette technologie permettra d’obtenir des thérapies différentes, plus rapides, plus efficaces, et surtout plus accessibles demain pour de très nombreux patients à travers le monde.
    Mais vous maintenant, comment réagirez-vous, demain, dans quelques années, lorsque vous irez voir votre médecin, votre kiné, ou même simplement votre prof de sport ou de danse, lorsqu’elle vous tendra un visiocasque, et vous dira « alors, vous êtes prêt pour votre petite séance ? Et aujourd’hui, quel avatar voulez-vous choisir ? ».
    Ce sera donc à votre tour de choisir.. Et en faisant ce choix, vous détenez les clés, vous devenez acteur de votre propre transformation dans le virtuel et peut-être aussi dans le réel. Alors souvenez-vous, choisissez bien, car maintenant, vous savez les effets profonds et les pouvoirs bien réels de la réalité virtuelle sur votre cerveau.

     Anatole Lécuyer, Chercheur Inria.

  • Bonne vacances … un peu de lecture peut-être ?

    Pour un été non binaire : partez avec binaire dans votre poche.

    Nous faisons notre pause estivale avant de revenir partager avec vous des contenus de vulgarisation sur l’informatique ! A la rentrée nous parlerons à nouveau aussi bien de technologie que de science, d’enseignement, de questions industrielles, d’algorithmes, de data… bref, de tous les sujets en lien avec le monde numérique qui nous entoure … D’ici là, vous pouvez tout de même passer l’été avec binaire.

    ©Catherine Créhange undessinparjour avec sa gracieuse autorisation.

    … car nous avons le plaisir de partager la parution des entretiens de la SIF publié sur binaire sous la forme d’un objet comme ceux qui sont utilisés depuis des siècles pour partager les connaissances humaines… un livre en papier ! 😉


    Le numérique et la passion des sciences, C&F éditions, 2022

    A vous chers lectrices et lecteurs : Bon été !

    L’équipe Binaire

  • L’avatar ou la boîte à magie des illusions corporelles ?

    Voici un autre article consacré au Prix de thèse Gilles Kahn qui depuis 1998 récompense chaque année une thèse en Informatique. Cette année l’un des accessit revient à Rebecca Fribourg pour ses travaux sur les avatars personnels réalisés au centre Inria Rennes – Bretagne Atlantique . Pascal Guitton & Pierre Paradinas.

    Avec l’agitation médiatique récente autour du mot « métavers », les avatars n’ont jamais autant été sous les projecteurs. En effet, dans le contexte de ces environnements où de nombreuses personnes peuvent se connecter et interagir entre elles, la question de la représentation de l’utilisateur – via son avatar – prend tout de suite une grande importance. Est-ce que je souhaite utiliser un avatar qui me ressemble, ou bien apparaitre comme quelqu’un de totalement différent ? Ces avatars posent des questions importantes car ils représentent le corps d’un utilisateur et peuvent être visualisés à la première personne, comme on observe son vrai corps. Ils sont utilisés par ailleurs dans les domaines de la formation ou de la médecine, par exemple dans le cadre de thérapies pour les troubles du comportement alimentaire, où l’on fait se regarder dans un miroir virtuel des patients tout en modulant la morphologie de leurs avatars. Mentionnons enfin, un phénomène frappant, appelé « effet Proteus », qui a établi que l’on a tendance à intégrer dans notre comportement les caractéristiques visuelles de notre avatar. Par exemple, une étude a montré que des utilisateurs incarnés dans un avatar ressemblant à Einstein étaient plus performants dans la réalisation de tâches cognitives, ce qui suggère que les avatars pourraient nous rendre plus performants dans certaines tâches dans un environnement virtuel, mais aussi dans le monde réel.

    Néanmoins, l’utilisation de ces avatars nécessite de relever des défis à la fois technologiques (algorithmique, Interaction homme-machine, dispositifs de capture de mouvement) mais aussi cognitifs (psychologie, perception, etc.), rendant le sujet très pluridisciplinaire ! L’aspect perceptif est très important et il est aujourd’hui nécessaire de bien comprendre comment les utilisateurs perçoivent leurs avatars et interagissent à travers eux afin de concevoir des expériences virtuelles fortes et réalistes.

    Dans le cadre de mon doctorat, j’ai justement essayé de mieux comprendre et d’identifier les facteurs qui peuvent affecter – en bien ou en mal – la manière dont l’on perçoit son avatar. En particulier, je me suis intéressée au « sentiment d’incarnation » qui vise à caractériser et modéliser la perception de son avatar. Ai-je l’impression que ce corps virtuel m’appartient ? Est-ce que je contrôle bien les mouvements de mon avatar comme ceux de mon vrai corps ? Ai-je l’impression d’être spatialement dans mon corps virtuel ?

    J’ai alors réalisé un certain nombre d’expériences utilisateurs où j’ai mesuré leur sentiment d’incarnation à l’aide de questionnaires subjectifs et de certaines mesures objectives. Je me suis notamment intéressée aux environnements virtuels multi-utilisateurs, c’est-à-dire des plateformes permettant à plusieurs personnes d’interagir ensemble dans un environnement virtuel. Dans ce contexte, les avatars sont d’autant plus importants qu’ils constituent le repère spatial visuel de la localisation des autres utilisateurs, et qu’ils fournissent donc des informations cruciales de communication non verbales. J’ai alors montré que le partage de l’environnement virtuel avec d’autres personnes n’avait pas d’influence sur la perception de son propre avatar, apportant donc un message plutôt rassurant pour toutes les applications multi-utilisateurs impliquant des avatars.

    Dans une autre étude, j’ai utilisé un même avatar pour deux utilisateurs différents, comme s’ils partageaient un même corps! Les participants partageaient le contrôle et devaient se coordonner pour animer cet avatar. Ce que j’ai découvert, c’est que lorsqu’un utilisateur voit ses bras virtuels bouger, alors que c’est l’autre utilisateur qui les contrôle, il peut quand même avoir l’impression d’être à l’origine du mouvement, ce qui est très intéressant pour de la formation à des gestes techniques ou de la rééducation motrice.

    Co-incarnation d’un avatar contrôlé par deux utilisateurs . La position et orientation du bras droit de l’avatar correspond à la moyenne pondérée entre la position et orientation des bras des deux utilisateurs, avec un niveau de partage variable.

    De manière générale, les retombées de mes travaux de recherche à court/moyen terme sont de mieux comprendre quelles sont les caractéristiques d’un avatar et les facteurs plus éloignés (environnement virtuel, traits individuels) qui contribuent à la bonne utilisation de ce dernier dans un contexte donné. Par exemple, une autre de mes études a permis de montrer que l’apparence de l’avatar (réaliste vs abstraite, ressemblante à l’utilisateur ou non) avait moins d’importance pour l’utilisateur que d’avoir un bon contrôle sur l’avatar, fidèle à ses propres mouvements.

    Illustration d’une étude explorant l’interrelation des facteurs influençant le sentiment d’incarnation

    Ces résultats permettent entre autres aux concepteurs d’avatar dans des domaines variés de savoir quels aspects techniques sont à privilégier, et dans quelles caractéristiques d’avatar les budgets devraient être alloués plutôt que d’autres.

    Rebecca Fribourg est actuellement Maitre de conférence à l’Ecole Centrale de Nantes, rattachée au laboratoire AAU (Ambiances, Architectures, Urbanités).

    Pour aller encore plus loin (article en anglais) :

    • Rebecca Fribourg et al. “Virtual co-embodiment: evaluation of the sense of agency while sharing the control of a virtual body among two individuals”. In: IEEE Transactions on Visualization and Computer Graphics (2020)
    • Rebecca Fribourg et al. “Avatar and Sense of Embodiment: Studying the Relative Preference Between Appearance, Control and Point of View”. In: IEEE Transactions on Visualization and Computer Graphics 26.5 (2020), pp. 2062–2072. doi: 10.1109/TVCG.2020.2973077.
  • Le recommandeur de Youtube et les sondages électoraux

    Les algorithmes de recommandations utilisés par les grandes plateformes du web telles YouTube ne sont pas connus ou accessibles. Des chercheurs essaient d’en découvrir le fonctionnement. Leurs travaux permettent de mieux comprendre ce que font ces algorithmes, et aussi d’observer les relations entre les recommandations et les sondages d’intention de vote. Pierre Paradinas.

    Un système de recommandation est un objet informatique ayant pour but de sélectionner de l’information pertinente pour les utilisateurs d’une plateforme (vidéos, articles, profils…). Sur YouTube par exemple, ces recommandations sont omniprésentes: en 2018, 70% des vues de vidéos provenaient de recommandation (par opposition à des vues provenant des recherches intentionnelles). On comprend alors que cet objet est à la fois critique pour l’entreprise, qui compte sur son efficacité pour maintenir l’utilisateur sur sa plateforme le plus longtemps possible, mais aussi critique pour l’utilisateur lui même, pour qui la recommandation façonne l’exploration, puisque c’est principalement via ce prisme qu’il accède à l’information.

    Cette double importance conduit la recherche en informatique a s’intéresser à la conception de tels recommandeurs. Il s’agit ainsi tout d’abord de prendre la perspective de la plateforme afin d’améliorer la mise au point de la machinerie complexe qui permet à celles-ci de produire des recommandations, en général en exploitant les historiques de consommation des utilisateurs (principe du filtrage collaboratif).

    D’un autre coté et plus récemment, la recherche s’intéresse à la perspective utilisateur de la situation. Pour analyser les algorithmes de recommandation, on les observe comme des boîtes noires. Cette notion de boîte noire fait référence au peu de connaissance qu’à l’utilisateur sur le fonctionnement du recommandeur qui est généralement considéré par les plateformes comme un secret industriel. L’objectif de ces recherches est de comprendre ce qu’on peut découvrir du fonctionnement de la boîte noire sans y avoir accès, simplement en interagissant avec comme tout autre utilisateur. L’approche consiste ainsi, en créant des profils ciblés, à observer les recommandations obtenues afin d’extraire de l’information sur la politique de la plateforme et son désir de pousser telle ou telle catégorie ou produit, ou bien de mesurer une éventuelle censure apportée aux résultats de recherche. On notera qu’un des buts du Digital Services Act récemment discuté au parlement Européen, est de permettre l’audit indépendant des grandes plateformes, c’est-à-dire de systématiser les contrôles sur le comportement de ces algorithmes.

    Une illustration de ce qu’il est possible d’inférer du côté utilisateur a vu le jour dans le cadre de la campagne présidentielle de 2022 en France. Il a été tentant d’observer les recommandations « politiques », et ce pour étudier la question suivante. Puisque qu’un recommandeur encode le passé des actions sur la plateforme (ici des visualisations de vidéos), est-ce que, par simple observation des recommandations, on peut apprendre quelque-chose sur l’état de l’opinion Française quant aux candidats en lice pour l’élection ? Le rationnel est la boucle de retro-action suivante : si un candidat devient populaire, alors de nombreuses personnes vont accéder à des vidéos à son sujet sur YouTube ; le recommandeur de YouTube va naturellement mettre en évidence cette popularité en proposant ces vidéos à certains de ses utilisateurs, le rendant encore plus populaire, etc.

    Une expérience : les recommandations pour approximer les sondages

    Pouvons-nous observer ces tendances de manière automatisée et du point de vue de l’utilisateur ? Et en particulier, que nous apprend la comparaison de ces mesures avec les sondages effectués quotidiennement durant cette période ?

    Dans le cadre de cette étude, nous — des chercheurs — avons pris en compte les douze candidats présentés officiellement pour la campagne. Nous avons mis en place des scripts automatisés (bots) qui simulent des utilisateurs regardant des vidéos sur YouTube. A chaque simulation, « l’utilisateur » se rend sur la catégorie française « Actualités nationales », regarde une vidéo choisie aléatoirement, et les 4 vidéos suivantes proposées en lecture automatique par le recommandeur

    Cette action a été effectuée environ 180 fois par jour, du 17 janvier au 10 avril (jour du premier tour des élections). Nous avons extrait les transcriptions des 5 vidéos ainsi vues, et recherché les noms des candidats dans chacune. La durée d’une phrase dans laquelle un candidat est mentionné est comptée comme temps d’exposition et mise à son crédit. Nous avons agrégé le temps d’exposition total de chaque candidat au cours d’une journée et normalisé cette valeur par le temps d’exposition total de tous les candidats. Nous avons ainsi obtenu un ratio représentant le temps d’exposition partagé (TEP) de chaque candidat. Cette valeur est directement comparée aux sondages mis à disposition par le site Pollotron.

    La figure présente à la fois l’évolution des sondages (en ordonnée) et les valeurs de TEP (en pointillés) pour les cinq candidats les plus en vue au cours des trois mois précédant le premier tour des élections (score normalisé en abscisse) ; les courbes sont lissées (fenêtre glissante de 7 jours). Les valeurs TEP sont moins stables que les sondages ; cependant les deux présentent généralement une correspondance étroite tout au long de la période. Cette affirmation doit être nuancée pour certains candidats, Zemmour étant systématiquement surévalué par le TEP et Le Pen inversement sous-évaluée. Il est intéressant de noter que les sondages et le TEP fournissent tous deux une bonne estimation des résultats réels des candidats lors du premier tour de l’élection (représentés par des points), présentant respectivement des erreurs moyennes de 1,11% et 1,93%. L’erreur moyenne de prédiction est de 3,24% sur toute la période pour tous les candidats. L’ordre d’arrivée des candidats a été respectée par le TEP, pour ceux présents sur la figure tout au moins.

    Évolution des sondages et du TEP de YouTube sur la campagne, pour les 5 candidats les mieux placés. Nous observons une proximité importante entre les courbes pleines et pointillées pour chacune des 5 couleurs. Les ronds finaux représentent les résultats officiels du premier tour : les sondages ainsi que le TEP terminent relativement proche de ceux-ci, et tous sans erreur dans l’ordre d’arrivée des candidats.

    Les sondages sont effectués auprès de centaines ou de milliers d’utilisateurs tout au plus. Le recommandeur de YouTube interagit avec des millions de personnes chaque jour. Étudier de manière efficace l’observabilité et la corrélation de signaux de ce type est certainement une piste intéressante pour la recherche. Plus généralement, et avec l’introduction du DSA, il parait urgent de développer une compréhension fine de ce qui est inférable ou pas pour ces objets en boîte noire, en raison leur impact sociétal majeur et toujours grandissant.

    Erwan Le Merrer (Inria), Gilles Trédan (LAAS/CNRS) and Ali Yesilkanat (Inria)

  • Lettre aux nouveaux député.e.s : La souveraineté numérique citoyenne passera par les communs numériques, ou ne sera pas

    Lors de l’ Assemblée numérique des 21 et 22 juin, les membres du groupe de travail sur les communs numériques de l’Union européenne, créé en février 2022, se sont réunis pour discuter de la création d’un incubateur européen , ainsi que des moyens ou d’ une structure permettant de fournir des orientations et une assistance aux États membres. En amont, seize acteurs du secteur ont signé une tribune dans Mediapart sur ce même sujet. Binaire a demandé à un des signataires, le Collectif pour une société des communs, de nous expliquer ces enjeux essentiels. Cet article est publié dans le cadre de la rubrique de binaire sur les Communs numériques. Thierry Viéville.

    Enfin ! Le risque semble être perçu à sa juste mesure par une partie de nos élites dirigeantes. Les plus lucides d’entre eux commencent à comprendre que, si les GAFAM et autres licornes du capitalisme numérique offrent des services très puissants, très efficaces et très ergonomiques, ils le font au prix d’une menace réelle sur nos libertés individuelles et notre souveraineté collective. Exploitation des données personnelles, contrôle de l’espace public numérique, captation de la valeur générée par une économie qui s’auto-proclame « du partage », maîtrise croissante des infrastructures physiques d’internet, lobbying agressif. Pour y faire face, les acteurs publics oscillent entre complaisance (ex. Irlande), préférence nationale (ex. Doctolib) et mesures autoritaires (ex. Chine). Nous leur proposons une quatrième voie qui renoue avec les valeurs émancipatrices européennes : structurer une réelle démocratie Internet et impulser une économie numérique d’intérêt général en développant des politiques publiques pour défendre et stimuler les communs numériques.

    Rappelons-le pour les lecteurs de Binaire : les communs numériques sont des ressources numériques partagées, produites et gérés collectivement par une communauté. Celle-ci établit des règles égalitaires de contribution, d’accès et d’usage de ces ressources dans le but de les pérenniser et les enrichir dans le temps. Les communs numériques peuvent être des logiciels libres (open source), des contenus ouverts (open content) et des plans partagés (open design) comme le logiciel Linux, le lecteur VLC, l’encyclopédie Wikipédia, la base de données OpenStreetMap, ou encore les plans en libre accès d’Arduino et de l’Atelier Paysan. Malgré leur apparente diversité, ces communs numériques et les communautés qui en prennent soin ne sont pas des îlots de partage, sympathiques mais marginaux, dans un océan marchant de relations d’exploitation. Ils représentent des espaces d’autonomie à partir desquels peut se penser et se structurer une société post-capitaliste profondément démocratique.

    « Les communs numériques représentent des espaces d’autonomie à partir desquels peut se penser et se structurer une société post-capitaliste profondément démocratique »

    Ainsi, face au capitalisme numérique marchant et prédateur, les communs numériques sont le socle d’une économie numérique, sociale et coopérative. D’un côté, la plateforme de covoiturage Blablacar, une entreprise côté en bourse qui occupe une position dominante sur le secteur, prend des commissions pouvant aller jusqu’à 30% des transactions entre ses « clients ». De l’autre, la plateforme Mobicoop, structurée en SCIC (société coopérative d’intérêt collectif), offre un service libre d’usage à ses utilisateurs, en faisant reposer son coût de fonctionnement sur les entreprises et les collectivités territoriales souhaitant offrir un service de covoiturage à leurs salariés et leurs habitants.

    Face à des services web contrôlés par des acteurs privés, les communs numériques offrent des modèles de gouvernance partagée et démocratique de l’espace public. D’un côté, Twitter et Facebook exploitent les données privées de leurs usagers tout en gardant le pouvoir de décider unilatéralement de fermer des comptes ou des groupes. De l’autre, les réseaux sociaux comme Mastodon et Mobilizon, libres de publicités, offrent la possibilité aux utilisateurs de créer leurs propres instances et d’en garder le contrôle.

    Face à un Internet où les interactions se font toujours plus superficielles, les communs numériques permettent de retisser du lien social en étant à la fois produits, gouvernés et utilisés pour être au service de besoins citoyens. Pendant la pandémie de Covid19, face à la pénurie de matériel médical, des collectifs d’ingénieurs ont spontanément collaboré en ligne pour concevoir des modèles numériques de fabrication de visières qu’ils ont mis à disposition de tous. Près de deux millions de pièces ont ainsi pu être produites en France par des fablab à travers le territoire. Ce qui dessine, par ailleurs, une nouvelle forme de production post-capitaliste et écologique qualifiée de « cosmolocalisme » : coopérer globalement en ligne pour construire des plans d’objets, et les fabriquer localement de manière décentralisée.

    Et il ne faut pas croire que les collectifs qui prennent soin des communs numériques troquent leur efficacité économique et technique pour leurs valeurs. D’après la récente étude de la Commission relative à l’incidence des solutions logicielles et matérielles libres sur l’indépendance technologique, la compétitivité et l’innovation dans l’économie de l’UE, les investissements dans les solutions à code source ouvert affichent des rendements en moyenne quatre fois plus élevés. Si l’Open source doit intégrer une gouvernance partagée pour s’inscrire réellement dans une logique de commun, il fournit la preuve que l’innovation ouverte et la coopération recèlent d’un potentiel productif supérieur aux organisations fermées et privatives [1].

    Voilà pourquoi nous pensons que les acteurs publics territoriaux, nationaux et européens doivent protéger et soutenir le développement de communs numériques. Ils doivent faire de la France un pays d’accueil des communs numériques, soutenant leur mode de production contributive et leur modèle d’innovation ouverte qui ont fait leurs preuves d’efficacité face au modèle privatif. Ils doivent favoriser les infrastructures de coopération et la levée des brevets qui ont permis au mouvement des makers de produire avec une forte rapidité et résilience des objets sanitaires dont les hôpitaux français manquaient. Ils doivent s’inspirer de leur gouvernance partagée entre producteurs et usagers pour rendre le fonctionnement des administrations elles-mêmes plus démocratique. Ils doivent s’appuyer sur eux pour penser la transition écologique du secteur numérique.

    Avec le Collectif pour une société des communs, nous sommes convaincus que les communs en général, et les communs numériques en particulier, sont les ferments d’un projet de société coopérative, désirable et soutenable. Nous nous adressons aux acteurs publics en leur proposant des mesures applicables. Voici un aperçu des mesures pro-communs numériques que les nouveaux député.e.s de l’Assemblée nationale pourraient mettre en place.

    « Voici un aperçu des mesures pro-communs numériques que les député.e.s du Parlement renouvelé pourraient mettre en place »

    Pour commencer, la France et l’Europe doivent lancer une politique industrielle ambitieuse pour développer massivement l’économie de la production numérique ouverte, contributive et coopérative. Les organismes publics commencent à montrer des signes dans cette direction. Mais il faut aller plus vite et taper plus fort pour être en mesure de transformer en profondeur les régimes de production capitalistes et les habitudes d’usages associés de l’économie numérique. Nous proposons la création d’une « Fondation européenne des communs numériques » dotée de 10 milliards par an. Elle aurait un double objectif d’amorçage et de pérennisation dans le temps des communs numériques considérés comme centraux pour la souveraineté des internautes, des entreprises et des États européens qui auraient la charge de la financer. Il s’agirait à la fois de logiciels (open source), de contenus (open content) et de plans (open design). Cette fondation aurait une gouvernance partagée, entre administrations publiques, entreprises numériques, associations d’internautes et collectifs porteurs de projets de communs numériques, avec un pouvoir majoritaire accordé à ces deux derniers collèges.

    Ensuite, la France et l’Europe doivent devenir des partenaires importants de communs numériques pour transformer le mode de fonctionnement de leurs administrations. Depuis quelques années, l’Union européenne avance une stratégie en matière d’ouverture de ses logiciels et la France s’est doté d’un « Plan d’action logiciels libres et communs numériques  » allant dans le même sens. Mais ces avancées, à saluer, doivent être poursuivies et renforcées pour aboutir à un réel État-partenaire des communs numériques. Les administrations doivent se doter de politiques de contribution aux communs numériques. Dans certains cas, elles pourraient créer des outils administratifs pour normaliser les partenariats « public-communs ». Ainsi, les agents de l’IGN pourraient contribuer et collaborer avec OpenStreetMap dans certains projets cartographiques d’intérêt général, à l’occasion de catastrophes naturelles par exemple. Enfin, les administrations devraient être des heavy-users et des clients importants des services associés aux communs numériques. La mairie de Barcelone est le client principal de la plateforme de démocratie participative Decidim et finance le développement de fonctionnalités dont profitent toutes les autres administrations moins dotées. Les institutions publiques devraient également modifier leur politique de marché public en privilégiant aux « appels à projets » chronophages, les « appels à communs » incitant les potentiels répondants à coopérer entre eux.

    Pour finir, la France devrait « communaliser » l’infrastructure physique du monde numérique. Elle pourrait notamment créer des mécanismes incitatifs et un fonds de soutien aux fournisseurs d’accès à Internet indépendants ayant des objectifs écologiques afin de les aider à se créer ou se structurer. Nous pensons par exemple au collectif des Chatons qui participe à la décentralisation d’Internet, le rendant plus résilient, tout en permettant à des associations locales de bénéficier de leur infrastructure numérique et ainsi de préserver leur autonomie. La France pourrait enfin aider l’inclusion des associations citoyennes, notamment environnementales, dans la gouvernance des datacenters et autres infrastructures numériques territorialisées, dont le coût écologique s’avère de plus en plus élevé.

    Collectif pour une société des commun, https://societedescommuns.com/

    PS : Ces propositions se trouvent dans le livret « Regagner notre souveraineté numérique par les communs numériques ». Elles vont être affinés dans le temps. Le Collectif pour une société des communs organise le samedi 24 septembre une journée de travail qui leur est dédiée avec des acteurs publics, des praticiens et des chercheurs. Si vous souhaitez y participer, écrivez-nous à societedescommuns@protonmail.com.

    [1] Benkler Y., 2011, The Penguin and the Leviathan: How Cooperation Triumphs over Self-Interest, 1 edition, New York, Crown Business, 272 p.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Nook, robot de bridge

    On sait que les algorithmes permettent de fournir des mécanismes qui gagnent contre les humains aux jeu d’échecs ou à des jeux plus complexes comme le jeu de go … mais qu’en est-il du jeu de bridge ? Ce jeu,  au-delà de la combinatoire, laisse une place importante aux interactions humaines. Le robot de bridge, Nook, développé par NukkAI se positionne au meilleur niveau grâce à la combinaison de l’IA symbolique et de l’IA numérique. Marie-Christine Rousset nous explique comment ça marche, et s’appuie sur cet exemple pour nous permettre de mieux comprendre l’Intelligence Artificielle. Les explications de l’IA sont souvent simplistes. Marie-Christine nous conduit un peu plus loin dans la technique dans des termes que nous pensons compréhensibles pour tous. Serge Abiteboul et Thierry Viéville.

    Le bridge est un jeu de cartes dans lequel une équipe de 2 joueurs essaie d’atteindre un objectif commun appelé un « contrat » déterminé au cours de la phase des enchères. Réaliser un contrat consiste à faire au moins un certain nombre de plis face à une équipe adverse qui va collaborer selon des règles codifiées pour essayer de faire chuter le contrat.

    Jeu de bridge avec la boîte d’enchères qui montrent les deux facettes de ce jeu. ©Marie-Lan Nguyen wikicommon

     

    À la différence des jeux de plateaux comme les échecs ou le go, le bridge est un jeu à information incomplète. Au départ, chaque joueur ne connaît que les 13 cartes qu’il a en main. Au cours de la partie, en raisonnant sur les informations transmises pendant la phase des enchères et sur les cartes jouées à chaque pli, chaque joueur peut restreindre ses hypothèses sur les cartes restant en jeu mais il doit prendre ses décisions (choisir la carte à jouer à chaque pli) sans la connaissance complète des cartes restant en main de son partenaire ou de ses adversaires.

    Bien jouer au bridge implique de maîtriser différents types de compétences :

    • Faire des déductions (si tel joueur a joué telle séquence de coups, il a ou n’a pas telle carte) ;
    • Émettre et réviser des hypothèses (tel adversaire a au moins 5 cartes à Pique ou n’a plus de cartes à Cœur) ;
    • Anticiper un certain nombre de coups probables de l’équipe adverse ; et
    • Évaluer les probabilités des différentes mains adverses possibles pour guider la prise de risque et calculer l’espérance de gain des coups à jouer.

    L’intelligence artificielle de Nook, en tirant parti de la force combinée d’approches d’IA symbolique et de techniques d’IA numérique, a réussi à surpasser le niveau de 8 champions de bridge de niveau mondial sur plusieurs centaines de parties avec le même contrat à réaliser (3 Sans Atout).  Pour une juste comparaison entre Nook et les joueurs humains, Nook et chaque champion ont joué les mêmes jeux, dans la même position de déclarant, contre deux robots Wbridge5 constituant l’équipe adverse. Wbridge5 (développé par Yves Costel) est multi champion du monde des robots de bridge dans le cadre de compétitions opposant uniquement des robots. Comme le montre la photo suivante, chaque champion humain (tout comme Nook)  joue avec son jeu (caché)  et le jeu de son partenaire (qui fait le “mort”) visible de tous, contre deux adversaires ici simulés par Wbridge5 paramétré en position de défenseur. 

    A la différence de jeux à information complète (comme les échecs ou le go), dans un arbre de jeu (voir Encart 1) pour le bridge les coups adverses possibles en riposte au choix d’un coup par le robot (à partir d’un nœud Max de l’arbre de jeu) dépendent des cartes des mains adverse, qui ne sont pas connues par le robot. Pour chaque nœud Min de l’arbre (c’est-à-dire un nœud qui modélise les ripostes des adversaires), Il faut donc générer des mondes possibles (les mains possibles des adversaires), et pour chacun explorer les ripostes les plus probables des adversaires à la carte jouée par le robot.

    La force de Nook est d’explorer de façon intelligente un arbre de jeu avec des mondes possibles en s’appuyant sur quatre techniques complémentaires :

    • Raisonnement automatique sur des règles ;
    • Apprentissage automatique à partir d’un échantillon de parties déjà jouées afin d’apprendre la stratégie des adversaires ;
    • Génération aléatoire de mondes possibles de type Monte Carlo (Encart1) contrainte par les règles du domaine et les modèles de l’adversaire ; et
    • Recherche arborescente de type MinMax avec élagage Alpha-Beta (Encart 2)  dans chaque monde possible en exploitant les modèles des différents joueurs.

    Plus précisément, l’algorithme d’exploration de l’arbre de jeu des mondes possibles de Nook est une extension de l’algorithme AlphaMu [1] développé par Tristan Cazenave et Véronique Ventos (et optimisé dans [2]). A chaque étape du jeu, l’algorithme génère différents mondes possibles aléatoirement (voir Encart 1) tout en vérifiant leur compatibilité avec les contraintes inférées par règles et par les modèles de l’adversaire observés ou appris. Dans chacun des mondes possibles, les différents coups possibles sont évalués par un algorithme MinMax (voir Encart 2) rendu très sélectif par l’exploitation des modèles de l’adversaire.

    Certains modèles de joueurs sont des réseaux de neurones qui ont été entrainés à leur tâche spécifique de façon automatique (Voir Encart 3). Les données d’entraînement sont obtenues à partir de centaines de milliers de parties jouées par WBridge5 contre lui-même. Le réseau de neurones utilisé, de type ResNet, n’est pas très gros, et la taille de l’ensemble des données d’entraînement est raisonnable. De ce fait, l’étape d’entraînement, réalisée sur l’ordinateur Jean Zay du CNRS, a demandé 200.000 fois moins de ressources de calcul que l’entraînement du réseau de neurones utilisé dans AlphaGo de DeepMind, qui a battu le maître de jeu de Go Lee Sedol en 2016.

    Le raisonnement automatique sur des règles est la clef pour restreindre la combinatoire et expliquer les décisions. Les règles fournies à Nook modélisent les connaissances d’un joueur de bridge, pour inférer, à partir de la séquence des enchères, des contraintes positives ou négatives sur les mains des différents joueurs. Par exemple, une enchère “2 Sans Atout”du partenaire après une ouverture “1 Sans Atout” suivi de Passe de l’adversaire implique que le partenaire a une distribution régulière ou  moins de 5 cartes à Coeur ou à Pique . D’autres règles décrivent comment l’adversaire choisit la première carte (Module d’entame). 

    Ces règles sont interprétables par les humains (car exprimées avec des concepts qui font sens pour des joueurs comme  « distribution régulière ») et exploitables par la machine à qui on a fourni le lien entre ces concepts abstraits et des distributions concrètes de mains. A partir de la connaissance abstraite et inférée qu’une main a une distribution régulière, on peut générer automatiquement toutes les mains concrètes correspondantes (et leurs probabilités) en fonction des cartes que l’on a dans sa propre main et, au fur et à mesure de la partie, des cartes jouées par les différents joueurs.

    On comprend donc bien l’intérêt des règles pour restreindre au fil du temps les mondes possibles et ainsi guider la génération aléatoire au cœur de l’exploration arborescente de type Monte Carlo (voir Encart 1).

    L’autre intérêt de ces règles est qu’elles peuvent être utilisées pour expliquer, à tout moment de la partie, la vision à haut niveau et probabiliste des mains cachées des adversaires. En effet, au bridge, répondre à des questions du type « pourquoi avoir joué cette carte ? » fait partie des règles de bonne conduite pour vérifier en particulier qu’il n’y a pas de tricherie de la part d’un joueur ou qu’un coup n’est pas juste un coup de chance. Le bridge n’est pas le poker …

    Conclusion

    Même si Nook ne joue pour l’instant qu’une partie des « contrats » existants au bridge (le « trois sans-atout »), ses concepteurs ont d’ores et déjà prouvé le bénéfice d’une IA « hybride » qui lui donne notamment la possibilité d’expliquer ses choix. Cette nouvelle approche, que NukkAI envisage de déployer dans d’autres domaines comme la cybersécurité, l’éducation ou les transports,  ouvre une voie pour avoir « quelque chose qui ressemble plus à de l’intelligence que ce que l’on a vu ces dernières années »,  souligne Cédric Villani, auteur d’un rapport parlementaire qui en 2018 avait inspiré la stratégie du gouvernement français sur l’intelligence artificielle, venu observer le défi en direct.  « Nous ne visons pas une intelligence artificielle qui remplace l’humain, mais qui collabore et où l’humain garde toujours la maîtrise » revendiquent Jean-Baptiste Fantin et Véronique Ventos, les deux créateurs de NukkAI. 

    Marie-Christine Rousset, professeure d’informatique à l’université Grenoble Alpes

    Encart 1 : Exploration arborescente Monte Carlo.L’exploration arborescente est à la base de la plupart des algorithmes utilisés pour les programmes de jeux à deux joueurs. Il s’agit de générer récursivement un arbre de jeu qui modélise,  à partir de la situation de jeu initiale, les différents coups possibles et pour chacun d’eux les ripostes possibles, jusqu’à atteindre les fins de partie (qui peuvent être gagnantes ou perdantes). Un chemin dans cet arbre représente une partie complète dont on peut donc savoir si elle est gagnante pour l’un des 2 joueurs (et perdante pour l’autre joueur).  L’arbre de jeu complet est trop gros pour être construit en entier sauf pour des jeux très simples comme le tic tac toe. Une exploration de type Monte Carlo consiste à casser la combinatoire en n’explorant qu’un certain nombre de chemins qui sont construits en générant aléatoirement un nombre restreint de coups possibles à chaque étape de la simulation. 
     Encart 2 : Algorithme MinMax et élagage Alpha-BetaL’algorithme MinMax  prend le point de vue d’un des joueurs qui, dans une situation de jeu donnée, doit choisir le coup qui maximise ses chances de gagner, sans connaître la stratégie de l’adversaire mais en supposant que cet adversaire, quand c’est à son tour de jouer, choisit systématiquement les ripostes qui maximisent ses propres chances et donc minimisent les chances de gagner du premier joueur.  A partir de chaque situation de jeu, l’algorithme développe l’arbre de jeu jusqu’à une certaine profondeur, donnée en paramètre. Pour chaque situation de jeu du niveau le plus profond, à l’aide d’une fonction d’évaluation qui lui est fournie et qui dépend de chaque jeu, il calcule une valeur qui est une estimation des chances de gagner à partir de cette situation. Il calcule ensuite la valeur de la racine de façon récursive en faisant remonter le minimum des valeurs du niveau inférieur pour les nœuds Min où c’est à l’adversaire de jouer, et le maximum des valeurs du niveau inférieur pour les nœuds Max où c’est à l’algorithme de jouer. L’algorithme choisit alors le coup qui maximise la valeur de la racine. Plus la fonction d’évaluation est appliquée loin de la racine, c’est-à-dire plus on anticipe de coups successifs, plus fine est l’estimation du meilleur coup à jouer.

    L’algorithme MinMax effectue une exploration complète de l’arbre de recherche jusqu’à un niveau donné. L’élagage Alpha-Beta permet d’optimiser l’algorithme Minmax en ne réalisant qu’une exploration partielle de l’arbre de jeu, tout en obtenant la même valeur comme résultat pour la racine. Au cours de l’exploration, deux types d’élagage peuvent être effectués : des coupes alpha qui évitent d’examiner des sous-arbres d’un nœud Min dont la valeur courante est inférieure à la valeur courante d’un nœud Max au dessus dans l’arbre ; et des coupes beta qui élaguent les sous-arbres d’un nœud Max dont la valeur courante est supérieure à la valeur courante d’un nœud Min au dessus dans l’arbre. On peut montrer que ces contraintes garantissent que les sous-arbres ainsi élagués conduiraient à des configurations dont la valeur ne contribuerait pas au calcul du gain à la racine de l’arbre.

    Encart 3 : Apprentissage automatique de réseaux de neurones L’apprentissage profond est un ensemble de techniques d’apprentissage automatique qui s’appuient sur des réseaux de neurones artificiels pour modéliser le calcul d’un résultat en fonction d’une entrée. Un réseau de neurones est une composition de couches composées de neurones formels qui constituent les entités élémentaires de calcul dans ce modèle. Chaque neurone prend en entrée des sorties des neurones des couches précédentes, calcule une somme pondérée (par des poids dits synaptiques) de ses entrées puis passe cette valeur à une fonction d’activation pour produire sa sortie.

     Les différents types de réseaux de neurones varient selon la structure, le nombre de couches et les fonctions d’activation considérées. Les plus étudiés sont les perceptrons multi-couches, les réseaux de neurones convolutifs, et les réseaux résiduels (ResNet). 

    Le  point commun de tous les réseaux de neurones artificiels est que les poids synaptiques qui sont déterminants dans le calcul effectué par chaque neurones sont optimisés (on dit souvent qu’ils sont « appris ») à partir d’exemples étiquetés, c’est-à-dire d’entrées pour lesquelles on connaît le résultat. L’apprentissage des meilleurs poids se fait en itérant des étapes de rétropropagation du gradient de l’erreur, qui consiste à corriger les erreurs effectuées à une étape en modifiant les poids synaptiques des neurones en fonction de  leur importance dans la réalisation de l’erreur.

    Références et footnote:

    (*) NukkAI (https://nukk.ai/) est un laboratoire privé d’Intelligence Artificielle créé par Véronique Ventos, chercheuse en IA, Maitre de Conférences en disponibilité à l’Université Paris-Saclay, et Jean-Baptiste Fantun, ancien élève de l’Ecole Polytechnique, agrégé de Mathématiques et titulaire d’un master en IA.

    [1] The AlphaMu Search Algorithm for the Game of Bridge. Tristan Cazenave et Véronique Ventos. in Monte Carlo Search at IJCAI, 2020.

    [2] Optimizing AlphaMu. Tristan Cazenave, Swann Legras et Véronique Ventos. in IEEE Conference on Games (CoG), August 17-20, 2021

    Pour aller plus loin :
    https://interstices.info/programmation-des-echecs-et-dautres-jeux qui explique comment fonctionne d’autres jeux avec des joueurs algorithmiques
    https://interstices.info/le-jeu-de-go-et-la-revolution-de-monte-carlo qui explique comment la méthode de Monte-Carlo s’applique au jeu de go
    https://interstices.info/lapprentissage-profond-une-idee-a-creuser qui présente le fonctionnement des réseaux de neurones

  • Please, ne traquez pas mon smartphone ?

    Voici un article consacré au Prix de thèse Gilles Kahn qui depuis 1998 récompense chaque année une thèse en Informatique. Cette année l’un des accessit revient à Charlie Jacomme pour ses travaux. Charlie nous parle des enjeux de la preuve des propriétés de sécurité et derrière celles-ci de la protection de la vie privée.  Pierre Paradinas.

    « Peut-on prouver que personne ne peut me traquer via mon smartphone ? » La réponse est tristement simple. Non, comme le démontrent de nombreux exemples comme le flicage de   Ouïghours via leurs smartphones par les autorités chinoises, ou encore l’exploitation par la police Allemande, sans contrôle judiciaire, des informations de localisations tirées d’une application de traçage de la Covid-19.

    Tout n’est pourtant pas perdu, car même s’il existe de nombreuses attaques possibles aujourd’hui, des personnes essayent de les éviter en créant des systèmes sécurisés et respectueux de la vie privée. Cependant, inventer de tels systèmes est difficile et on finit par trouver qu’on a laissé des failles.

    Pour rendre plus facile la conception de tels systèmes et obtenir de véritables garanties, le domaine des méthodes formelles en sécurité propose des techniques permettant de prouver la sécurité d’un système. On obtient ainsi une preuve mathématique que le système est sécurisé. Cependant, cette tache est difficile car prouver la sécurité revient à prouver qu’aucune attaque n’est possible : on veut démontrer l’impossible. Et par ailleurs, on souhaite démontrer cela sur des systèmes très complexes et pour des attaquants aussi puissants (mais réalistes) que possible.

    Le logo du logiciel Squirel

    Le but principal de ma thèse a été de simplifier la tache de réaliser des preuves de sécurités. Pour ce faire, j’ai par exemple développé un programme informatique en accès libre, appelé le Squirrel Prover, qui permet de se faire aider par un ordinateur pour construire des preuves de sécurités. On écrit toujours la preuve soi-même, mais un ordinateur aide,  guide, et au final  confirme que la preuve est correcte. J’ai aussi travaillé sur la modularité des preuves, en développant des résultats qui permette de découper les preuves en morceaux indépendants. Et depuis la fin de ma thèse, j’essaie d’appliquer ces techniques pour vérifier concrètement la sécurité des systèmes que nous utilisons tous les jours.

    Malheureusement, et comme je l’ai illustré par des exemples en introduction, la plupart des systèmes que nous utilisons aujourd’hui ne sont pas sécurisés. Ainsi, même si on peut inventer et prouver des systèmes véritablement respectueux de la vie privée, il reste un défi majeur : il faut que ces systèmes soient utilisés et déployés par les gouvernements et les entreprises. Et ça, cela nous fait sortir du monde de la recherche…

    Charlie Jacomme, Laboratoire Méthodes Formelles (LMF), actuellement en post-doc au CISPA, à Saarbrucken.

     

  • Corriger les failles informatiques, une impossible exhaustivité à gérer comme un risque !

    Dans le domaine de la cybersécurité, il existe de nombreuses phases du développement et du déploiement des systèmes logiciels qui sont sensibles. A l’occasion de la publication d’un rapport du NIST, c’est aux failles logicielles et à leurs correctifs que nous nous intéressons. Trois experts, Charles Cuvelliez, Jean-Jacques Quisquater & Bram Somers nous expliquent les principaux problèmes évoqués dans ce rapport. Pascal Guitton.

    Tous les jours, des failles sur les logiciels sont annoncées par leurs éditeurs, dès lors qu’un correctif est disponible. Plus rarement, la faille n’est pas découverte en interne chez l’éditeur ou ni même de façon externe, par un chercheur ; elle l’est alors d’une part par des hackers malveillants qui se gardent bien d’en faire la publicité mais les dégâts causés par leur exploitation la font vite connaître. D’autre part, par les services secrets de certains pays qui les apprécient beaucoup pour réaliser des attaques plus furtives.

    Le volume des failles à traiter quotidiennement devient de plus en plus souvent ingérable pour les entreprises. Parfois l’éditeur du logiciel ne supporte même plus la version pour laquelle une vulnérabilité a été découverte : il n’y aura pas de correctif. Appliquer un correctif peut demander du temps, nécessiter la mise à l’arrêt des équipements, leur redémarrage, le temps de l’installer. Cette indisponibilité est parfois incompatible avec l’utilisation d’un logiciel qui doit fonctionner en permanence : un correctif ne s’applique pas n’importe quand. Dans des cas plus rares, le correctif ne peut être appliqué que par le fabricant, pour des raisons de conformité ou de certification.

    Le risque zéro n’existe pas pour la sécurité des logiciels, ; dès qu’on installe un logiciel, il y a un risque de faille.  C’est l’approche suivie par le NIST dans son standard (Guide to Enterprise Patch Management Planning : Preventive Maintenance for Technology) qui vient d’être publié il y a peu.

    Couverture du rapport du NIST

    Si on ne peut ou ne veut pas appliquer de correctif, on peut désactiver le logiciel ou le module dans laquelle la faille a été identifiée. On peut installer une version plus récente du logiciel mais avec un autre risque : que ce dernier fonctionne différemment et perturbe toute la chaîne opérationnelle au sein de laquelle il est un maillon. On peut isoler le logiciel pour qu’aucune personne extérieure ne puisse l’atteindre en vue d’exploiter la faille (en segmentant le réseau et en le plaçant dans un segment sûr). On peut même décider que l’impact – si la faille est exploitée – est minime : on accepte alors le risque (ce n’est tout de même pas conseillé). On peut aussi confier le logiciel à un fournisseur à qui incombera la responsabilité de gérer les correctifs.

    Un véritable cycle

    Si on décide d’installer le correctif, c’est tout un cycle qui démarre et qui ne se réduit pas à le télécharger et à l’installer d’un clic comme on le pense souvent. Il faut chercher où, dans l’organisation, le logiciel est installé. Cela commence par détenir l’inventaire des logiciels dans son entreprise, qui n’est correct que si on connait parfaitement toutes les machines installées. D’ailleurs ce ne sont pas toujours les logiciels d’une machine qu’on doit mettre à jour, c’est parfois la machine elle-même et son système d’exploitation. Dans le cas de l’Internet des objets, la situation se complique : on peut quasiment toujours mettre à jour le firmware de ces derniers mais la tâche est immense : où sont-ils sur le terrain ? Comment les mettre à jour tous sans en oublier un ? Faut-il envoyer des techniciens sur place ? Combien de temps faudra-t-il pour tous les mettre à jour ?  Il peut même arriver qu’on doive passer à une nouvelle mise à jour alors l’ancienne n’est pas terminée pour tous les objets, au risque donc de désynchronisation de l’ensemble.

    Si on a pu installer le correctif, après avoir planifié son déploiement, l’avoir testé pour voir si le programme qu’on utilisait fonctionne toujours correctement comme avant, il faut observer le programme mis à jour : le correctif peut lui-même receler une faille (car il est souvent développé dans l’urgence) ou avoir été compromis par un hacker (ce sont les fameuses attaques dites supply chain). Par erreur, un utilisateur peut désinstaller la mise à jour, réinstaller la version précédente, lors par exemple d’une restauration d’une sauvegarde. Si on a opté pour éteindre la machine ou le logiciel car on ne peut appliquer de correctif, il faut aussi surveiller que personne ne la/le redémarre. Un correctif peut par erreur remettre à zéro la configuration du programme qui l’intègrera, y compris les réglages de sécurité.

    Toutes ces opérations ne s’organisent pas à la dernière minute, lorsqu’une faille critique est annoncée.

    Sécuriser les environnements

    On peut mettre en place un environnement plus sûr de sorte qu’une faille y ait moins d’impact ou n’y trouve pas de terrain favorable. Cela commence par ne mettre à disposition les logiciels qu’aux personnes qui en ont vraiment besoin. De deux logiciels équivalents, on peut privilégier celui qui a un historique plus favorable en nombre (réduit) de failles. On peut vérifier la rigueur du développement, la fréquence des correctifs, leur nombre, les problèmes relayés par les communautés d’utilisateurs à propos des failles. On peut aussi installer ses logiciels dans des environnements plus favorables et plus faciles à l’application de correctifs comme les containers cloud.

    Dans son rapport, le NIST distingue quatre réponses aux failles : l’application de correctifs au fil de l’eau, en respectant un planning et des contraintes comme le week-end pour les logiciels dont on ne peut tolérer l’interruption. Il y a les correctifs à appliquer d’urgence. Si un correctif n’existe pas (encore), ce sont des mesures d’atténuation qu’on appliquera en fonction des instructions du fournisseur. Si le fournisseur n’apporte plus de support, il faudra isoler la machine qui héberge le logiciel pour le rendre inatteignable sauf par ses utilisateurs, si on ne peut s’en passer.

    Que faire face à cette complexité ? Le NIST propose de classer les actifs informatiques dans des groupes de maintenance. Appliquer un correctif ou gérer une faille, c’est de la maintenance de sécurité. Chaque groupe de maintenance aura sa politique de gestion des failles.

    Et de citer comme groupe de maintenance les ordinateurs portables des employés où les failles et les correctifs ont trait au système d’exploitation même de la machine, les firmwares et autres programmes installés. Les portables des utilisateurs ont une plus grande tolérance à une interruption et l’impact est limité si un ordinateur subit une faille puisqu’il y a des logiciels de contrôle et d’alerte à la moindre infection qui tourne sur ces machines puissantes. Ces éléments permettent une politique de mise à jour des failles adaptée.

    A l’autre extrême, on trouve le groupe de maintenance « serveur de données (data center) » qui ne peut tolérer quasiment aucune interruption, qui ne peut être mis à l’arrêt qu’à des moments planifiés longuement à l’avance. Les mesures d’atténuation du risque sont tout autre, la défense en profondeur, les protections mises en place dans le réseau, la segmentation.

    Autre exemple : le groupe de maintenance liés aux tablettes et autres smartphones utilisés par les employés, avec, aussi, sa tolérance aux interruptions, ses mesures propres de protection… Avoir une politique de mise à jour et de correction des failles par groupe de maintenance évite le goulot d’étranglement de tout vouloir faire en même temps et au final de laisser des failles béantes, peut-être critiques.

    Le déploiement des correctifs.

    Le NIST propose de déployer le correctif par groupes d’utilisateurs pour voir si tout se déroule correctement, puis de l’étendre graduellement pour limiter l’impact d’un correctif qui ne serait pas au point. Le déploiement progressif peut se faire en fonction de la qualification des utilisateurs, de leur compétence. Même pour les correctifs à appliquer d’urgence, le NIST propose ce déploiement graduel (mais plus rapide, en heures, sinon en minutes plutôt qu’en jours).

    S’il n’y pas de correctifs disponibles, on est dans les mesures d’atténuation, comme isoler le logiciel quand on ne peut pas s’en passer, migrer dans un segment la machine qui le contient, adapter les droits d’accès des utilisateurs : on parle de micro-segmentation ou de « software-defined perimeters ». Tout ceci ne se fait pas le jour où l’entreprise fait face pour la première fois à un logiciel qui n’aura (plus) jamais de correctif. Les architectes doivent avoir réfléchi et proposé à l’avance les bonnes politiques et manière de faire. Il faut d’ailleurs les réévaluer en permanence car le réseau évolue : le risque est-il bien limité et le reste-t-il avec cette architecture ?

    Oublier qu’il y a là une partie du réseau qui héberge les cas à problèmes serait la pire chose à faire. Il faut aussi interpeller les utilisateurs à intervalles réguliers pour voir s’ils utilisent vraiment ce logiciel vulnérable ? Peut-on se permettre de garder un trou de sécurité ? N’y a-t-il pas une alternative sur le marché ?

    Métrique

    L’organisation et sa direction doivent pouvoir vérifier que la politique d’application des correctifs est efficace. Mesurer et affirmer que 10 % des machines ou des logiciels n’ont pas pu recevoir des correctifs n’apporte aucune information si ce n’est faire peur car on imagine ces 10 % des machines ouvertes à tout vent.

    Le NIST propose de donner trois indicateurs : la proportion de correctifs appliqués à temps par rapport à un objectif fixé, le temps moyen et le temps médian d’application du correctif (qui doivent bien sûr être inférieur à l‘objectif). Cet objectif peut être fixé par groupe de maintenance ou selon la criticité de la vulnérabilité et l’importance du logiciel dans le fonctionnement de l’entreprise.

    En fin de compte, le mieux est d’acquérir un logiciel qui connaitra le moins de failles possibles : il faut mener, dit le NIST, une véritable due diligence avec le fournisseur : combien de failles, combien par année ? Combien de temps pour produire un correctif quand une faille est trouvée ? Les correctifs sont-ils groupés ? Publiez-vous les correctifs sur la base de données des vulnérabilités CVE ? Publiez-vous les correctifs ad hoc ou à intervalles réguliers ? Cela vous arrive-t-il de ne pas publier des correctifs mais d’alors proposer des mesures d’évitement ? Vos correctifs ont-ils déjà créé des problèmes ? Testez-vous les correctifs avant de les publier ? Quel est le retour de vos clients ?

    Les réponses à ces questions en diront long sur le sérieux du fournisseur.

    Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles), Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain) & Bram Somers (Group Chief Technology Officer, Belfius Banque)

  • Générer des modèles 3D à partir d’une photographie : le papier-mâché par ordinateur

    Voici un autre article consacré au Prix de thèse Gilles Kahn qui depuis 1998 récompense chaque année une thèse en Informatique. Cette année l’un des accessit revient à Thibault Groueix pour ses travaux qui nous emmènent dans les images 2D/3D et leurs interprétations via de l’IA. Pierre Paradinas.

    Les algorithmes de génération ou d’analyse d’image ont connu un boom au cours des dix dernières années – et ils continuent toujours de s’améliorer, sans qu’aucune limite de saturation ne se dessine quant à leurs performances ni leurs champs d’application. Ainsi, un ordinateur peut facilement indiquer si une image contient un chien ou un chat, et identifier les pixels concernés. Plus spectaculairement, en combinaison avec de l’analyse de texte, des approches comme DALL-E 2 permettent aujourd’hui de générer des images à partir de simples phrases.

    De tels algorithmes sont basés sur des réseaux de neurones, mais dans quelle mesure ces réseaux « comprennent”-ils vraiment les images? Par exemple, sont-ils capables de saisir la 3D sous-jacente dans une photo 2D “plate”?  C’est sur cette question que portent mes travaux de recherche. Notre cerveau possède intrinsèquement cette incroyable faculté: à partir de projections 2D de rayons lumineux sur la rétine, il peut instantanément reconstruire une représentation mentale 3D du monde et des objets. En analyse d’image par ordinateur, reconstruire la 3D à partir d’une seule image est un Graal. C’est un problème ouvert depuis près de 60 ans.

    C’est un problème difficile pour trois raisons. D’une part par manque de base de données d’apprentissage adéquate. D’autre part, les méthodes développées pour générer et analyser des images 2D reposent sur l’ordonnancement et la régularité des grilles de pixels, et ne se transpose pas facilement au domaine de la 3D par le simple ajout d’une dimension car cela est trop coûteux en mémoire. Enfin, parce qu’il n’y a pas de représentation universelle pour les formes 3D.  Le maillage triangulaire est un standard de l’industrie mais c’est une représentation très difficile à prédire pour un réseau de neurones car elle est discrète et combinatoire. En revanche, il est beaucoup plus simple de prédire une déformation d’un maillage préétabli, car c’est c’est un espace continu. J’ai donc proposé avec mes co-auteurs une nouvelle représentation qui réunit deux qualités : d’abord (i) reconstruire des maillages triangulaires de haute-qualité, et (ii) être compatible avec certaines architectures de réseaux de neurones classiques en apprentissage profond. Cette représentation est inspirée de la technique du “papier mâché” : un réseau de neurones apprend à déformer des feuilles planaires et à les placer sur une forme 3D de sorte à ce que l’union de ces feuilles déformées représente fidèlement la forme initiale.

    Ayant établi cette représentation, on peut maintenant l’associer aux techniques génériques d’apprentissage profond. Une boîte noire reçoit une image en entrée, prédit la déformation des feuilles et l’on ajuste automatiquement les paramètres de la boîte noire afin que l’objet 3D reconstruit corresponde à la vérité terrain. Une fois terminée cette phase d’entraînement de l’algorithme, on peut reconstruire une forme 3D à partir d’une nouvelle image, y compris les parties de l’objet invisibles dans l’image. Ce travail a  constitué un jalon important dans le domaine de la reconstruction 3D à partir d’une seule image. Pour l’instant, il ne se généralise pas à toutes les catégories d’images principalement par manque de diversité dans les bases de données 3D disponibles. 

    À partir d’une seule image, a gauche, notre modèle prédit un maillage triangulaire de l’objet en 3D, en déformant des feuilles, comme dans la technique du papier-mâché.

    Une des applications de ces recherches est la création d’objets virtuels. Ils sont présents dans de nombreuses industries comme le cinéma, les jeux vidéos, la simulation physique, l’architecture etc. Pensez par exemple au kart de Mario-Kart, aux minions dans Moi, moche et méchant, aux simulations de l’écoulement de l’air dans les turbines des réacteurs Safran…. Créer un objet 3D est aujourd’hui une tâche très complexe et généralement assez inaccessible. Ces techniques démocratisent l’accès et la manipulation de ce type de données, en inventant des outils simples pour créer, éditer et assembler des modèles 3D.

    Thibault Groueix  a passé sa thèse à l’ENPC, et travaille actuellement chez Adobe.

  • En utilisant la clé vous la montrez… trop tard elle est révélée !

    Voici le premier des articles consacrés au Prix de thèse Gilles Kahn qui depuis 1998 récompense chaque année une excellente thèse en Informatique. Cette année le premier prix revient à Gabrielle De Micheli pour ses travaux dans le domaine de la cryptographie. En prime, vous pouvez aussi retrouver Gabrielle dans une vidéo de Arte sur la question abordée dans ce billet.  Pierre Paradinas

    La cryptographie est une branche de l’informatique qui s’intéresse de manière générale à la protection de données et communications numériques. Elle est primordiale dans notre société où la majeure partie de nos données personnelles sont en effet numériques (par exemple, nos transactions bancaires).

    À l’origine de la cryptographie se trouve le problème de l’échange de messages chiffrés, c’est-à-dire de messages inintelligibles, que seul un récepteur légitime peut déchiffrer, donc lire. Afin d’assurer une transmission sécurisée de ces messages, une clé secrète est généralement partagée entre l’expéditeur et le destinataire.

    Au début des années 1970, Merkle s’écarte de ce concept de clé partagée et formalise, avec Hellman, la notion de cryptographie à clé publique où deux clés mathématiquement liées sont générées et utilisées : une clé publique et une clé secrète. Un message est ensuite chiffré à l’aide de la clé publique du récepteur. Ce dernier sera alors le seul capable de déchiffrer le message à l’aide de sa clé secrète correspondante.

    Les cryptosystèmes à clé publique, également connus sous le nom de protocoles dits asymétriques, sont tous construits à l’aide de problèmes mathématiques particuliers. Ces derniers doivent correspondre à des fonctions qui sont faciles à calculer pour toute entrée donnée mais difficiles à inverser.  Historiquement, deux candidats ont émergé : la multiplication de deux nombres premiers et l’exponentiation modulaire. L’inverse de ces opérations consiste à factoriser un nombre entier et à calculer un logarithme discret et sont considérés comme des problèmes difficiles à résoudre, même avec l’aide d’ordinateurs très puissants. Prenons l’exemple de la factorisation. Si l’on demande à un ordinateur de factoriser l’entier 1081, on obtient facilement 1081 = 23 x 47. Cependant, si on souhaite la factorisation d’un entier beaucoup plus grand, par exemple un entier de plus de 300 caractères, alors la factorisation devient trop compliquée à obtenir en un temps raisonnable.

    Ces problèmes répondent bien aux exigences d’un protocole asymétrique. En effet, pour qu’un protocole soit sûr et efficace, le déchiffrement d’un message sans la clé secrète doit être proche de l’impossible, alors que le chiffrement d’un message et le déchiffrement avec la clé secrète doivent être faciles, c’est-à-dire réalisés uniquement avec des opérations simples.

    Mes travaux de thèse se sont concentrés sur le second candidat : l’exponentiation modulaire et son opération inverse, le calcul d’un logarithme discret. L’objectif de ma thèse a été de répondre à la question suivante. Comment évaluer la sécurité des protocoles dans lesquels une exponentiation modulaire impliquant un secret est effectuée ?

    Cette question peut se répondre de deux façons différentes. D’une part, mes travaux ont étudié la difficulté de résoudre le problème du logarithme discret qui donne un accès direct à l’exposant, donc au secret. D’autre part, j’ai étudié les vulnérabilités d’implémentation, c’est-à-dire des failles qui peuvent se glisser dans le code, pendant l’exponentiation rapide qui peuvent également conduire à l’exposant secret. Il existe en effet des attaques dites par canaux cachés qui vont nous permettre de récupérer de l’information secrète qui nous mènera jusqu’à la clé secrète.
    Gabrielle De Micheli, a préparée sa thèse au centre Inria Nancy-Grand Est, actuellement postdoctorante à l’université de californie à San Diego (UCSD).
    Pour aller plus loin : un reportage de Arte sur les travaux présenté dans ce billet  https://www.arte.tv/fr/videos/105025-000-A/cybersecurite-la-science-des-codes-secrets/
  • J’ai un problème : je ne sais pas trop ce qu’est l’intelligence artificielle 

    Ce texte est paru originellement dans le Hors-Série de Pour la Science n° 115 : « Jusqu’où ira l’intelligence artificielle ? », mai 2022.

    Entretien avec Serge Abiteboul, directeur de recherche à Inria et à l’ENS Paris. Propos recueillis par Olivier Voizeux.

    Peut-on dire que, plus que le jeu d’échecs, les réseaux de neurones ont dopé la recherche sur l’intelligence artificielle ?

    Ce serait un peu du bourrage de crâne. Un système comme Deep Blue, d’IBM, qui a battu le champion du monde d’échecs Gary Gasparov en 1997, embarquait des années de recherches, le plus souvent développées pour autre chose. Toutes les techniques informatiques ont des applications considérables qui sont à l’œuvre tous les jours, qui marchent très bien et ont pour nom « gestion de données », « système d’exploitation », « compilateur », « communication numérique », « interface humain-machine », « calcul parallèle », « raisonnement logique », etc. Ce qu’on observe depuis une dizaine d’années, c’est l’arrivée d’algorithmes d’apprentissage automatique, qui ont obtenu des résultats superbes dans des domaines qui nous bloquaient jusque-là. Mais internet et votre téléphone portable fonctionnent en grande partie sans eux, même si on utilise de plus en plus l’apprentissage automatique, par exemple dans les assistants vocaux.

    Pouvez-vous préciser l’apport de l’apprentissage automatique ?

    Sur certains problèmes, les approches dites « symboliques », fondées sur le calcul et le raisonnement, ne progressaient presque plus. Je pense notamment à des problèmes tout bêtes comme de distinguer l’image d’un chat de celle d’un chien, ou, plus intéressant, de reconnaître une tumeur cancéreuse. Et, assez soudainement, des techniques connues depuis longtemps et qui avaient souvent des résultats médiocres, les réseaux de neurones, se sont mises à fonctionner. La traduction automatique des langues, par exemple, s’est améliorée considérablement (lire l’entretien avec Thierry Poibeau). Avec l’apprentissage automatique et les méthodes statistiques, ainsi nommées parce qu’elles s’appuient sur de gros volumes d’informations, un logiciel apprend de données fournies par des humains, en observant son environnement, en simulant des situations, etc. Pour faire une analogie, vous pouvez apprendre à jouer au tarot parce que des amis vous en expliquent les règles, mais vous pouvez aussi vous former en regardant des joueurs. Souvent, les deux modes coexistent. On connaissait depuis des années des algorithmes pour faire apprendre aux machines, notamment les réseaux de neurones. Pourquoi tout à coup sont-ils devenus plus performants ?

    Il y a eu une sorte de conjonction de planètes avec l’arrivée, presque au même moment, de beaucoup plus de puissance de calcul, de plus en plus de corpus de données pour nourrir l’apprentissage, et du développement de nouveaux algorithmes dits « d’apprentissage profond »

    (deep learning, en anglais). D’un coup, des problèmes qui nous résistaient depuis des années se sont mis à tomber. Cela avait un côté génial. Mais, encore une fois, cette approche n’a pas remplacé ce qui existait avant. Même quand AlphaGo, de DeepMind, a battu le joueur de go Lee Sedol, il n’utilisait pas uniquement des algorithmes d’apprentissage profond.

    Le revers de ces méthodes n’est-il pas leur opacité ?

    En effet, quand on fait tourner un algorithme d’apprentissage profond, on ne sait pas expliquer pourquoi on arrive à un résultat particulier. Les longs calculs réalisés ne font pas à proprement parler un raisonnement, en tout cas un raisonnement qu’un humain serait capable de comprendre. On peut penser que, tant pis, seule l’efficacité prime, mais ce n’est pas si simple. Prenons deux exemples en médecine : un algorithme d’apprentissage qui aide à retrouver des tumeurs cancéreuses (voir La fée IA au chevet des malades, par N. Ayache) examine des milliers d’images annotées par des médecins, et à partir de toute cette connaissance se prononce sur les images qu’on lui soumettra. Impossible pour un humain de se former en étudiant toutes ces images : il y en a trop. Et de toute façon, il y aura un médecin, voire une équipe, pour discuter l’avis de la machine qui sera un avis comme un autre, pris comme tel. En revanche, en matière de diagnostic médical, si vous rentrez dans un programme un grand nombre d’informations sur un patient, et qu’à la fin ce logiciel décide « c’est une hépatite », ça ne peut pas suffire au médecin qui a besoin d’explications. Il ou elle a besoin d’entendre que, en fonction des observations du malade, statistiquement ce peut être telle maladie avec 95 % de chances, mais aussi telle autre avec 5% de chances, et qu’il faudrait poser telle question au malade pour écarter telle possibilité, ou demander tel examen complémentaire, etc. Dans les deux cas, il y a un travail collaboratif entre machine et humains. Dans le premier, nul besoin d’explications (les techniques d’apprentissage automatique un peu brutales sont efficaces). Dans le second, des explications sont indispensables.

    Où finit l’informatique « ordinaire », où commence l’intelligence artificielle ?

    Cette distinction n’a pas vraiment de sens. On a, à l’intérieur de l’informatique, un vrai continuum.

    Quelle est alors votre définition de l’intelligence artificielle ?

    Pour Alan Turing, une activité d’une machine sera qualifiée d’« intelligence artificielle » si elle est considérée comme intelligente quand un humain s’y livre. À ses yeux, ce ne peut être qu’une imitation de l’intelligence humaine, une simulation. J’utilise la définition de Turing mais, honnêtement, ça ne me dit pas grand-chose puisque, tout comme lui, je ne sais pas définir l’intelligence humaine. En fait, j’ai un problème : je vous en parle, mais je ne sais pas trop ce qu’est l’intelligence artificielle ! L’expression fait fantasmer. Mais qu’est-ce qu’elle signifie ? Depuis ma thèse, je travaille sur des systèmes de gestion de base de données, qui répondent aux questions des humains. C’est quand même intelligent de répondre à des questions ! J’ai travaillé sur des bases de connaissances qui font de la déduction. Là encore, c’est intelligent de raisonner. Plus récemment, l’apprentissage automatique m’a permis d’introduire de nouvelles fonctionnalités dans des systèmes sur lesquels nous travaillons avec des étudiants. Distinguer ce qui en informatique tient de l’intelligence artificielle ou pas, ça n’aide en rien. Pour moi, c’est avant tout un buzzword, surtout utile pour récupérer des financements ou impressionner des amis. Le truc cool, aujourd’hui, n’est pas l’intelligence artificielle, mais l’apprentissage automatique qui vient compléter d’autres techniques essentielles de l’informatique.

    Donc vous ne cherchez jamais à développer des programmes « plus intelligents » ?

    Je cherche à faire des programmes qui résolvent des problèmes, qui répondent aux besoins de leurs utilisateurs. Cela dit, je ne connais pas beaucoup d’informaticiens qui essaient d’écrire des programmes idiots… même si on ne sait pas définir l’intelligence.

    Quel est l’objectif de la recherche en intelligence artificielle ? Dépasser l’humain ?

    Vous l’avez compris, je ne sais pas distinguer recherche en intelligence artificielle et en informatique. Les chercheurs en informatique veulent repousser les limites de la science. Certains se posent des questions théoriques, par exemple sur la calculabilité ou la puissance du raisonnement, presque du ressort des mathématiques pures. À l’autre bout du spectre, d’autres développent des produits informatiques prêts à être utilisés le mois d’après comme les logiciels scikit-learn (une bibliothèque Python pour l’apprentissage automatique) et Caml (un langage de programmation et un environnement populaire). Parfois, une recherche très théorique comme celle des universitaires Ronald Rivest, Adi Shamir et Leonard Adleman débouche sur un algorithme de chiffrement très pratique, le RSA, qui est à la base de tous les échanges chiffrés sur internet. Pour moi, cette diversité est la grande richesse de la recherche dans ma discipline. Les humains sont de magnifiques machines à résoudre des problèmes. Pourquoi ne pas essayer de les imiter avec des ordinateurs ? C’est le genre de défi qui fait avancer les sciences. Quant à les dépasser… pourquoi pas ? À vrai dire, l’informatique accomplit déjà des tas de choses dont nous sommes incapables. Reproduire à la main des calculs que votre smartphone traite à toute vitesse prendrait un temps dingue à des centaines de milliers de personnes qui commettraient des millions d’erreurs. Les ordinateurs calculent bien mieux que nous. Faire mieux que l’humain n’est pas si difficile.

    Mais, d’une calculette, on ne dit pas qu’elle est intelligente…

    Un des trucs qu’on apprend à l’école primaire, c’est calculer, non ? Moi, je trouve ça intelligent. Le chien du voisin, sait-il calculer ?

    Peut-être ce déni s’explique-t-il parce que la calculette est devenue ordinaire ?

    En effet, comme c’est un objet de notre quotidien, on lui interdit d’être vraiment intelligent. Peut-être que ce qu’on sait expliquer par une suite d’opérations est dénué de vraie intelligence. La preuve automatique d’un théorème mathématique, on peut la décortiquer pas à pas. Et une machine reproduira « bêtement » le calcul, donc ça ne doit pas être bien sorcier. Mais comme on ne comprend pas comment fonctionne l’apprentissage automatique, alors c’est forcément intelligent.

    Est-ce qu’il y a, sur l’intelligence artificielle, une approche particulière à la France ?

    Non. La recherche en informatique est devenue extrêmement mondiale, il ne peut pas y avoir d’approche hexagonale. Il y a une grande fluidité entre les pays. J’ai fait ma thèse aux États-Unis comme beaucoup de collègues, on interagit sans cesse avec des collègues américains, européens, africains, asiatiques, nos labos sont peuplés de doctorants, postdoctorants, visiteurs, etc., de multiples nationalités. Si on voulait vraiment chercher une coloration française, ce serait plutôt du côté de la formation scolaire et universitaire. Nos étudiants avaient jusqu’à récemment, en moyenne, une formation plus mathématique que ceux venus d’ailleurs. Cela leur donnait des bases théoriques vraiment solides. J’espère que cela ne va pas changer.

    Ils ne sont pas capables de créativité tout court : ni en maths, ni en biologie, ni en littérature. On y travaille, on fait des progrès, mais les poèmes que nos algorithmes créent sont encore médiocres. Ce qu’on sait faire, c’est donner plein d’exemples de beaux tableaux d’un peintre à une machine, et lui demander de produire une œuvre dans le même genre. Elle ne crée pas vraiment, elle singe. D’ailleurs, on retrouve la même difficulté de définition qu’avec l’intelligence, je ne sais pas définir formellement la beauté ou la créativité. À ce sujet, les travaux du jeune chercheur en IA Antoine Cully dans sa thèse m’ont passionné. Il montre, par exemple, comment un robot à six pattes a pu inventer une nouvelle façon de marcher avec une patte abîmée ou manquante. Mais ce robot a-t-il vraiment découvert une nouvelle façon de marcher ? Ou cette nouvelle démarche était-elle plus ou moins déjà inscrite dans tous les calculs qu’on lui avait demandés avant ?

    Sauriez-vous développer un algorithme de bêtise artificielle ?

    Vous ne trouvez pas qu’il y a assez de bêtise naturelle ?

    Imaginez qu’il n’y en ait pas autour de nous et qu’on ait besoin d’une machine bête pour nous divertir.

    S’il s’agit de programmer un générateur de formules fausses, je peux facilement le faire. Mais si vous voulez en plus qu’elles soient drôles, c’est de l’humour. Là, c’est encore plus dur que la créativité.

    L’intelligence artificielle est sortie des laboratoires, elle est entrée dans la cité, et elle y produit des effets. Lesquels vous paraissent les plus importants ?

    Il y a deux questions qui me semblent particulièrement critiques en ce moment, et elles sont liées : c’est la sobriété énergétique et le travail. Selon les sources, le numérique représenterait aujourd’hui de 3 à 4% des émissions de gaz à effet de serre dans le monde, et cela croît. Je ne sais pas chiffrer la proportion de l’intelligence artificielle dedans. Ce n’est pas énorme, mais cela augmente aussi. Pour limiter notre impact sur l’environnement, il va nous falloir changer nos modes de vie par exemple arrêter de changer de téléphone tous les deux ans ou de passer du temps à visionner des films en haute résolution sur un téléphone cellulaire. Il y a beaucoup de gaspillage, comme avec les « chaînes de blocs » (blockchains), ces procédés de stockage sécurisés et décentralisés, qui pourraient fonctionner en consommant plusieurs ordres de grandeur d’énergie en moins pour le même résultat. Dans le numérique comme pour le reste, il va nous falloir apprendre à être frugaux.

    Et concernant le monde du travail ?

    L’ensemble de la technologie numérique a une incidence sur l’emploi, pas seulement l’intelligence artificielle. Aujourd’hui, on peut faire fonctionner une usine avec très peu d’individus grâce à l’informatique en général. Il est vrai qu’avec l’intelligence artificielle on va aller encore plus loin dans le remplacement de l’humain. Après sa force physique, son travail intellectuel devient de plus en plus remplaçable. Le hiatus est qu’on veut une société plus sobre énergétiquement, qui produise et pollue moins, et qu’on veut aussi moins travailler, donc utiliser plus de machines. Or il faut de l’énergie pour fabriquer les machines et elles ont des rendements souvent moins bons que les nôtres. Pour y arriver, de sérieuses avancées scientifiques et d’importantes mesures d’économie seront nécessaires. Et puis, si les machines remplacent les humains, qui va être rétribué ? Uniquement ceux qui les possèdent ? Dans ce cas, la grande masse de la population sera non seulement privée d’activité, mais aussi de quoi se nourrir. Ce ne sera pas socialement tenable. Dans les vingt à cinquante ans à venir, une transformation complète de la société s’imposera, exigeant que l’économie soit beaucoup plus redistributive. Voilà pour le volet sociétal, qui se double d’un volet humain. Dans notre culture, on nous apprend dès l’enfance que le travail est la grande valeur. Comment fera-t-on dans un monde où une grande partie d’entre nous sera sans emploi, ou avec de l’emploi partiel, ou des travaux associatifs ou d’aide à la personne, non « productifs » dans le sens économique actuel ? Il nous faut inventer une nouvelle philosophie du travail, de son utilité sociale, une nouvelle philosophie des loisirs. Le côté génial, c’est que, si on ne se plante pas écologiquement ou socialement, l’informatique nous permet d’avoir l’ambition la plus dingue, celle d’une société égalitaire où tout le monde vivrait bien, en s’éduquant, avec autant de loisir que souhaité. Ce n’est pas de la science- fiction… Enfin, je l’espère.

    https://www.pourlascience.fr/sd/informatique/j-ai-un-probleme-je-ne-sais-pas-trop-ce-qu-est-l-intelligence-artificielle-23682.php

  • Algorithmes quantiques : quand la physique quantique défie la thèse de Church-Turing

    Frédéric Magniez  a tenu la Chaire annuelle Informatique et sciences numériques 2020-2021 du Collège de France. Il n’y avait pas eu à l’époque d’article sur binaire. Voilà qui corrige cette situation peu acceptable.
    Frédéric Magniez, mathématicien et informaticien, est directeur de l’Institut de recherche en informatique fondamentale (www.irif.fr) et directeur adjoint de la Fondation des sciences mathématiques de Paris. Ses travaux de recherche portent sur la conception et l’analyse d’algorithmes probabilistes pour le traitement des grandes masses de données, ainsi que sur le développement de l’informatique quantique et plus particulièrement les algorithmes, la cryptographie et ses interactions avec la physique.
    Serge Abiteboul
    Frédéric Magniez, 2020. Crédits : Patrick Imbert, Collège de France

    Une prouesse inutile ?

    L’année 2021 sera sans aucun doute quantique ! Il y a à peine plus d’un an, Google réalisait un calcul sur un prototype de circuit quantique programmable. D’un point de vue technologique la prouesse était encore inimaginable il y a seulement quelques années. D’un point de vue de la puissance de calcul, la tâche demandée est certes très spécifique, mais nécessiterait plusieurs milliers d’années de calcul sur tout autre machine existante, aussi puissante soit-elle ! Un vrai tournant venait donc d’être engagé. Cette année, un consortium européen va lancer une plateforme de simulation et de programmation quantique rassemblant chercheurs et industriels issus de la physique et de l’informatique. Cette plateforme utilisera une technologie quantique fournie par la start-up française Pasqal. Enfin, l’État va lancer un plan national quantique qui va voir la création de plusieurs centres dédiés à la recherche sur les technologies quantiques, dont l’informatique.

    Le calcul effectué par Google fin 2019 revenait à lancer un gigantesque dé truqué ou faussé. Le calcul des probabilités de chaque face du dé est lié au circuit quantique programmé dans la machine de Google. La simulation d’un circuit quantique, même de petite taille (53 bits dans l’expérience de Google), est d’une telle complexité pour nos ordinateurs actuels qu’elle ne peut être réalisée en moins de plusieurs millénaires par ces derniers. En revanche, le lancé de ce dé est quasiment instantané sur le prototype quantique de Google, puisque ce dernier implémente directement ledit circuit quantique, et ce avec une précision satisfaisante, c’est-à-dire pour vérifier que le bon dé avait été lancé. Cette réalisation, même imparfaite, semble pour le moment impossible à réaliser autrement que quantiquement.

    Cette prouesse semble loin de toute application pratique. Néanmoins, elle valide un courant de pensée remontant aux années 1980, en particulier aux propos de Feynman, affirmant que notre interprétation et compréhension de ce qui est calculable devait évoluer. Elle remet en cause les fondements du calcul remontant à la thèse de Church-Turing. Cette thèse, qui a évolué au fil des années, tendait à affirmer que tout progrès technologique ne remettrait jamais en cause le modèle mathématique du calcul défini par Church et Turing en 1936. Ce modèle permet de discerner ce qui est calculable par une machine de ce qui ne l’est pas. Quelques décennies après, cette thèse avait été reformulée ainsi : tout modèle de calcul raisonnable peut être simulé efficacement par une machine de Turing probabiliste (i.e. ayant accès à une source d’aléa). La notion de complexité y avait donc été ajoutée, rendant la thèse plus ambitieuse mais aussi plus fragile.

    Les fondations – Enigma bis ?

    Cette thèse étendue de Church-Turing a donc été remise en question au tout début de l’informatique quantique, lorsque Deutsch définit en 1985 la notion de machine de Turing quantique, avec son lot de premiers algorithmes exponentiellement plus rapides que leurs équivalents déterministes (mais pas encore probabilistes). D’abord perçu comme une curiosité, ce modèle de calcul finit par susciter intérêt et questionnements dans la communauté scientifique. Finalement en 1993, Bernstein et Vazirani construisent mathématiquement une machine universelle quantique efficace, c’est-à-dire le premier
    compilateur quantique (l’existence d’une machine programmable) qui valide mathématiquement le modèle de calcul (mais pas sa réalisation physique). En même temps arrive l’évidence qu’un ordinateur quantique peut être exponentiellement plus rapide qu’un ordinateur classique, i.e. qu’une machine de Turing probabiliste. Cependant les problèmes résolus sont tous artificiels et semblent encore bien loin de toute application concrète.

    C’est Simon puis Shor qui arrivent avec la première application algorithmique, et pas des moindres, en 1994, soit seulement une année après l’acceptation par la communauté du concept même de calcul quantique. En effet, cette application permettait de déchiffrer la plupart des messages cryptés par les mécanismes dits à clé publique, et de réduire à néant les procédés cryptographiques les utilisant (monnaie électronique, CB, vote électronique, authentification, …). Heureusement, l’ordinateur quantique n’existe pas (encore) ! Pourtant cette découverte n’est pas sans rappeler les découvertes de Turing et la construction de la machine qui a permis de déchiffrer les messages allemands eux-mêmes chiffrés par la machine Enigma durant la deuxième guerre mondiale…

    Les algorithmes quantiques – Une nouvelle façon de penser

    Néanmoins, deux décennies plus tard, alors que la possibilité d’une construction future d’un ordinateur quantique commençait à être prise au sérieux, une compétition scientifique internationale a été lancée en 2016 afin de définir les nouveaux standards de chiffrement post-quantique, ouvrant la voie à une longue recherche puis standardisation toujours en cours. Une autre alternative repose pourtant dans l’utilisation relativement simple de fibre optique afin de communiquer en encodant l’information directement sur des photons. Il s’agit du protocole quantique d’échange de clé proposé par Bennett et Brassard en 1984, soit 10 années avant la découverte de l’algorithme de Shor. En quelque sorte l’attaque et la parade reposent sur la même technologie, à ceci près que le protocole en question a déjà été construit et testé sur de grandes distances, un satellite dédié à même été envoyé par la Chine en 2016. L’Europe n’est pas en reste avec des projets d’infrastructure de grande envergure dédiés au déploiement de solutions quantiques de chiffrement. Cependant ces solutions quantiques nécessitent des technologies spécifiques, alors que les solutions algorithmiques dites post-quantiques pourraient être déployées sur les structures et ordinateurs actuels.

    Depuis 1994, les applications (calcul scientifique, optimisation, recherche opérationnelle, simulation, apprentissage automatique, IA…) foisonnent dans tous les domaines où l’informatique joue un rôle crucial, et pour des tâches où nos ordinateurs actuels ne sont pas assez puissants. Mais surtout les outils développés (transformée de Fourier quantique, estimation de phase, amplification d’amplitude, estimateur quantique, marche quantique, …) progressent continuellement, impactant toutes les thématiques de l’informatique, en en créant de nouvelles (information quantique, complexité hamiltonienne, simulation quantique, …), ou encore en tissant de nouveaux liens de l’informatique vers d’autres disciplines dont la physique, la chimie et les mathématiques.

    Mais avant tout l’informatique quantique a introduit une nouvelle façon d’analyser, raisonner et démontrer. Les outils existants précédemment n’étant plus adaptés, il a fallu en créer de nouveaux. Apportant un nouveau regard mathématique à des questions anciennes, ces nouveaux outils ont permis de progresser sur des questions ouvertes depuis de nombreuses années. Cette démarche a été baptisée preuve ou méthode quantique. Une preuve quantique est un peu l’analogue des nombres complexes pour la trigonométrie ou encore l’électricité : un outil très puissant permettant de mener facilement des calculs difficiles, ou encore d’établir des preuves inaccessibles jusque là, y compris dans des domaines pour lesquels ils n’ont pas été construits initialement. La dernière démonstration en date est la réfutation d’une célèbre conjecture en mathématiques (conjecture de Connes) à l’aide d’un résultat en théorie de la complexité quantique.

    Vision et formations nécessaires

    Une fois tous ces algorithmes quantiques découverts, dont l’utilisation de certains serait à n’en pas douter révolutionnaire, la question de la possibilité de construire un ordinateur les exécutant fut donc de plus en plus pressante. L’importance d’un plan d’envergure a d’abord émané de tous les acteurs concernés, scientifiques comme industriels, avec une feuille de route et des jalons intermédiaires appropriés, puis fut largement soutenue par les politiques. Plusieurs plans ont vu le jour, dont un au niveau européen à travers le Quantum Flagship en 2018, et le Plan Quantique national en 2021. L’avantage industriel que pourrait procurer la construction d’un ordinateur quantique, même imparfait, a créé une frénésie stimulante qui touche tous les secteurs stratégiques (finance, industrie, santé, sécurité…). Les progrès technologiques de grands groupes industriels, tels que Google et IBM par exemple, ont été de véritables locomotives, laissant apparaître rapidement que le plus grand défi serait de trouver une application à ces premiers prototypes, certes révolutionnaires, mais très éloignés des machines nécessaires aux applications précédemment découvertes en algorithmique quantique. En effet, non seulement ces machines sont petites, mais elles ont un taux d’erreur encore trop grand. Pourtant elles sont capables d’effectuer des calculs impossibles à réaliser classiquement, mais des calculs sans impact industriel actuellement.

    Un véritable travail de fourmi s’est donc enclenché, mais, pour l’instant, avec une communauté encore trop petite. Les mêmes personnes ont actuellement en charge de comprendre et de maîtriser toutes les facettes du calcul quantique, de la modélisation à la réalisation expérimentale en passant par la solution algorithmique, son analyse, sa programmation et sa vérification, là où la chaine de production constitue habituellement un véritable écosystème de l’informatique. Il nous faut donc nouer de multiples partenariats, construire et enseigner dans de nouvelles formations, afin de saisir cet unique défi que pourrait constituer ce nouveau tournant technologique.

    C’est dans ce contexte que le Collège de France m’a donc invité à occuper pour un an sa chaire Informatique et sciences numériques, et à donner dans ce cadre un cours sur les algorithmes quantiques. Ce cours tâchera de répondre à une demande croissante d’information et de formation de nombreux publics. Le public ciblé va des esprits curieux de saisir les possibilités et les limites du calcul quantique, aux acteurs des sciences informatiques au sens large : informaticiens, mathématiciens du numérique et physiciens des technologies quantiques, qu’ils soient étudiants, chercheurs, développeurs, entrepreneurs ou encore futurs utilisateurs des algorithmes quantiques.

    En guise de conclusion, il convient de rappeler que c’est en France, en 1980, qu’a débuté la révolution quantique expérimentale lorsque l’expérience du groupe d’Alain Aspect (CNRS) a validé à Orsay les prédictions de la physique quantique, qui ne pouvaient s’expliquer par la physique classique seule. Puis le prix Nobel a été décerné en 2012 à Serge Haroche (Collège de France) pour ses travaux sur la manipulation de systèmes quantiques. Le versant informatique de cette révolution a, lui, débuté en 1994 conjointement aux travaux outre-Atlantique, grâce à la vision de Miklos Santha (CNRS). Alors étudiant de master, j’ai suivi le mouvement de son équipe, qui était basée aussi à Orsay. Rapidement, Miklos a su constituer un groupe qui essaime, fait des émules en France et attire des talents internationaux. A l’époque, le pari pouvait sembler risqué, mais dans les années 2000, les possibilités de recrutement au CNRS et à l’Université sont plus nombreuses, et plusieurs chercheurs sont recrutés afin de mieux comprendre les liens que tisse le traitement de l’information quantique entre informatique, mathématiques et physique.

    Frédéric Magniez, Directeur de recherche CNRS,  Directeur de l’IRIF
    Pour la leçon inaugurale de la chaire annuelle Informatique et sciences numériques du Collège de France – 1er avril 2021

    Pour aller plus loin

    • Pages de Frédéric Magniez sur le site internet du Collège de France :
      https://www.college-de-france.fr/site/frederic-magniez/index.htm
    • Article sur les travaux de Frédéric Magniez dans CNRS le journal
      https://lejournal.cnrs.fr/articles/une-informatique-a-reinventer-pour-le-calcul-quantique
  • Etalab : de l’ouverture des données à leur partage collaboratif

    Dans le cadre de la rubrique autour des “communs du numérique”, un entretien avec Laure Lucchesi, directrice d’Etalab au sein de la Direction interministérielle du numérique (DINUM). Après une vingtaine d’années dans le numérique dans les secteurs public et privé dans plusieurs pays, elle devient directrice d’Etalab en 2016. Elle a une longue expérience du logiciel libre et de l’open data. A Etalab, elle encourage le développement des communs numériques.
    Laure Lucchesi (Etalab)

    Pourriez-vous raconter un peu ce que fait Etalab aux lecteurs de binaire ?

    Etalab est un département de la direction interministérielle du numérique (DINUM) sous l’autorité de la ministre de la Transformation et de la Fonction publiques. Notre mission c’est de faire en sorte que l’État et le service public rendu aux usagers s’améliorent en exploitant tout le potentiel des données. L’un des leviers, c’est l’ouverture des données publiques, que l’on appelle parfois « open data », qui consiste à mettre en ligne sur une plateforme, data.gouv.fr, les données produites par les systèmes d’information de l’État et non couvertes par des secrets, afin qu’elles puissent être réutilisées par d’autres. En 2020, la crise sanitaire a par exemple bien mis en évidence l’utilité de la mise à disposition de tous des données publiques, sans lesquelles des services comme covidtracker ou vitemadose n’auraient pas pu exister.

    Cette donnée publique, c’est la matière première d’une action publique transparente, véritablement au service de la démocratie. Elle ouvre aussi la voie à davantage de participation des citoyens, à de nouvelles façons de produire et d’améliorer le service public : des services innovants, crées par des tiers à partir des données en open data, viennent ainsi compléter et « augmenter » le service public, en démultiplier la portée en quelque sorte.

    Plus largement, notre mission consiste à ouvrir – au sens de rendre accessibles et réutilisables par tous – un maximum de ressources numériques de l’État : les données, mais aussi les APIs (sur api.gouv.fr), les codes sources logiciels (code.gouv.fr), et même les communs numériques que l’administration utilise, produit et/ou auxquels elle contribue (https://communs.numerique.gouv.fr/communs/).

    Nous avons d’ailleurs lancé fin 2021 un nouveau programme : l’Accélérateur d’initiatives citoyennes (citoyens.transformation.gouv.fr), pour faciliter la réutilisation de ces ressources numériques et les coopérations entre l’administration et la société civile qui porte des projets d’intérêt général.

    Nous avons également mis en place le programme “Entrepreneurs d’intérêt général” qui s’apprête à lancer sa 6e promotion : nous sélectionnons des spécialistes de la technologie, du design et du droit du numérique pour tester et expérimenter de nouveaux possibles avec des agents de l’État. L’idée est de s’attaquer à des défis publics et d’ouvrir l’administration à des talents venus de l’extérieur. On s’appuie sur l’agilité du numérique, sur des modes d’action différents de ceux qui prévalent dans l’administration, pour résoudre des problèmes concrets.

    Etalab a démarré il y a un peu plus de dix ans comme un lab innovant, pionnier, faiseur et un peu bidouilleur. L’enjeu est désormais de passer de l’innovation à la transformation, et d‘accompagner toute l’administration dans la « mise à jour » de son logiciel d’action publique ! D’institutionnaliser notre action, sans perdre pour autant nos valeurs d’ouverture et d’innovation radicale.

    Le rapport Bothorel[1] et la circulaire du Premier ministre du 27 avril 2021 ont permis de renforcer cette politique et sa gouvernance : On a désormais une véritable politique publique de la donnée, déclinée également dans chaque ministère. Chaque administration doit avoir son administrateur ou administratrice des données, algorithmes et codes sources (l’équivalent d’un « chief data officer ») et définir sa feuille de route en la matière.

    https://communs.numerique.gouv.fr/communs/

    Y a t-il des freins à ces actions ?

    Comme dans tout changement, il y a naturellement des interrogations légitimes, et des résistances dues à une perte de contrôle : mes données ne sont pas assez bonnes ; eur qualité va-t-elle être critiquée ? Quels sont les risques que je prends ? Qu’est-ce qui va etre fait avec mes données ?…

    Ensuite, l’ouverture des données exige du temps et des moyens. Il faut bien comprendre que l’ouverture de ses données n’est pas le cœur de la mission d’une administration ; elle doit être accompagnée pour cela et on a peut-être trop longtemps sous-estimé ces besoins.

    Enfin, ouvrir la donnée ne suffit pas. Pour que cela soit un succès, il faut aussi stimuler la réutilisation de ces données, faire vivre au quotidien l’engagement d’un écosystème d’innovation.

    Le mouvement de l’ouverture des données publiques est-il bien engagé en France ? Dans tous les ministères ?

    Oui, tous les ministères, ainsi que bon nombre de leurs établissements sont engagés dans cette ouverture. Les feuilles de route des ministères en témoignent, et la France est pour la première fois cette année au tout premier rang des pays européens en matière d’open data !

    La crise sanitaire a permis de démontrer très concrètement, jusqu’au grand public, l’intérêt de l’ouverture des données pour l’information des citoyens. On a vu comment des tierces parties pouvaient s’emparer de ces données pour en proposer des usages, on a bien réalisé comment des données publiques ouvertes pouvaient devenir le socle de services publics ou privés avec de grandes utilités économiques et sociales. Mais il ne s’agit pas seulement d’ouvrir. A partir du moment où ces données sont utilisées, il faut aussi qu’elles restent à jour et de qualité, et il faut garantir leur pérennité.

    Nous considérons ainsi certaines donnée –  dites « de référence » parce qu’elles sont centrales et servent à identifier ou nommer des entités, par exemple la base nationale des adresses géolocalisées (BAN) – comme une véritable infrastructure, dans laquelle il faut investir et dont il faut assurer l’entretien collectif. C’est en cela que les mécanismes contributifs et la notion de « communs contributifs », auquel une communauté d’usage participe, prend tout son sens.

    Usage et enrichissement de la Base Adresse par les services de secours : Ici le SDIS 64

    Est-ce que cela va assez vite ? Partout ?

    Cela avance partout, même si pour certains ministères, cela va peut-être moins vite. Cela tient souvent à des niveaux de maturité numérique différents, de culture de la donnée plus ou moins forte. Dans certains domaines, il y a déjà une grande habitude de la donnée métier.

    Pour nous, l’objectif est que chacun s’autonomise. Certains services étaient pionniers, certaines collectivités parfois aussi, dès 2009, avant même les services de l’État.

    Au fur et à mesure que les administrations gagnent en maturité, notre rôle change, il est moins centralisateur, plus fédérateur : la mise en œuvre s’est naturellement distribuée et nous sommes plus dans l’accompagnement, tout en continuant à fixer le cadre d’action, à donner de grandes orientations, et à faciliter aussi les expérimentations.

    Où trouve-t-on les données ouvertes publiques ?

    En France, le point d’entrée est data.gouv.fr. Il ne se substitue pas aux différents sites et portails, mais il a vocation à recenser un maximum de données pour fournir un point d’entrée unique.

    Qu’est-ce que les communs numériques représentent pour vous ?

    L’open data n’est pas toujours le point de départ d’un commun, au sens d’une ressource numérique produite et gérée par une communauté. Dans de nombreux cas, l’administration – qui est la seule productrice – met à disposition des données telles qu’elle les a collectées et créées pour sa mission initiale, avec peu ou pas de « voie de retour » de la part des réutilisateurs.

    Par exemple, l’INSEE affecte à chaque entreprise un identifiant unique, le numéro SIREN, et les données des entreprises sont stockées dans une base de 13 millions d’établissements – le fichier Sirène – parmi les plus riches du monde. Ce répertoire est depuis 2017 en open data, mais il n’est pas pour autant un commun, l’INSEE en assure seul la production et la gestion. Cette mise à disposition est déjà très précieuse pour l’économie et la société, mais la notion de commun numérique emporte avec elle la notion de production et d’entretien collectifs.

    La base adresse nationale (BAN) commence à s’en rapprocher, avec des contributions des collectivités territoriales, de l’IGN, de la DGFIP, de l’Insee et d’une communauté d’acteurs qu’il faut parvenir à faire collaborer, autour de règles de gestion et d’usage partagées. La Base « Accès Libre », qui collecte et rend disponibles les données d’accessibilité des établissements recevant du public pour les personnes en situation de handicap (https://acceslibre.beta.gouv.fr/) en est un autre exemple.

    Les communs sont pleins de promesses et participent à la souveraineté. Mais il y a encore besoin de mieux tester et comprendre comment s’y prendre pour orchestrer au mieux leur fonctionnement quand il implique l’acteur public.

    Quelle gouvernance ? Par l’État ? Par qui ?

    Que l’État assure seul la gouvernance, ce n’est pas l’objectif. Il faut trouver d’autres formes de gouvernance, plus ouvertes, mêlant acteurs publics et la société civile, pour garantir l’intérêt collectif. Les modalités de ces associations sont encore souvent au stade de l’expérimentation.

    Est-ce qu’il y a un risque que le soufflé des communs publics retombe ?

    Ouvrir, c’est une première étape qui demande déjà beaucoup de travail. Ensuite pour passer à de l’enrichissement collaboratif et de la validation, c’en est une autre. Pour la première étape, la dynamique est lancée, l’utilité est démontrée. Pour la seconde étape, la complexité organisationnelle est claire. Mais je reste optimiste. C’est le bon moment parce que la question de la souveraineté pousse dans ce sens, et vient redynamiser le mécanisme d’ouverture.

    Et parmi les services autour de la donnée, vous considérez aussi des approches à partir de l’IA ?

    On aide les administrations à expérimenter dans le cadre de projets autour de l’IA. Cela ouvre le sujet de la transparence des algorithmes publics et de l’explicabilité des résultats. Cela vise à éviter des comportements de type boîte noire.

    On travaille aussi à ouvrir des bases de données d’apprentissage annotées, et à les partager avec des acteurs publics et privés, ainsi que des modèles d’apprentissage.

    Alors que de plus en plus d’algorithmes sont susceptibles d’être utilisés comme aide à la décision, pour attribuer des aides par exemple ou des places dans l’enseignement supérieur, il y a désormais des obligations légales de savoir expliquer comment ces modèles fonctionnent. Nous travaillons à accompagner les agents publics dans la mise en œuvre de ces obligations, dès la conception des systèmes jusqu’à leur documentation et aux réponses fournies aux usagers qui souhaiteraient comprendre.

    Serge Abiteboul, François Bancilhon

    [1] Rapport de la Mission Bothorel « Pour une politique publique de la donnée », 2020.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Prédire et décider : l’utilité de la donnée en modélisation agricole

    Du cahier manuscrit relevant les températures dans les vignes aux capteurs installés sur des tracteurs de plus en plus robotisés, l’agriculture a toujours produit des données. Grâce à Serge Zaka (ITK), nous nous penchons aujourd’hui sur la fertilité des liens qui unissent modèles mathématiques et données, au service de l’agriculture moderne. Antoine Rousseau et Pascal Guitton.

    Les données peuvent être stockées ou circuler via un réseau informatique ou de télécommunication. La publicité ciblée, les réseaux sociaux ou le GPS sont des thématiques du quotidien relatives à l’utilisation des données. Moins connu, on les retrouve très largement dans la recherche appliquée à l’agriculture et particulièrement pour la modélisation agricole.

    La modélisation agricole est la traduction en langage mathématique de la description de processus physiques, biologiques, chimiques, etc. issus des observations et des expérimentations scientifiques menées depuis le début du XXème siècle. L’objectif principal est de faire parler les plantes, c’est-à-dire de connaître leur état et leurs besoins, quelles que soient les conditions climatiques, pédologiques, génétiques ou les techniques culturales. Plusieurs utilités découlent alors : l’une à court terme et l’autre à long terme.

    A court terme, les modèles permettent de prendre des décisions pour les travaux agricoles des jours à venir. En connaissant au mieux les besoins des cultures grâce aux modèles, les agriculteurs peuvent ainsi gagner du temps, rationnaliser les coûts, prendre les meilleures décisions et/ou améliorer leurs techniques agricoles afin d’accroitre la performance économique de l’exploitation tout en y intégrant les problématiques environnementales et d’utilisations des ressources. Il n’est pas ici question de substituer les réflexions et habitudes des agriculteurs mais plutôt de le conseiller dans ses décisions : on parle ainsi d’ « outils d’aide à la décision ».

    A plus long terme, les modèles permettent, par exemples, d’étudier les effets du changement climatique (évolution des effets du gel ou des canicules sur le rendement d’ici la fin du siècle etc.) ou celles de la modification des pratiques culturales sur l’environnement (introduction des nouvelles variétés résistantes, stockage du carbone etc.). Ces finalités sont donc plus scientifiques et politiques.

    Figure 1 – Le modèle Vintel de ITK est un outil qui permet de piloter les décisions pour les vignobles.

    Il existe différents types de modèles de culture : les modèles issus du machine learning, les modèles empiriques et les modèles mécanistes sont les plus connus. Ces derniers sont (très largement) les plus répandus. C’est sur ce type de modèles que nous nous attarderons dans l’article. Les modèles mécanistes décrivent les différents mécanismes de croissance et de développement au niveau de la plante et du sol au sein de sous-modules ou sous-modèles échangeant des variables entre eux (par exemple, le sous-modèle de croissance des feuilles, le sous-modèle de la photosynthèse). Ils se distinguent des modèles empiriques ou issus du machine learning qui décrivent quant à eux l’évolution du système sans fournir d’explications sur le fonctionnement biologique ou physique.

    Nous allons voir que les données sont essentielles à la construction, l’évaluation et l’amélioration continue des simulations de ces modèles mécanistes de culture. Mais qu’il y a encore de nombreuses difficultés à surmonter qui sont inhérentes à la complexité du vivant.

    Cliquez pour agrandir

    Les données expérimentales : vers la construction des modèles de culture

    Les cultures sont des écosystèmes complexes, lieu de nombreux éléments en interaction (pédoclimat, composantes biologiques, interventions culturales). Il est difficile d’appréhender les conséquences de la variation de chaque élément. La modélisation représente un moyen d’intégrer à la fois les interactions entre l’environnement de la culture, les techniques agricoles (irrigation, fertilisation etc.) et le cycle de développement de chaque espèce.

    Figure 2 – Exemple des facteurs à prendre en compte dans la modélisation agricole. Il concerne le compartiment « sol », « plante » et « air ». Ces compartiments et sous-compartiments sont en interaction : ils échangent matières et énergies. Il est difficile d’appréhender l’évolution du système sans la modélisation (image du site internet du projet KILIMO).

    Les différentes définitions d’un modèle ont en commun l’idée de représentations simplifiées de la réalité utilisées pour répondre à une ou des question(s) sur le réel : « Un modèle peut se définir comme une représentation simplifiée et idéaliste de la réalité, construite sur la base d’un ensemble ordonné d’hypothèses relatives à un phénomène observable et mesurable, et ayant pour but de reproduire au mieux le comportement du système réel étudié, en fonction de la problématique posée et des objectifs des modélisateurs ». Selon la définition du National Research Council (1990), un modèle est une tentative systématique de traduire la compréhension conceptuelle d’un système réel (phénomène physique, biologique…) en des termes mathématiques.

    Cliquez pour agrandir

    Typiquement, les expérimentations scientifiques permettent d’obtenir des mesures afin d’obtenir des modèles mathématiques généralement simples, reliant généralement deux ou trois variables. Un modèle de simulation de culture résulte de l’intégration d’un ensemble de modèles mathématiques simples, qu’on appelle « formalismes » une fois intégrés dans le modèle, issus des expérimentations scientifiques menées depuis le début du XXème siècle. On retrouve par exemple la croissance des tiges dans différents environnements hydriques, la photosynthèse des feuilles pour plusieurs niveaux de températures, le nombre d’épis sur un plant de blé en fonction de la fertilisation etc.

    Figure 3 – Exemple d’expérimentation en chambre de culture (conditions thermiques contrôlées) pour produire des données expérimentales afin de renseigner de nouvelles fonctions aux modèles de cultures. Chaque jours feuilles, tiges et photosynthèse sont mesurées pour chaque pots.

    Vous l’avez compris, la construction d’un modèle de culture demande énormément de données issues de mesures expérimentales. L’acquisition de ces données est généralement très chronophage, coûteuse et peu organisée (peu d’uniformisation des formats, métadonnées inexistantes et confidentialité). En conséquence, les bases de données sont relativement peu nombreuses et peu fournies. De plus, chaque jeu de donnée est généralement spécifique à un environnement de croissance (sol * climat * variété * pratiques culturales) ce qui rend hasardeux l’extrapolation à d’autres environnement.

    Au fil du XXème siècle et de l’évolution de l’accessibilité des données scientifiques, l’accumulation de ces petits jeux de données permet d’effectuer des méta-analyses : c’est-à-dire le regroupement en un seul jeu de données des données d’expérimentation différentes mais dont les conditions de culture sont proches. Cela permet d’augmenter la puissance statistique ou de compléter la gamme de variation d’une variable.

    Cliquez pour agrandir

    Les données d’entrées : une nécessité pour lancer les simulations

    Ainsi construit, le modèle est exploité dans des simulations permettant de prévoir l’évolution de l’écosystème grâce aux données de sortie résultant des calculs. Mais avant cela, il faut renseigner les conditions depuis la récolte de l’année précédente jusqu’au jour actuel (en passant donc par le semis) : ce sont les données d’entrée. Plus ces données d’entrées seront de qualité et nombreuses, plus les données de sorties seront fiables. Cela nécessite donc un système de filtrages et de bornages avant de renseigner les données d’entrées au modèle.

    Pour récupérer les données d’entrée, le modèle est connecté en permanence à des bases de données géo-spatialisées multidisciplinaires : modèles de prévisions météorologiques, bases de données référençant les types de sol, données d’indices de végétation issues de satellites etc. Ces bases de données étant riches, c’est en amont du modèle que le brassage des données est le plus conséquent. Ces données sont elles-mêmes issues d’algorithmes nécessitant leurs propres données d’entrées ! Par exemple, les modèles météorologiques fournissent des données aval qui sont elles-mêmes les données d’entrée du modèle de culture. Mais ces modèles météorologiques nécessitent également des données d’entrées ! Mesure des stations météorologiques, radar de précipitation, mesure par satellites etc.

    Cliquez pour agrandir

    Lorsque le modèle de culture ne peut pas être connecté à des bases de données adéquates (dans certains pays du tiers monde par exemple), ces données amont peuvent être renseignées par défaut (par exemple, un sol argilo-limoneux moyen s’il n’y a pas de bases de données renseignant la nature du sol) ou ajustées par l’utilisateur après mesures adéquates en champs afin d’améliorer la fiabilité des données de sortie (par exemple, régler à la main la teneur du sol en argile, limon, sable et/ou cailloux après des mesures en laboratoire et/ou visuelles).

    Les données d’observations : vers des ajustements en cours de saison

    En cours de saison culturale (i.e. entre le semis et la récolte), il est possible d’enrichir le modèle avec des données d’observations afin de vérifier que ses simulations ne sont pas déviantes par rapport aux observations : ce sont les ajustements ou recalibrages en cours de saison. Ces données ne sont pas obligatoires pour générer les données de sortie. Cependant, grâce à ces données d’observations, la modification des paramètres du modèle permettra aux simulations de s’approcher au mieux des observations. Ainsi, les données de sorties auront une fiabilité accrue.

    Cliquez pour agrandir

    Ces données d’observations en cours de saison peuvent être d’origines très variées. Par exemple, l’état de la culture peut être analysées grâce aux données satellitaires (surface de feuillage, phénologie etc.) ou plus ponctuellement par observations manuelles de terrain (nombre de feuilles, phénologie, composition en azote des feuilles etc.).

    Figure 4 – L’observation de terrain est essentiel pour ajuster les modèles en cours de saison : phénologie, nombres de feuilles, compositions des feuilles etc.

    Ces ajustements en cours de saison sont permis par la nature des modèles de culture. Ils sont généralement mécanistes. Ils se distinguent des modèles empiriques qui décrivent quant à eux l’évolution du système sans fournir d’explications sur le fonctionnement biologique ou physique. Les données de sortie sont, par conséquent, moins nombreuses. Les capacités d’ajustement des modèles empiriques sont également plus limitées.

    Les données d’observations : vers des calibrations hors saison

    Les données d’observations permettent également d’évaluer la précision et la robustesse du modèle. La précision du modèle est sa capacité à simuler des sorties qui seront proches des observations : par exemple, l’erreur moyenne du modèle est de 0,7 feuille, c’est-à-dire qu’il y a un écart moyen absolu de 0,7 feuille entre les observations et les simulations (d’une même date) sur les milliers de simulations lancées. Sa robustesse est sa capacité à avoir une bonne précision dans de nombreux environnements physiques différents (sol, climat, génétique etc.). Par exemple, si l’écart moyen absolu observation-simulation est de 0.2 feuille en climat tempéré et 2.3 en climat tropical, le modèle n’est pas robuste. Il n’est pas valide en climat tropical.

    Grâce aux milliers de données récoltées à partir d’observations en cours de saison, il est possible d’évaluer le modèle en fin de saison, c’est-à-dire de calculer l’écart moyen entre les observations et les simulations pour chaque variable de sortie (nombre de feuilles, rendement, surface foliaire etc.). Cela revient donc à calculer sa précision. Si la précision d’une variable de sortie n’est pas satisfaisante, nous procédons à la calibration du modèle, c’est-à-dire que nous allons modifier les paramètres ou les équations du modèle pour que les simulations en sortie soient plus proches des observations.

    Cliquez pour agrandir

    Pour aller plus loin…

    Apparue dans le champ de l’agronomie il y a environ 40 ans avec les travaux de Wit (1978) sur la photosynthèse et la respiration, la modélisation y occupe aujourd’hui une place conséquente. Profitant ainsi des possibilités ouvertes par le développement de l’informatique, elle est devenue l’outil incontournable qui permet de connaître, et de comprendre les mécanismes impliqués dans la production des cultures et d’en inventer de nouvelles techniques.

    L’accès à la donnée devient de plus en plus facile (notamment avec des initiatives fédératrices comme API agro ou d’open-data). Ainsi, le nouvel enjeu n’est plus la donnée elle-même mais plutôt la capacité à y accéder, à l’interconnecter, à la traiter et surtout à la valoriser. Cependant, il y a encore énormément d’efforts à faire sur les données expérimentales, généralement récoltées manuellement et peu interopérables, mais qui sont essentielles à la construction des modèles. D’autres parts, ces données expérimentales, très coûteuses, font généralement varier un facteur à la fois (température ou humidité par exemple) sur des gammes restreintes de conditions de culture. Il y a encore de très grosses lacunes pour comprendre les interactions entre facteurs afin d’améliorer la modélisation en conditions extrêmes. Les données expérimentales restent un point noir concernant les données et les modèles agronomiques (voir première partie).

    De plus, même s’il existe des moyens de fixer des valeurs par défaut, ces modèles mécanistes restent très gourmands en données d’entrée. L’accessibilité des variables d’entrée et la compréhension du modèle par l’utilisateur n’est pas toujours facile. Un modèle trop complexe qui nécessite un temps d’apprentissage long a moins de chance d’être utilisé. La facilité d’appropriation du modèle par un utilisateur n’ayant pas participé à sa conception est essentielle : un acteur utilise d’autant mieux un modèle qu’il en maitrise son contenu.

    ​Serge Zaka est docteur en agrométéorologie, ingénieur chez ITK

  • Des sous pour les aider les enfants à coder

    La fondation Blaise Pascal se lance dans une nouvelle aventure : une collecte de fond grand public ! Ce projet1 vise à réunir des enfants et leurs familles autour de la pensée informatique. Le but principal est d’assurer une meilleure compréhension de cette discipline dès le plus jeune âge, et de rassurer les parents sur les débouchés de ce domaine bien trop méconnus.

    Vous en avez déjà peut-être entendu parler, ce projet consiste à développer les ateliers « Coding goûters », où coding s’entend en un sens très large.

    Un coding goûter consiste à rassembler des enfants avec des adultes de leur famille, parents, grande sœur, grand-père, autour du code et de l’informatique, tout cela encadré par un animateur.

    Par exemple, le code est expliqué avec des exemples concrets en utilisant le logiciel Scratch, des robots sont programmés, des jeux sur les crypto-monnaies sont organisés, des algorithmes sont incarnés dans des activités informatiques sans ordinateur. Ensuite, un moment autour d’un café et d’un gâteau est organisé pour débriefer l’activité que les enfants et les parents viennent de vivre.

    Le but, c’est de découvrir le code de manière ludique et pédagogique, dans une atmosphère bienveillante. Le fait de faire participer la famille permet d’informer et de rassurer celle-ci sur cette discipline qui connaît bien trop de préjugés. Inclure la famille dans l’atelier favorise donc les enfants intéressés à emprunter cette voie, mais aussi d’initier les parents au code, car il n’est jamais trop tard pour apprendre bien entendu.

    Ces ateliers sont destinés à des enfants de la primaire à la troisième vivant dans des zones rurales et des quartiers défavorisés des grandes métropoles, ainsi qu’à leur famille.

    Quelle somme est nécessaire pour ce projet ?

    Pour cette première collecte grand public, notre objectif est de réunir 6 000 €. En effet, chaque coding goûter coûte autour de 300 €. Rassembler 6 000 € nous permettrait donc d’organiser une vingtaine de coding goûters, et donc de sensibiliser 400 enfants et parents à la pensée informatique.

    Le but est de rassembler cette somme avant l’été, afin d’organiser des ateliers pendant les grandes vacances et à la rentrée prochaine. Cette somme nous permettra de sensibiliser plusieurs centaines d’enfants et de parents !

    Mais !! Pourquoi binaire fait (exceptionnellement) de la publicité  ?

    Parce que c’est vraiment un enjeu majeur pour nos enfants : maîtriser le numérique pour ne pas uniquement le consommer voir le subir mais en être une actrice ou un acteur. Parce que la démarche n’est pas du tout commerciale, il n’y a aucun bénéfice financier … juste des gens qui se mettent au service de la médiation scientifique.

    Et parce que … comme tous les projets de ce type … on économise un peu d’impôts et surtout on contribuer à quelque chose de bien utile.

    Comment en apprendre plus sur le projet et la collecte ?

    Sur notre page Hello Asso, vous trouverez les informations nécessaires pour nous aider, ainsi qu’une vidéo de Marie Duflot-Kremer, qui explique plus en détail le projet.
    =>  Pour en savoir plus : Coding goûter : l’informatique en s’amusant !

    Nous restons à votre disposition pour toute question.

    L’équipe opérationnelle de la fondation Blaise Pascal.

     

     

    1Pour tester ce nouveau mode de financement, la FBP a décidé d’orienter cette collecte vers un projet récemment lauréat d’un appel de la Banque des Territoires, et organisé par la fondation Blaise Pascal et un consortium de structures (Class’Code, Planète Sciences Aura, Exploradôme, La compagnie du Code, A.R.T.S.).

  • Modélisation des épidémies

    Un nouvel entretien autour de l’informatique. Samuel Alizon est directeur de recherche au CNRS. C’est un biologiste, spécialiste d’épidémiologie et d’évolution des maladies infectieuses. Il répond pour binaire aux questions de Serge Abiteboul et Claire Mathieu. Il nous parle des améliorations de nos connaissances en épidémiologie apportées par les travaux sur le Covid et du  difficile dialogue entre politiques et scientifiques.
    Samuel Alizon, biologiste, CNRS

    B : Pourrais-tu nous parler de ton parcours ?

    SA : J’ai toujours refusé de me spécialiser. Lors de mes études, j’ai travaillé en parallèle la biologie, que j’aimais bien, mais aussi les mathématiques et la physique, et je me suis retrouvé au CNRS. En France, les mathématiques sont une discipline très cloisonnée, et la biologie aussi. Mais, en fait, les maths sont utilisées en biologie depuis plus d’un siècle, avec par exemple la dynamique des populations. Mon activité de recherche se situe à cette interface entre biologie et mathématiques, sur les maladies infectieuses et la biologie de l’évolution.

    B : Tu n’as pas encore mentionné l’informatique ?

    SA : Par ma formation, je viens de la biologie mathématique avec papier et crayon. Ma thèse portait sur la caractérisation de ce qui se passe entre système immunitaire et parasites. Il n’y avait pas de données : c’était de la belle modélisation. Au début, j’utilisais surtout l’informatique pour des résolutions numériques, avec Mathematica par exemple.

    Puis j’ai été confronté à des données en écologie de l’évolution. Les implémentations informatiques sont essentielles dans ce domaine, qui s’intéresse aux populations et aux interactions entre individus plus qu’aux individus isolément. Pendant un deuxième postdoc, j’ai découvert les inférences d’arbres phylogénétiques à partir de séquences. Il s’agit de retracer l’histoire des populations à partir de données génomiques. C’est la révolution de l’ADN qui a permis cela. L’idée est que plus deux individus ou deux espèces ont divergé depuis longtemps, moins leur ADN se ressemble. Au final, on a aboutit à des objets qui ressemblent à des arbres généalogiques. Au début des années 80, ça se faisait à la main, mais aujourd’hui on fait des généalogies avec des dizaines de milliers de séquences ou plus.

    C’est un exemple parmi d’autres car aujourd’hui, l’informatique est devenue essentielle en biologie, en particulier, pour des simulations.

    B : Comment s’est passée ta vie de chercheur de biologiste au temps du Covid ?

    Quand l’épidémie est arrivée, on était en pleine recherche sur les papillomavirus. On s’est vite rendu compte des besoins en épidémiologie humaine en France. Début mars on reprenait les outils britanniques pour calculer, par exemple, le nombre de reproductions de base en France. Puis, comme les outils que nous utilisions au quotidien étaient assez bien adaptés pour décrire l’épidémie, nous avons conçu des modèles assez classiques à compartiments. Nous avons alors eu la surprise de voir qu’ils étaient repris, entre autres, par des groupes privés, qui conseillaient le gouvernement et les autorités régionales de santé. Du coup nous avons développé des approches plus ambitieuses, surtout au niveau statistique, pour analyser l’épidémie en France avec un certain impact .

    L’équipe a aussi passé un temps très conséquent à répondre aux journalistes, aux associations, ou au grand public, avant tout pour des raisons de santé publique. En effet, la diffusion des savoir est une des interventions dites “non pharmaceutiques” les plus efficaces pour limiter la croissance de l’épidémie. Donc, quand des collègues me demandaient ce qu’ils pouvaient faire, je leur répondais : expliquez ce qu’est une croissance exponentielle, un virus, une épidémie, et d’autres choses essentielles pour que chacun puisse comprendre ce qui nous arrive.

    Ce manque de culture scientifique et mathématique s’est malheureusement reflété à tous les niveaux en France. A priori, le pays avait toutes les cartes en main au moins dès le  3 mars 2020, quand le professeur Arnaud Fontanet explique la croissance exponentielle devant le président de la républiques, des ministres et des sommités médicales. La réaction attendra deux semaines plus tard et le rapport de l’équipe de Neil Ferguson à Imperial College. Au final, les approches aboutissaient à des résultats similaires mais celles des britanniques s’appuyaient aussi sur des simulations  à base d’ agents individuels, ce qui leur a probablement conféré plus d’impact. De plus, les britanniques avaient aussi mis en place depuis plusieurs années un processus de dialogue entre les épidémiologistes et le gouvernement.

    B : Pouvez-vous nous donner un exemple plus spécifique de tes travaux ?

    AS : Dans cette lignée des modèles agents, le plus impressionnant est sans doute EPIDEMAP. Cet outil qui repose massivement sur du calcul haute performance a été mis en place par Olivier Thomine, qui à l’époque était au CEA. Il utilise les données du projet OpenStreetMap.org qui propose des données géographiques en accès libre de manière très structurés. Pour la France, la base est très complète puisqu’elle contient le cadastre. Dans ce modèle, on répartit 66 millions d’agents dans des bâtiments. Chaque individu va chaque jour visiter deux bâtiments en plus du sien. On fait tourner cette simulation sur toute la durée d’une d’épidémie, soit environ un an. Grâce au talent d’Olivier, cela ne prend que 2 heures sur un bon ordinateur de bureau classique ! Pour donner une idée, les simulateurs existants ont une résolution moindre et ne peuvent gérer que quelques centaines de milliers d’agents. Ceci est entre autres permis par l’extrême parcimonie du modèle, qui parvient à décrire tout cela avec seulement 3 paramètres. Nous avons aidé Olivier à rajouter un modèle de transmission dans EPIDEMAP. Ceci a permis d’explorer des phénomènes épidémiques nationaux avec une résolution inégalée. Les extensions possibles sont très nombreuses comme par exemple identifier les villes les plus à risque ou élaborer des politiques de santé adaptées aux différences entre les territoires.

    B : Ces modèles sont-ils proches de ce qui se passe dans la réalité ?

    SA : Un modèle n’est jamais la réalité. Mais il est vrai que certains processus sont plus facilesfacile à capturer que d’autres. Par exemple, les modèles qui anticipent la dynamique hospitalière à court terme marchent assez bien : nos scénarios sont robustes pour des prédictions de l’ordre de cinq semaines sachant que dès que vous dépassez les deux semaines, la suite du scénario dépend de la politique du gouvernement. C’est pour cela que l’on préfère parler de “scénarios”. Évidemment, le domaine des possibles est immense et c’est pour cela qu’il y a une valeur ajoutée à avoir plusieurs équipes travaillant de concert et confrontant leurs modèles. En France, ce nombre est très réduit, ce qui renforce cette fausse idée que les modèles sont des prévisions. Au Royaume-Uni ou aux USA, bien plus d’équipes sont soutenues et les analyses rétrospectives sont aussi plus détaillées.. Par exemple, le Centers for Diseases Control aux USA permet de visualiser les vraies données avec les modèles passés pour les évaluer.

    B : Est-ce que tu te vois comme un modélisateur, un concepteur de modèles mathématiques ?

    SA : C’est une question. Je suis plutôt dans l’utilisation d’outils informatiques ou mathématiques existants que dans leur conception. Je fais des modèles, c’est vrai, mais l’originalité et la finalité est plus du côté de la biologie que des outils que je vais utiliser. Je me présente davantage comme biologiste.

    B : Qu’est-ce qu’un “bon” modèle d’un point de vue biologique ?

    SA : Ça dépend de l’objectif recherché. Certains modèles sont faits pour décrire. Car les données “brutes” ça n’existe pas : il y a toujours un modèle. D’autres modèles aident à comprendre les processus et notamment leurs interactions. Enfin, les plus médiatiques sont les modèles prévisionnels, qui tentent  d’anticiper ce qui peut se passer. Les modèles de compréhension et de prévision ont longtemps été associés mais de plus en plus avec le deep learning on peut prévoir sans comprendre.

    Notre équipe se concentre sur la partie compréhension en développant des modèles analytiques et souvent à compartiments. Pour cela, on peut s’appuyer sur des phénomènes reproductibles. Par exemple, on peut anticiper la croissance d’une colonie bactérienne dans une boîte de Pétri. Grâce aux lois de la physique, on sait aussi assez bien anticiper une propagation sur un réseau de contacts. Ce qui est plus délicat, c’est comment on articule tout cela avec la biologie. Le nombre d’hypothèses possibles est quasi infini. Ce qui guide l’approche explicative, c’est la parcimonie. Autrement dit, déterminer quels paramètres sont absolument nécessaires dans le modèle pour expliquer le phénomène en fonction des données qu’on possède ? Le but de la modélisation n’est pas de mimer la réalité mais de simplifier la réalité pour arriver à la comprendre.

    L’autre école en modélisation – pas la nôtre – consiste à mettre dans le modèle tous les détails connus, et avoir confiance en notre connaissance du système, pour ensuite utiliser la simulation pour extrapoler. Mais en biologie, il y a un tel niveau de bruit, de stochasticité, sur chacune des composantes que cela rend les approches super-détaillées délicates à utiliser. Les hypothèses possibles sont innombrables, et il n’y a pas vraiment de recette pour faire un “bon” modèle.

    Si on met quatre équipes de modélisation sur un même problème et avec les mêmes données, elles vont créer quatre modèles différents. Si les résultats sont cohérents, c’est positif, mais s’ils sont en désaccord, c’est encore plus intéressant. On ne peut pas tricher en modélisation. Il y a des hypothèses claires, et quand les résultats sont différents, ça nous apprend quelque-chose, quelles hypothèses étaient douteuses par exemple. Un modèle est faux parce qu’il simplifie la réalité et c’est ce qui nous fait progresser.

    B : Qu’est-ce que les modèles nous ont appris depuis le début de l’épidémie ?

    SA : En février 2020, l’équipe d’Imperial College, avec des modèles très descriptifs, faisait l’hypothèse d’une proportion de décès supérieure à 1% et ces décès survenaient en moyenne 18 jours après l’infection. Ça, c’est exact. Déjà à ce moment-là, on en savait énormément sur ce qui se passait avec des modèles très simples.

    L’équipe de Ferguson a aussi fait dans son rapport quelque chose qu’on fait rarement : en mars 2020 ils ont prolongé leur courbe jusqu’à fin 2021 pour illustrer la notion de “stop-and-go”. Dans leur simulation, entre mars 2020 et fin 2021, il y avait 6 à 7 pic épidémiques, et dans la réalité on n’en est pas très loin. On avait encore des modèles très frustes. Il est vrai qu’ils n’incluaient pas les variants. Pourtant, qualitativement leur scénario s’est révélé très juste. Autrement dit, si on avait un peu plus regardé ces modèles on aurait pu mieux se préparer au lieu de réagir au coup par coup.

    B : Cela pose la question de l’appropriation des résultats des scientifiques par les politiques.

    SA : Les rapports sont difficiles. Fin octobre 2020, à la veille du deuxième confinement, le président Macron a dit : “Quoi que nous fassions, il y aura 9 000 personnes en réanimation.” Quand on a entendu ça, on a été surpris. D’autant qu’il se basait a priori sur des scénarios de l’institut Pasteur. En réalité, comme toujours, il y avait plusieurs scénarios explorant des tendances si on ne faisait rien, si on diminuait les contacts de 10 %, de 20 %, etc. Mais c’était trop compliqué pour les politiques qui ont (seuls) choisi un des scénarios, celui où “on ne changeait rien”. Heureusement, dès qu’on prend des mesures, cela change les choses, et au final on a “seulement” atteint la limite des capacités nationales en réanimation (soit 5000 lits).

    Là où cette bévue est rageante, c’est qu’elle était évitable. En 2017 déjà, lors d’un séminaire à Santé Publique France, nous discutions de l’expérience des britanniques qui avaient conclu que la ou le porte-parole des scientifiques du projet devait absolument pouvoir parler directement à la personne qui décide ou, en tout cas, avec un minimum d’intermédiaires. Faute de quoi, à chaque étape les personnes qui ne connaissent rien au sujet omettent des informations critiques ou simplifient le tout à leur façon.

    Ce couac national met aussi en évidence un paradoxe. Lorsque dans le scénario le plus probable les choses se passent mal, une action est prise pour que ces anticipations ne se réalisent pas. Contrairement à  la météo, on peut agir pour influencer le résultat. C’est d’ailleurs un dilemme bien connu, en Santé Publique : si les mesures prises sont insuffisantes, de nombreuses morts risquent de se produire et on critiquera alors, à raison, le manque d’anticipation. Mais, à l’inverse, si on met en place tellement de mesures que toute catastrophe sanitaire est évitée, c’est l’excès de zèle et l’alarmisme qui seront pointées du doigt.

    Le début 2021 est un exemple tragique de ces liens difficiles entre modélisation et pouvoirs publics. Notre équipe, comme deux autres en France, détecte la croissance du variant alpha, dont on savait qu’il avait explosé en Angleterre. Le Conseil Scientifique alerte là-dessus début janvier. Le gouvernement refuse de confiner et reste sur les mesures de couvre-feu à 18h, plus télétravail, ce qui au passage concentre quasiment tous les défauts du confinement sans en avoir le bénéfice en termes de santé publique. Début janvier, cette position se défendait car impossible de savoir l’effet qu’aura une nouvelle mesure Mais fin janvier on avait du recul sur ce confinement à 18h et on voyait que ce ne serait pas suffisant pour empêcher l’explosion d’alpha. Le conseil a de nouveau alerté là-dessus fin janvier mais l’exécutif a persisté. Et en avril, à peu près à la date anticipée par les modèles, on a heurté le mur avec des services de réanimation au bord de la rupture.

    Impossible de savoir avec certitude ce qui se serait passé si le Conseil Scientifique avait été écouté. Les modèles mathématiques sont les plus adaptés pour répondre à cette question. Les nôtres suggèrent qu’avec un confinement de la même durée que celui d’avril mais mis en place dès février on aurait au minimum pu éviter de l’ordre de 14.000 décès. Après, il ne faudrait pas croire que la situation est plus rose ailleurs. Le Royaume-Uni a    à la fois les meilleurs modélisateurs et le meilleur système de surveillance de  l’épidémie au monde, et pourtant leur gouvernement a parfois pris des décisions aberrantes. À la décharge des gouvernants, comme nos scénarios explorent à la fois des hypothèses optimistes et pessimistes, il y a de quoi être perdu. Un des points à améliorer pour les modélisateurs est la pondération des scénarios. L’idéal serait même de mettre à jour leurs probabilités respectives au fur et à mesure que les informations se précisent.

    B : De quoi avez-vous besoin pour votre recherche ?

    SA : Les besoins en calcul sont de plus en plus importants. Mais on les trouve. Le temps disponible est une denrée bien plus rare. Enfin, il y a le souci de l’accès aux données. Avant la pandémie, notre équipe travaillait plutôt sur des virus animaux ou végétaux car les données sont plus facilement partagées. Dès qu’on touche à la santé humaine, les enjeux augmentent.

    B : Mais est-ce cela ne devrait pas encourager le partage des données ?

    SA : Aujourd’hui ce que les institutions de recherche mettent en avant c’est la concurrence qui encourage fortement le non-partage des données Nous avons initié des démarches auprès d’autorités publiques dès mars 2020 mais la plupart n’ont pas abouti. Évidemment il ne s’agit pas là de sous-estimer l’énorme travail de terrain qui a été fait et qui est fait pour générer et compiler ces données. Mais il est frustrant de voir que la majorité de ce travail n’est justement pas exploité au dixième de ce qu’il pourrait l’être. En tout cas, heureusement que des laboratoires privés et des Centre Hospitaliers Universitaires nous ont fait confiance. Coté recherche, cela a conduit à un certain nombre de publications scientifiques et coté santé publique nous avons fourni aux autorités les premières estimations de croissance des variants Delta ou Omicron en France. Mais on aurait pu faire tellement plus qu’on reste insatisfaits.

    Samuel Alizon, directeur de recherche CNRS

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • L’interopérabilité des systèmes de preuve

    Démocratiser l’utilisation des systèmes de preuve formelle dans l’éducation, la recherche et l’industrie est un objectif important pour améliorer la fiabilité et la sécurité des logiciels. Mais pourquoi est-il si difficile de réutiliser des preuves formelles d’un système à un autre ? Frédéric Blanqui, un spécialiste mondial des systèmes de preuve, chercheur à Inria et président d’EuroProofNet, nous donne des éléments de réponse. Serge Abiteboul.

    Il y a deux grandes approches en intelligence artificielle. La première est basée sur l’optimisation de réseaux neuronaux par apprentissage. Elle a de très importants succès dans la reconnaissance de forme ou le traitement automatique des langues. La seconde, basée sur la déduction logique, est aujourd’hui moins  connue du grand public mais a également beaucoup de succès notamment dans la certification d’applications critiques. De nombreux industriels utilisent l’approche déductive pour vérifier la correction de hardware, de protocoles cryptographiques ou de codes informatiques utilisés dans les cartes à puce, les systèmes embarqués (trains, avions), les compilateurs, la block-chain, etc.

    Dans l’approche déductive, on trouve des outils complètement automatiques très efficaces pour détecter les bugs les plus courants mais incapables de vérifier les propriétés les plus complexes. Pour celles-ci, on doit utiliser des outils d’aide à la preuve qui permettent à un développeur de logiciel de démontrer la correction d’un programme, comme un mathématicien de démontrer la correction d’un théorème. En effet, un programme informatique peut être vu comme un objet mathématique, si bien que vérifier la correction d’un programme revient à faire une démonstration mathématique.

    C’est ainsi que depuis une cinquantaine d’années, de nombreux systèmes de preuve, automatiques ou interactifs, ont été développés comme Coq, Isabelle, HOL, Lean, etc. Cette diversité est utile mais pose aussi de nombreux problèmes. Car il est généralement très difficile de réutiliser dans un système des développements faits dans un autre. Cela conduit les utilisateurs de chaque système à dupliquer de nombreux développements, et rend plus difficile l’émergence de nouveaux systèmes car le coût d’entrée est de plus en plus élevé au fur et à mesure que les développements sont plus nombreux. Cela constitue également un frein à l’adoption généralisée des systèmes de preuve dans l’enseignement, la recherche et l’industrie. La difficulté vient de ce que l’on ne peut pas faire dialoguer ces systèmes de preuve, les faire « interopérer ».

    EuroProofNet : des chercheurs européens s’organisent pour améliorer l’interopérabilité des systèmes de preuve

    Des chercheurs de plusieurs pays européens ont monté l’année dernière avec le soutien de l’association européenne COST un réseau de coopération à l’échelle européenne pour améliorer l’interopérabilité des systèmes de preuve. Plus de 230 chercheurs de 30 pays différents se sont déjà inscrits pour y participer.

    Ce problème d’interopérabilité entre systèmes de preuve est complexe pour la raison fondamentale suivante. Chaque système est basé sur un petit nombre d’axiomes et de règles de déduction. Or certains systèmes d’axiomes sont logiquement incompatibles entre eux. Par exemple, dans la géométrie que nous apprenons au collège, la géométrie dite « euclidienne » par référence au mathématicien de la Grèce antique qui l’avait formalisée, la somme des angles d’un triangle fait 180°. Or, au XIXe siècle, des mathématiciens ont imaginé des géométries où la somme des angles d’un triangle est différente de 180° (par exemple lorsqu’on dessine un triangle sur une boule ou dans un bol), avec des applications en cartographie ou en physique. Ainsi, une propriété vraie dans un système d’axiomes peut être fausse ou non prouvable dans une autre système.

    Pour pouvoir traduire une preuve d’un système à un autre, il faut donc pouvoir identifier quels axiomes et règles de déduction ont été utilisés dans celle-ci, et savoir comment ils peuvent être traduits dans le système cible. De nombreux chercheurs en Europe ont décidé d’unir leur force pour relever ce défi et améliorer ainsi l’interopérabilité des systèmes de preuve. Grâce au soutien de l’association COST, ils vont pouvoir organiser des formations, des échanges et des conférences. Ils envisagent en particulier de s’appuyer sur les travaux de l’équipe Deducteam de l’Institut National de Recherche en Informatique et Automatique (Inria) qui a développé un langage, Dedukti (déduction en Esperanto), qui permet de représenter les axiomes, règles de déductions et preuves de différents systèmes.

    Bien que l’utilisation de systèmes de preuve soit encouragée dans la certification logicielle, cela ne suffit pas. Encore faut-il que les systèmes de preuve soit eux-mêmes suffisamment fiables, et que les développements respectent un certain nombre de règles. C’est ainsi que, dans une collaboration avec Inria, l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) a émit un certain nombre de recommandations à ce propos. Le fait de pouvoir traduire les preuves d’un système à un autre permettra d’accroître considérablement le niveau de fiabilité des systèmes de preuve, et rendra moins critique au départ le choix d’un système de preuve par un professeur, un chercheur ou un industriel.

    Frédéric Blanqui, Chercheur Inria