Catégorie : Education

  • Papier-Mâché, la publication scientifique facile à digérer !

    Vous savez quoi ? La science est un bien commun … à la disposition de toutes et tous, et pas forcément « filtré » par des médias surtout quand il leur faut mettre en avant que le sensationnel pour garantir l’audience. Ah oui … mais comment lire directement des contenus souvent en anglais, pire encore : en « jargon ». C’est qu’une équipe de jeunes scientifiques nous propose de remonter à la source de l’information en nous mâchant le travail : découvrons leur initiative.

    Avec la flambée des fakenews, il est important de pouvoir remonter à la source de l’information. Dans le cas de contenus scientifiques, les sources les plus fiables correspondent aux publications scientifiques : elles sont le
    moyen par lequel les équipes scientifiques partagent leur travaux au reste de leur communauté de spécialistes. Ces publications sont difficiles d’accès car écrites en langage scientifique, la plupart en anglais et encore souvent d’accès payant … mais alors, comment se renseigner lorsqu’on ne fait pas partie de ces spécialistes ?
    Or, il suffit souvent d’une bonne remise dans le contexte et d’un bon schéma pour comprendre une recherche de pointe. C’est justement là que Papier-Mâché intervient !

    Site de vulgarisation de publications scientifiques né en février 2020, son objectif est de rendre les publications scientifiques accessibles et compréhensibles pour contribuer à une science partagée, ouverte et abordable pour les francophones.

    Et cela, dans toutes les disciplines : de l’histoire à l’informatique en passant par la biologie, les mathématiques et la littérature (et bien d’autres encore) !
    L’idée est simple : une publication scientifique → un papier mâché. Ceux-ci se déclinent en deux niveaux de lecture : un niveau « tout public » compréhensible sans pré-requis pour les curieuses et les curieux et disponible pour chaque publication scientifique. Il est accompagné le plus souvent d’une version plus technique pour des personnes déjà sensibilisées au sujet.

    Le concept de Papier Maché en un diagramme. ©papiermachesciences.org

    Pour que la vulgarisation de la publication soit la plus juste et la plus digeste possible, le contenu de nos articles est écrit et relu par des spécialistes du sujet. Cette première relecture par les pairs vérifie la rigueur scientifique, la fidélité à la publication, les données et la mise en contexte. Puis, une révision de style et de forme est réalisée par des scientifiques non spécialistes du sujet.

    En plus de fournir une source d’information, les papiers mâchés peuvent être utilisés comme support de cours pour illustrer la littérature scientifique, l’histoire des sciences, une démarche expérimentale particulière, la vulgarisation ou encore l’édition scientifique. Des pages annexes apportent quelques notions d’épistémologie et présentent la méthodologie scientifique et le système actuel de publications des recherches scientifiques.N’hésitez pas à venir lire nos papiers mâchés. Vous pouvez également nous contacter sur papiermache[at]zaclys[point]net pour toute question, et nous suivre sur notre compte Twitter @PapierMache_Sci.
    Si vous avez envie de contribuer, c’est par ici : https://papiermachesciences.org/contribuer/.
    Petite précision importante : il n’est pas possible de vulgariser ses propres travaux de recherche !

    Arthur, Audrey, Aurélien, Eléonore, Jérémy, Lucile et Pierre.

  • On va vous aider pour votre TIPE !

    TIPE ? C’est cette épreuve des concours des écoles d’ingénieur·e·s où les élèves ne sont pas uniquement jugé de manière « scolaire´´ mais sur leur capacité à choisir un sujet, mener un projet, s’organiser … du vrai travail d’ingénieur·e quoi ! Oui … mais comment les aider pour que ce soit équitable ? C’est là que Pixees et Interstices, s’associent pour proposer des ressources et des pistes. En miroir de leur contenu, reprenons cela ici. Thierry Viéville et Pascal Guitton
    © Inria / Photo C. Morel

    TIPE ? Comme tous les ans, en lien avec sillages.info et l’UPS pour les CGPE, Interstices et Pixees vous proposent des ressources autour des sciences du numérique, de l’information et des mathématiques.

    Le thème pour l’année 2021-2022 du TIPE commun aux filières BCPST, MP, PC, PSI, PT, TB, TPC et TSI est intitulé : santé-prévention.

    Introduction
    La reconnaissance vidéo d’activités pour le suivi personnalisé de patients atteints de troubles cognitifs
    Nouvelles approches d’optimisation pour définir les tests groupés – ou « group testing »
    Épidémiologie numérique : améliorer l’efficacité des soins et prévenir
    De la dengue à la lutte antivectorielle biologique


    Comme probablement tous les secteurs de l’activité humaine, le numérique est en train de s’ancrer profondément en santé. Cette tendance a débuté il y a longtemps avec les premiers logiciels liés à l’imagerie médicale et la généralisation des outils numériques de gestion médico-administrative, comme les dossiers patients informatisés ou l’informatisation des données de remboursement de soins. Avec cette évolution, les données de santé sont devenues de plus en plus accessibles aux chercheurs et aux chercheuses dans des volumes importants, ce qui permet principalement d’envisager aujourd’hui la mise en place de systèmes capables d’assister les médecins lors des étapes de la décision médicale personnalisée : diagnostic, prédiction de l’évolution de la maladie ou choix de la meilleure thérapie.
    Le domaine de la prévention des maladies est lui aussi impacté par cette évolution. Au niveau médical par exemple, l’émergence de données « de vie réelle » capturées hors des salles de soin proprement dites (caméras, smartphones, capteurs) promet un suivi automatisé et personnalisé de l’évolution de la pathologie des patients. Au niveau de la population, de nouveaux outils numériques permettent d’analyser les données des bases médico-administratives pour des objectifs issus de l’épidémiologie, c’est-à-dire l’étude de la fréquence, la distribution et les facteurs associés aux problèmes de santé de la population et la surveillance de leur évolution. Bien entendu, les crises actuelles liées aux maladies infectieuses fournissent elles aussi le cadre d’une implication accrue du numérique, par exemple pour optimiser les politiques d’intervention, concernant les stratégies de confinement, de test, de vaccination, ou de gestion des populations de vecteur animaux. Les exemples ci-dessous illustrent quelques-unes des nombreuses applications du numérique dans le domaine de la santé et de la prévention.
     
    Hugues Berry, Adjoint au directeur scientifique d’Inria pour la biologie et la santé numérique

    << Revenir en haut de page

    La reconnaissance vidéo d’activités pour le suivi personnalisé de patients atteints de troubles cognitifs
    Les progrès récents de la vision artificielle permettent aujourd’hui  d’observer et d’analyser nos comportements. On pense immédiatement à Big Brother, mais bien d’autres applications, tout à fait louables, sont envisagées. En particulier  dans un domaine qui manque cruellement de réponses : le diagnostic, le  suivi de patients présentant des déficits cognitifs liés au vieillissement et à l’apparition de maladies neurodégénératives comme la maladie d’Alzheimer, et le maintien à domicile de ces personnes âgées. 
        
    Les recherches de l’équipe Stars visent notamment à quantifier le déclin cognitif des patients Alzheimer. Il est important de détecter le plus tôt possible les premiers signes annonciateurs de difficultés à venir. Nous testons par  exemple au CHU de Nice un dispositif visant à évaluer la situation d’un patient en lui proposant de passer cinq minutes dans une pièce équipée de capteurs vidéo, où il doit effectuer une liste de tâches comme préparer une boisson, téléphoner, lire, arroser des plantes… Nos logiciels permettent ainsi d’obtenir automatiquement une évaluation normalisée des éventuels déficits cognitifs de chaque patient et ainsi de leur proposer un traitement adapté. 
        
    Pour aller plus loin :
    François Bremond, Inria, équipe STARS

    << Revenir en haut de page

    Nouvelles approches d’optimisation pour définir les tests groupés – ou « group testing »
    Afin de dépister une population, on peut soit tester l’ensemble des individus un par un, ce qui implique un nombre important de tests, ou bien tester des groupes d’individus. Dans ce cas, toutes les personnes subissent un prélèvement, et l’on réalise un seul test dans le groupe : s’il s’avère négatif, cela signifie que tout le groupe est négatif ; s’il est positif, on procède alors à des tests individuels complémentaires. Cette approche permet ainsi de réduire nettement le nombre d’analyses à réaliser, tout en restant fiable.
    D’autres approches basées sur le même principe mais plus complexes peuvent être considérées.
    Les chercheurs de l’équipe projet  Inocs (Integrated Optimization with Complex Structure)  du centre Inria Lille-Nord Europe ont apporté une réponse à la question suivante dans le cadre de la Covid 19: Comment former ces groupes – et selon quels critères – afin de garantir l’efficacité de la procédure ? 
    Plus précisément des modèles d’optimisation basés sur la théorie des graphes ont été définis. Des méthodes de résolutions exactes ont été développées afin de déterminer la taille optimale des groupes ainsi que leurs constitution de façon à atteindre différents objectifs en tenant compte de contraintes spécifiques des tests. Les objectifs  peuvent être  la minimisation du nombre de tests, la minimisation du nombre de faux négatifs,  la minimisation du nombre de faux positifs ou une combinaison de ces critères.
    L’efficacité des méthodes de résolutions est prouvée par des tests sur des données publiques ou des données issues du CHU de Lille. 
    Pour aller plus loin :
    Luce Brotcorne, Inria, équipe INOCS

    << Revenir en haut de page

    Épidémiologie numérique : améliorer l’efficacité des soins et prévenir les risques grâce aux données

    L’épidémiomogie est révolutionnée par l’utilisation des outils numériques [1,2]. L’épidémiologie s’intéresse à faire des corrélations entre des facteurs (génétiques, démographiques, traitements) et la survenue d’événements médicaux. Des questions usuelles sont par exemple: un traitement est-il réellement efficace ou non ? dans quelles circonstances un traitement à des effets indésirables ? 
    L’utilisation de méthodes d’analyse statistique, d’analyse de données ou d’intelligence artificielle appliquées à de grandes bases de données médicales offre de nouvelles perspectives à l’épidémiologie : elles permettent de répondre rapidement aux questions de santé publique, et elles permettent d’identifier des corrélations à propos des situations rares grâce à leur capaci à traiter de très grands volumes de données.
    Mais quelles bases de données peuvent être utilisées ? Ce peut être des bases constituées spécifiquement pour répondre à une question mais les épidémiologistes disposent également de base de données collectées auprès des patients dans les hôpitaux [3] ou par l’asurrance maladie [4]. Ces dernières permettent de reconstruire nos parcours de soins.
    Dans un cadre réglementaire strict, ces données peuvent servir à répondre à certaines questions épidémiologiques.  L’épidéliologiste devient alors un analyste : face à ces bases de données, il doit les faire « parler » et mobiliser pour cela toute une
    panoplie d’outils numériques qui vont l’aider à sélectionner des cohortes de patients, détecter des facteurs/événements médicaux
    d’intérêt, identifier les corrélations et les relier à des connaissances médicales. Et pour faire face à la complexité et à la volumétrie des données, il utilise les techniques numériques les plus avancées en analyse de données et intelligence artificielle.
    Pour aller plus loin :
    [1] Symposium du Collège de France « Le futur de l’épidémiologie à l’ère des « big data » »
    [2] Dossier Inserm « Comment le Big data révolutionne la recherche en santé »
    Thomas Guyet, Institut Agro, équipe LACODAM

    << Revenir en haut de page

    De la dengue à la lutte antivectorielle biologique
    Le virus de la dengue, mais aussi ceux du chikungunya, de la fièvre zika, de la fièvre jaune, sont transmis aux humains par plusieurs espèces de moustiques du genre Aedes. La fièvre jaune est la plus grave de ces maladies. Elle touche 200.000 personnes par an dans le monde entier, dont 30.000 décèdent. Aucun remède n’est connu, mais un vaccin préventif existe, sûr et efficace (obligatoire par exemple pour voyager en Guyane…).
    Pour les autres maladies, il n’existe actuellement aucun vaccin satisfaisant, et aucun remède. La plus répandue est la dengue, avec près de 400 millions de cas annuels, dont 500.000 prennent une forme hémorragique grave, mortelle dans 2,5% des cas. Ainsi, la mortalité de la dengue est bien inférieure à celle de la fièvre jaune, mais l’ordre de grandeur des décès qu’elles provoquent est le même.
    Près de 4 milliards de personnes vivent dans des zones où elles risquent d’attraper la dengue. Initialement présente dans les régions tropicales et subtropicales du monde, cette maladie s’étend aux zones tempérées des deux hémisphères, en suivant la lente invasion de ces régions (probablement favorisée par le réchauffement climatique) par l’espèce Aedes albopictus — le fameux moustique tigre, plus résistant au froid que le vecteur « historique » qui peuple les régions tropicales, Aedes ægypti. Non détecté en France métropolitaine avant 2004, le moustique tigre est maintenant considéré comme installé dans 64 de ses départements.
    La dengue a touché l’Europe dans le prolongement de cet essor, apportée de zones endémiques par des voyageurs infectés, puis transmise lors d’une piqûre à des moustiques locaux. En 2020, 834 cas de dengue importés ont été confirmés en France métropolitaine, mais aussi 13 cas autochtones.
    En l’absence de vaccin, la prévention individuelle contre ces maladies consiste essentiellement en des mesures de protection contre les piqûres. La prévention collective repose sur divers moyens de lutte antivectorielle. Il s’agit en premier lieu de mesures d’éducation sanitaire et de mobilisation sociale destinées à réduire les gîtes de ponte. Par ailleurs, l’usage d’insecticides tend actuellement à diminuer: non seulement l’absence de spécificité de ces produits les rend dangereux à d’autres espèces, mais ils induisent un phénomène de résistance qui réduit leur efficacité.
    Des méthodes de lutte biologique, plus spécifiques, sont maintenant étudiées. La plus ancienne est la technique de l’insecte stérile, consistant à lâcher dans la nature de grandes quantités de moustiques mâles élevés en laboratoire, et stérilisés par irradiation dans des installations spécialisées : leur accouplement avec les femelles en liberté a pour effet de réduire la taille de la population sauvage, et de diminuer ainsi la propagation des virus. Une autre méthode, plus récemment conçue, consiste à inoculer ces moustiques avec une bactérie appelée Wolbachia, naturellement présente chez la plupart des arthropodes. Cette bactérie a la propriété remarquable de réduire leur capacité de transmettre la dengue, le zika et le chikungunya à ceux qu’ils piquent. Elle passe de la mère à la progéniture, et c’est en lâchant des moustiques intentionnellement infectés en laboratoire par Wolbachia que l’on compte réaliser sa mise en œuvre. Des essais correspondants commencent à avoir lieu en plusieurs points du globe, y compris en Nouvelle-Calédonie. Les mathématiques appliquées participent à l’analyse qualitative et quantitative de la faisabilité de ces méthodes de lutte contre des infections graves émergeant en Europe.
     
    Pour en savoir plus:
    • Sur la dengue et les stratégies de lutte
    • A propos des vecteurs et de leur implantation
    • Sur le principe des méthodes de lutte biologique utilisant les insectes stériles ou la bactérie Wolbachia
    • Sur les enjeux de la recherche
     
    Quelques articles mathématiques sur le sujet
    • Insecte stérile
    • Wolbachia
    Pierre-Alexandre Bliman, Inria, équipe Mamba
  • Dites les filles : c’est quoi l’informatique au lycée ?

    Cet entretien avec deux lycéennes de Haute-Savoie réalisé par David Roche, nous donne une vision sur ce nouvel enseignement de spécialité des fondements du numérique et des sciences informatiques au lycée en première et en terminale : il est tellement important que notre jeunesse, les deux moitiés de notre jeunesse, maîtrisent le numérique au delà de l’utiliser. Laissons leur la parole, grâce à la revue 1024 de la Société Informatique de France, d’où ce contenu est repris. Thierry Viéville.

    Cet article est repris de le revue 1024 de la Société Informatique de France.

    Alors que les statistiques nationales indiquent que les filles sont peu nombreuses à choisir la spécialité « Numérique et sciences informatiques », elles représentent 40 % de l’effectif de la classe de terminale de David Roche au lycée Guillaume Fichet à Bonneville en Haute-Savoie. 1024 a donc demandé à David de recueillir les témoignages de quelques unes de ses élèves pour tenter une explication. Mélisse Clivez et Émeline Chollet ont accepté de jouer le jeu.

    Pour en savoir plus sur cet enseignement on pourra, par exemple, consulter cet article de l’etudiant.fr.

    Un classe NSI © letudiant.fr.

    Si vous suivez ce qu’il s’est passé depuis 2012 au lycée, mise en place de la spécialité « informatique et sciences du numérique » puis récemment de « numérique et sciences informatiques » (NSI), vous avez sûrement déjà croisé la route de David Roche. Initialement professeur de physique, reconverti en professeur d’informatique, il a produit pour ses enseignements d’informatique de nombreux supports de qualité qu’il met à la disposition de la communauté sous forme de ressources éducatives libres sur https://pixees.fr/informatiquelycee.

    Ces ressources accompagnent toujours bon nombre d’enseignants et leur ont parfois évité quelques nuits blanches. N’oubliez pas de le citer si vous utilisez sa production (sous licence Creative Commons).

    David Roche, D. R. : « Pourquoi avez-vous choisi NSI en première ? »

    Mélisse Clivaz, M. C. : À ce stade de ma scolarité et de mon parcours avenir, je n’étais pas encore décidée entre mes deux choix d’orientation qui étaient le social et l’informatique. Mes trois choix de spécialité se sont donc porté sur SES (pour le social), NSI (pour l’informatique) et AMC puisque l’anglais est, pour moi, toujours utile.

    Émeline Chollet, É. C. : J’ai choisi NSI en première car j’avais pris informatique aussi en seconde. Pour le choix de mes spécialités, j’ai pris maths, physique-chimie, et après j’avais le choix entre SVT et informatique. Puis, au fur et à mesure de l’année j’ai préféré l’informatique aux sciences de la vie et de la terre.

    D. R. : « Pourquoi avez-vous choisi de continuer NSI en terminale ? »

    – M. C. : Mon choix de spécialité fait en classe de première fut, en réalité, un choix stratégique. Il avait pour objectif de me laisser le plus de liberté possible pour mon orientation future. Le choix de terminale fut en totale cohérence avec mon parcours avenir qui s’est affiné au fil du temps. La spécialité NSI est un moyen de garder un lien avec les mathématiques même si vous ne vous considérez pas comme quelqu’un de « matheux ». De plus, les cours de NSI sont totalement différents des cours magistraux dans la plupart des autres matières ; ce sont des cours qui mélangent théorie et pratique. Ceci permet de se rendre compte en temps réel de l’utilité de ce qu’on apprend.

    – É. C. : En terminale, nous devons enlever une de nos trois spécialités. Je devais garder obligatoirement maths, mais ensuite, j’avais le choix entre physique et informatique. D’un côté, je voulais garder une plus grande diversité en termes de connaissances, pour éviter de me fermer des portes dès la classe de terminale et avoir moins de difficultés ensuite dans le supérieur si je choisis une classe préparatoire. D’un autre coté, j’avais de très bonnes notes en informatique ce qui n’était pas le cas en physique et j’aimais cette matière. Alors, je me suis décidée à garder NSI aussi en terminale et j’ai bien fait. En NSI, les cours sont totalement différents d’un autre cours, ce ne sont pas des cours magistraux, et notre professeur a fait un site dans lequel il y a tout le cours bien organisé et bien expliqué ; ce qui nous permet d’avan- cer à notre rythme. Quand tout le monde a fini un point du cours, il nous fait un résumé au tableau. Une fois par mois environ, nous faisons des projets où l’on doit programmer quelque chose ; ces projets sont très enrichissants et nous entraînent à programmer. J’apprécie cette manière de travailler car on a pas mal d’autonomie et on est assez libre, tout en avançant sur le programme rapidement.

    – D. R. : « Est-ce que NSI a un rapport avec votre orientation ? »

    – M. C. : Comme dit précédemment, mon parcours avenir s’est créé au fil du temps ; notamment grâce au cours d’informatique mais également grâce à des stages en en- treprise. Je souhaite travailler dans le domaine du Web Design, et mes deux années d’informatique constitueront un point positif sur mon CV lorsque je candidaterai à des écoles formant à ces métiers (ces écoles accordant une valeur importante à la connaissance technique lorsqu’elle vient en plus des aspects créatifs).Il est certain que le domaine de l’informatique est très peu fréquenté par les filles car le stéréotype des filles littéraires et des garçons scientifiques persiste. De plus, l’image que l’on a d’un cours d’informatique et des personnes qui le suivent est celle de garçons scotchés devant leur ordinateur depuis la naissance alors, qu’en réalité, n’importe qui ayant un minimum de curiosité pour la technologie et l’informatique peut suivre ce cours, le comprendre et y prendre goût.

    – É. C. : L’année prochaine, je veux suivre un cursus master en ingénierie en informa- tique à Chambéry. Je pense que mes trois années d’informatique au lycée m’aideront bien. Par ailleurs, cette année, j’ai aussi pris maths expertes dans le but d’avoir un bon niveau en maths.

    – D. R. : « Une fille pour une classe de garçons ? »

    – É. C. : Je n’ai pas peur d’être dans une classe de garçons. D’un côté, je préfère être dans une classe formée que de garçons plutôt que dans une classe composée uniquement de filles. Et puis, leur compagnie ne me dérange pas. Souvent, ils savent plus de choses que moi alors ils m’apprennent des choses et inversement.

  • Enseignement de l’informatique et informatique dans l’enseignement, 50 ans déjà !

    Monique Grandbastien a consacré une grande part de son temps à enseigner l’informatique pour former des informaticiens, mais aussi à favoriser le développement de l’informatique dans le second degré en formant des professeurs, en animant diverses structures nationales et académiques et en développant des recherches sur la conception d’environnements numériques destinés aux professeurs et aux élèves. Elle évoque donc quelques souvenirs qui jalonnent cette longue aventure souvent commune avec l’EPI. Pascal Guitton et Thierry Viéville.

    Dans ce bel article de la revue de la revue de l’Association Enseignement Public & Informatique qui fête ces 50 ans cette année, elle y évoque quelques souvenirs qui jalonnent cette longue aventure émaillée de nombreux « stop and go », pour reprendre une expression actuelle, pour nous aider  à se demander quelles leçons on peut retenir de ces 50 années pour accompagner élèves et professeurs dans le monde de demain.

    On vous en recommande la lecture parce qu’il propose une vision dans la durée des nombreuses expériences vécues par Monique, et que loin d’être auto-centrée, elle nous fait découvrir le travail et l’engagement de tou·te·s ces collègues pour que nos enfants maîtrisent le numérique au lieu de simplement le subir ou le consommer.

    Lire l’article

  • Fêtons numériquement la science

    En raison de la situation sanitaire, Inria a fait vivre aux  petit·e·s et grand·e·s une Fête de la Science 100% … dématérialisée début octobre 2020. Comment s’est déroulée cette suite d’échanges en ligne ? Même si beaucoup d’entre nous sont devenu.e.s utilisateurs de solutions largement répandues comme Zoom, Teams, GoToMeeting… comment les met-on en œuvre ? Comment respectent-elles la souveraineté ou la maîtrise de nos données ? Comment minimiser leur impact environnemental ? Benjamin Ninassi, qui était aux manettes de cet événement, nous raconte les coulisses et apporte des éléments de réponse à ces questions importantes. Pascal Guitton & Thierry Viéville.

    Au fait, qu’est ce que la fête de la science ?

    Tous les ans, les établissements de recherche français ouvrent leurs portes au grand public (ou vont à la rencontre du public) pendant quelques jours pour échanger sur leurs travaux sous forme de partages scientifiques ou d’activités ludiques. Cette année, le contexte sanitaire a rendu difficile voire impossible la tenue de ces événements dans les laboratoires et les universités. Ce fut alors l’opportunité de proposer pour la première fois au sein d’Inria une coordination nationale de l’événement, transverse à l’ensemble des huits centres de recherche, en offrant un contenu 100% dématérialisé et néanmoins 100% en direct live !

    En effet, l’un des aspects très apprécié par le public de la fête de la science est la possibilité de dialoguer, de questionner en direct les scientifiques. Nous souhaitions conserver cette richesse malgré la distance imposée par l’utilisation d’outils numériques. Pas juste pré-enregistrer des vidéos, donc, mais bien produire en direct du contenu de qualité, permettant des interactions avec le public. Nous nous sommes alors penchés sur la question … car il y avait plusieurs défis techniques à relever !

    Concrètement, en quoi consistait ces défis ?

    Pour produire ces événements en direct, nous avions trois besoins essentiels :

    – Permettre aux intervenant·e·s, et aux animateur·e·s, réparti·e·s sur tout le territoire, d’échanger comme s’illes étaient dans une seule et même pièce.

    – Réaliser le montage vidéo en direct de l’intervention, à l‘image d’une régie de télévision.

    – Offrir la possibilité au grand public d’échanger avec les scientifiques, en toute simplicité et en respectant la conformité avec les règles de protection de notre vie privée inscrites dans le RGPD.

    Pour y répondre, nous avons pu nous appuyer sur les outils que nous avions mis en place pour nous adapter au contexte sanitaire depuis le mois de mars, dans la continuité de l’action du projet “Parlons Math”.

    Vous avez donc réuni les intervenants dans une pièce virtuelle ?

    Oui, pour relever ce défi, nous avons effectivement mis en place un “salon virtuel” : un outil de visioconférence permettant ainsi aux différentes intervenant.e.s d’interagir entre eux comme si elles étaient sur un plateau de télévision. Nous souhaitions également privilégier une solution open source et hébergée sur des serveurs français, dans une logique de souveraineté et de sobriété.

    Nous avons eu la chance de pouvoir bénéficier de l’étude comparative de différentes solutions, réalisée quelques semaines avant par l’association Animath qui nous a été d’une grande aide  par ses retours d’expériences très riches. C’est donc vers le logiciel open source  BigBlueButton, initialement développé par des universitaires canadiens pour la formation à distance, que nous nous sommes tournés. Il offre à la fois les meilleures performances, une simplicité d’installation et d’administration, et un plus grand panel de fonctionnalités que ses concurrents actuels.

    Le logiciel lui-même est une chose, mais nous voulions également une solution d’hébergement qui soit fiable, robuste, adaptable à l’évolution de nos besoins et localisée en France. Ce dernier point est non seulement important une logique de souveraineté, mais également de privacy by design, c’est-à-dire de veiller dès la conception d’une plateforme au respect de la vie privée des utilisateurs par exemple  en conservant leurs données sur le territoire national.

    Il est hélas communément admis que le numérique est “juste” virtuel, mais la réalité est tout autre : le numérique repose sur des infrastructures physiques et toute action réalisée dans un logiciel a directement un impact matériel. Ces infrastructures possèdent  naturellement des limites qui, une fois dépassées, rendent les logiciels inutilisables. Dans le cas de la visioconférence, la principale ressource limitante est le temps de calcul disponible sur les processeurs du serveur . Une fois la saturation atteinte, l’utilisation est dégradée pour tous les utilisateurs de la plateforme (déconnexion, perte de stabilité, vidéo figée et/ou pixelisée ou son haché).

    Notre besoin étant lié à de l’événementiel, il est très fluctuant : il était essentiel que nous puissions redimensionner notre infrastructure rapidement et en toute autonomie. Nous avons donc sélectionné un hébergeur professionnel (Scaleway) avec des serveurs localisés en France, capable de nous fournir la fiabilité, la sécurité, ainsi qu’une très grande souplesse et autonomie dans notre utilisation, le tout à des prix très compétitifs.

    Après avoir affiné les procédures d’installation et d’intégration au contexte de l’hébergeur, il est devenu assez simple de déployer en quelques minutes notre propre serveur de visioconférence. Une première étape de franchie, notre salon virtuel dédié était opérationnel !

    Une seconde difficulté est très vite apparue : les micros intégrés des équipements informatiques sont de qualités très inégales, de même que les connexions internet des différents intervenants. Il a ainsi fallu faire un certain nombre de tests techniques préparatoires individuels avec chacun d’entre eux, afin de déterminer les conditions idéales de connexion. Nous avons également eu recours, quand c’était nécessaire, à des hauts parleurs de conférence permettant de capter un son de bonne qualité tout en limitant l’écho. Ce type de matériel est largement démocratisé aujourd’hui, et en y ajoutant une bonne webcam il est possible d’équiper un espace dédié aux visioconférences avec une prise de son et d’image de bonne qualité pour un peu plus d’une centaine d’euros .

    Le salon virtuel bigbluebutton juste avant le direct d’Hélène Barucq 

    Un peu comme à la  télévision ?

    Oui, il ne fallait donc pas juste diffuser un salon de visioconférence ; l’objectif était de produire un contenu qui soit agréable à regarder et à écouter. Il nous semblait important de travailler sur les médias de diffusion autant que sur le contenu des échanges. Pour autant, il était impensable d’imaginer réunir les personnes en charge du montage et de la diffusion sur un plateau : nous avons donc également virtualisé la régie.

    Là encore nous avons privilégié la piste d’une solution open source (OBS Studio) disponible sur tous les systèmes d’exploitation. Ce logiciel offre, de manière intuitive, un grand nombre de fonctionnalités de montage vidéo. Il permet par exemple d’assembler sur une même scène une image de fond, sur laquelle on vient superposer les flux vidéos et audios des caméras des différents protagonistes. L’utilisateur peut également préparer plusieurs scènes à l’avance : la mire de début d’une émission, le lancement du jingle, une scène d’introduction avec les caméras des protagonistes affichées sur un infodécor, une autre scène présentant une caméra mobile ou des planches d’une présentation, une illustration ou une démonstration logicielle, etc.

    Grâce à cet outil, nous avons ainsi pu créer un contenu dynamique, c’est-à-dire avec des plans de vue qui évoluent en fonction du déroulé, des changements de lieux, etc. Par exemple lors des deux interventions sur la robotique, nous alternons des scènes très diverses comme l’affichage ponctuel de la caméra mobile utilisée dans la vidéo de Serena Ivaldi sur les cobots, ces robots qui interagissent avec nous au quotidien, pour nous faire visiter la hall de robotique dans laquelle elle travaille, ou bien comme les déplacements réels du robot de la démonstration dans la vidéo de Jean-Pierre Merlet, sur les robots parallèles à câbles, juxtaposés à sa trajectoire théorique.

    L’une des 3 “régies” en pleine diffusion

    Serena Ivaldi nous fait visiter la halle de robotique du centre Inria – Nancy Grand Est à l’aide d’une simple caméra USB

    Le logiciel intègre toutes les fonctionnalités permettant la diffusion en direct du flux vidéo ainsi généré, sur différentes plateformes de diffusions comme Youtube ou Twitch. Nous avons aussi prévu un diffuseur de secours, avec OBS Studio et les scènes préparées sur son poste de travail, prêt à prendre la relève en cas de soucis de connexion ou de matériel avec le  diffuseur initial.

    Mais nous pouvons aussi nous passer de plateforme propriétaires  comme Youtube ou Twitch.  À cette fin, nous avions déployé un second serveur dédié à la réception et à la diffusion du flux vidéo qui offre une alternative. Diffuser les vidéos sur la chaîne Youtube InriaChannel, n’est donc pas une contrainte technique, mais un choix éditorial.

    Et comment le public pouvait-il participer ?

    Pour reproduire toute la saveur du présentiel, le public était en mesure de poser des questions aux scientifiques de manière simple, sans nécessiter une connexion à un média quelconque. Être le plus inclusif possible faisait partie de nos priorités. Nous avons donc mis au point une page web adaptative, accessible à la fois sur un ordinateur,  une tablette ou un smartphone, agrégeant le flux vidéo et un canal de discussion léger et ouvert à tou·te·s. Ainsi, tout spectateur pouvait interagir simplement en un clic. Un modérateur animait les discussions textuelles, et relayait oralement les questions aux intervenants, afin que l’enregistrement du direct contienne bien les questions et les réponses pour un visionnage ultérieur.

    Nous avons également expérimenté l’usage d’un outil libre de quizz externe, mis à disposition par Framasoft qui rassemble les acteurs du libre en France, afin d’augmenter l’implication du public.

    La page web dédiée au direct d’Antoine Rousseau, “Immersion au cœur d’un Tsunami”, où le public pouvait interagir pendant l’intervention, sur la simulation et la visualisation de tsunamis à partir de modèles géophysiques

    Finalement, quelles étaient les ressources humaines impliquées ?

    Sur les aspects techniques, une fois les plateformes logicielles en place, nous nous sommes relayés à trois pour assurer l’ensemble des tests techniques et des quatorze diffusions. Les animateur·e·s, modérateur·e·s et intervenant·e·s étaient propres à chaque intervention avec une coordinatrice nationale et un relais local.

    Le coût matériel de l’ensemble de l’opération est également très léger, à peine quelques centaines d’euros en incluant la location des serveurs. Toutes les technologies open source mises en œuvre sont bien documentées et largement accessibles à qui voudrait se lancer dans l’aventure de la dématérialisation d’événements, de conférences, de formation. …

    A vous de jouer !

    Benjamin Ninassi (ingénieur de recherche au sein de la direction générale déléguée à la science d’Inria)

    Vous pouvez retrouver l’ensemble des vidéos produites sur la playlist dédiée sur la chaîne youtube InriaChannel.

     

  • Éducation & numérique : la formation

    ToutEduc a rendu compte des propositions Inria émises dans le cadre des Etats généraux du numérique pour l’Éducation. L’institut national en sciences et technologies du numérique partage ici le 3ème volet de ses recommandations, celles qui concernent la formation au numérique en education. Serge Abiteboul

    Cet article est repris d’une tribune de ToutEduc.

    Dans le cadre des Etats généraux du numérique pour l’Éducation, Inria a émis plusieurs recommandations et a choisi ToutEduc pour leur présentation. Nous avons publié le premier volet sur la recherche (ici) et le second volet sur l’action publique (ici). Voici le troisième volet, relatif à la formation aux compétences de base du numérique ainsi qu’aux usages du numérique tant pour les enseignants que les citoyens. A venir une présentation du « Livre blanc » d’Inria sur les enjeux et défis du numérique pour l’éducation.

    La formation au numérique : un enjeu fondamental, un défi colossal.

    Il est urgent de ne plus attendre (1) pour initier nos enfants aux fondements du numérique afin qu’ils puissent appréhender au mieux le monde d’aujourd’hui sans uniquement être dans une posture de consommateurs, voire y être aliénés. Ce travail a commencé : introduit progressivement (2) dans l’enseignement secondaire (et aussi primaire), tous·tes les élèves en classe de seconde des lycées généraux et technologiques sont maintenant initié·e·s à la science informatique et aux technologies du numérique, abordant aussi les aspects sociétaux, tandis qu’une vraie formation à l’informatique est proposée parmi les spécialités de fin de lycée. Mais la maîtrise des usages des outils numériques s’est révélée primordiale pendant la crise sanitaire et le travail à distance qui s’est imposé continuera à être utilisé dans la durée. De plus, les différences dans les usages développés par les enseignant·e·s peuvent également être un facteur d’inégalité. Des élèves n’ont pas le même accès aux mêmes types d’activités selon le degré d’accessibilité et d’intégration du numérique de leurs enseignant·e·s. On voit donc combien il est urgent et essentiel d’accompagner l’ensemble des enseignant·e·s dans leurs compétences numériques et dans leur capacité à faire un usage raisonné et éclairé du numérique pour soutenir les apprentissages notamment dans une optique de réduction des inégalités.

    Les besoins sont immenses et au-delà des enseignant.e.s, ils nous concernent toutes et tous. Il est urgent de considérer la maîtrise des fondamentaux du numérique comme faisant partie de la culture du citoyen du XXIème siècle. Qu’est-ce qu’une donnée ? Un algorithme ? À quoi sert la programmation ? Comment une machine calcule ? en sont des éléments essentiels. Il s’agit de réaliser une alphabétisation au numérique en contribuant au développement des compétences transversales comme la pensée informatique ou les compétences numériques auprès du plus grand nombre.

    La formation au numérique est un enjeu citoyen qui doit donner lieu à des actions visant à développer la culture numérique et les compétences numériques des différentes catégories d’âges et de métiers. Cette formation est particulièrement critique pour les décideurs et décideuses dans les choix d’investissement notamment liés au numérique éducatif dans les collectivités territoriales et à l’échelle nationale. Il s’agit donc de nous former, tous et toutes, en commençant par nos enfants. Et pour cela, il faut commencer par les professionnels de l’éducation (enseignant·e·s et les cadres de l’éducation).

    Une première priorité : la formation des professionnel·le·s de l’éducation.

    Au-delà de la nécessaire formation aux fondamentaux de l’informatique, les professionnel·le·s de l’éducation doivent développer leur capacité à analyser les différents usages du numérique dans le contexte des différentes tâches de leur métier. Ils doivent également savoir intégrer différents types d’outils numériques (3) afin de les utiliser de manière la plus pertinente possible et créative dans leur activité pédagogique, comme une analyse au niveau européen (4) le recommande très justement. La formation aux usages du numérique doit tenir compte tant des usages numériques déjà pressentis d’un point de vue éducatif (par exemple. les jeux sérieux ou éducatifs ayant été conçus avec une intention à la fois ludique et éducative), que des usages numériques généraux (p. ex. les tendances à utiliser les jeux numériques afin de permettre aux enseignants d’exploiter leur usage ludique pour en faire un usage pédagogique).

    À ce titre, l’intégration au sein des INSPÉ (Instituts nationaux supérieurs du professorat et de l’éducation) de formations plus approfondies en informatique est essentielle, en particulier pour les futur·e·s professeur·e·s de la spécialité NSI (Numérique et sciences informatiques). Cela l’est aussi pour des formations plus larges en lien avec l’enseignement de SNT (Sciences numériques et technologie), et cela concerne tous les enseignant.e.s au sein de leurs différentes spécialisations. En effet, comment concevoir d’être face à des élèves ayant acquis des compétences et un usage éclairé du numérique, par des savoirs et savoir-faire au niveau de ses fondements, sans avoir reçu soi-même cette formation minimale ?

    Nous recommandons des formations aux SNT pour tous et toutes, apprenants de tous niveaux et de toutes spécialités, ainsi que pour tous les formateurs, enseignant·e·s et cadres d’éducation. Cela n’est pas encore acquis, car cet enseignement sur le numérique n’est pas explicitement prévu dans les heures de formation de la nouvelle maquette du Master MEÉF (Métiers de l’enseignement, de l’éducation, et de la formation). Il faudrait également créer un RAP (réseau d’apprentissage personnel) pour développer une entraide et tirer profit des communautés de pratiques, pour soutenir le développement professionnel des personnels enseignants. Sur un autre plan, pour les personnels d’encadrement de l’Éducation nationale, une formation au management du numérique éducatif existe, incluant la mise en place d’une offre pédagogique numérique à destination de l’ensemble de la communauté éducative.

    Ceci nécessite une augmentation importante du nombre d’heures consacrées à la formation des enseignant·e·s en exercice, avec une reconnaissance des heures de formation en ligne et de la participation aux communautés de pratiques. On notera que, dans le cadre de la réorganisation annoncée de Réseau Canopé, la formation continue des enseignants sera l’une de ses missions principales.

    Par ailleurs, le besoin de formation en pédagogie des ingénieures et ingénieurs pédagogiques produisant des ressources éducatives, est également important. En effet, la création de ressources numériques interactives, parfois utilisées en autonomie ou en semi-autonomie, déporte la création pédagogique beaucoup plus dans la phase de développement de la ressource (conception amont) que sur son utilisation (usage aval). Il est donc essentiel de former ces professionnel·le·s à la fois à la didactique des disciplines enseignées et aux leviers pédagogiques, en les rendant capables de scénariser et de faire un usage critique et éclairé du numérique. Des actions de formation innovantes de type SmartEdTech (6) permettent, tant à des professionnel·le·s issu·e·s du monde de l’éducation qu’à ceux venant du monde industriel du numérique, de développer collectivement une approche interdisciplinaire dans les projets EdTechs, intégrant de manière opérationnelle les savoir-faire des deux communautés.

    Une seconde priorité : faire « université » de manière citoyenne autour du numérique.

    Ce sera dans plusieurs années qu’une génération d’élèves aura progressivement acquis les compétences nécessaires pour maîtriser collectivement le numérique, au fil des formations de leurs enseignant·e·s. Il faut agir aussi dès maintenant au niveau de la formation tout au long de la vie. Bien sûr, il faut construire des formations adaptées selon les branches professionnelles et les besoins générationnels mais surtout, il faut envisager des formations de base pour les citoyens et les citoyennes de notre pays.

    Il est important que ces formations citoyennes se fassent en regard d’un référentiel de compétences indépendant des certifications liées à des produits commerciaux eu égard à des questions de souveraineté. Aussi, nous proposons que la certification PIX (5) soit la référence française en matière de compétences culturelles de base en informatique.

    Pour illustrer la stratégie que nous proposons, citons un pays, la Finlande qui a mis en place une formation en ligne de 50 heures à destination privilégiée des cadres du pays (1% de la population), mais accessible à l’ensemble de la population, afin de comprendre les bases de l’intelligence artificielle et des enjeux sociétaux induits par ces technologies disruptives (cette formation est également disponible en français (7)).

    En France, la formation https://classcode.fr/iai, qui met l’accent sur des activités ludiques, concrètes et faciles à partager, devrait permettre d’inclure le plus grand nombre et pourrait servir de base à une formation plus large en complément d’autres formations moins techniques comme Objectif IA venant offrir une première entrée culturelle sur ces sujets.

    Au-delà de ces ressources, il faut créer un espace de partage et de réflexion collective sur ces sujets. Dans cette optique, la notion d’ ‘université citoyenne et populaire du numérique en ligne’ adossée à un maillage d’initiatives territoriales, pourrait s’appuyer sur les succès d’initiatives déjà déployées en France, par exemple, Class’Code (8), engagée par Inria et ses partenaires en 2016 ou encore mobilisant les entreprises du numérique pour engager leur personnel dans des actions et en prenant appui sur celles qui le font déjà, Concrètement, il s’agit de passer de la formation des enseignant·e·s à la formation de toutes les citoyennes et tous les citoyens, labellisée et attestée, pour couvrir un besoin de formation à la pensée informatique tout au long de la vie, à travers une démarche partenariale et collective implémentée par l’action collaborative de ses partenaires. De façon hybride (en ligne et sur les territoires) on vient y satisfaire sa curiosité, discuter des questionnements posés par ces sujets, et surtout relier à son quotidien – p. ex. à l’aide de démarches de maker ou d’autres dans des tiers lieux – ces techniques pour les apprivoiser, cette offre se mettant au service des structures existantes comme détaillé par l’association EPI (9).

    Conclusion

    Selon une étude France Digitale-Roland Berger (10), la France était en 2019 en tête des investissements dans l’Intelligence Artificielle – levier du numérique de demain – en Europe avec un doublement des fonds levés par rapport à 2018, et l’Europe elle-même se positionne très fortement sur ces sujets. Notre pays a aussi fait le choix crucial de ne pas s’en remettre aux grands acteurs industriels du numérique, mais de former ses jeunes générations, de gagner son indépendance pour choisir son avenir en ce ‘temps des algorithmes’ (11). Nous voilà en bonne voie de réussite et finalisons le travail commencé afin de relever ce défi.

    Gérard Giraudon (Inria) Pascal Guitton (Université de Bordeaux & Inria), Margarida Romero (Université Côte d’Azur), Didier Roy (Inria & LEARN EPFL) et Thierry Viéville (Inria) se sont associés pour la rédaction de cette tribune.

    NOTES

    (1) L’enseignement de l’informatique en France – Il est urgent de ne plus attendre, rapport de l’Académie des Sciences, 2013 ici

    (2) Le numérique pour apprendre le numérique ? Blog binaire de LeMonde.fr, 2020 (ici)

    (3) Le référentiel de compétences des métiers du professorat et de l’éducation, 2013 (ici)

    (4) Recommandation du conseil de l’Euope relative à des systèmes de qualité pour l’éducation et l’accueil de la petite enfance, 2019 (ici)

    (5) Les compétences évaluées par Pix, 2018 ici

    (6) MSc Smart Edtech, 2018– (ici)

    (7) Un cours en ligne gratuit – Elements of AI (ici)

    (8) Cette action de formation hybride offre un maillage du territoire au sein de tiers-lieux permettant de faire coopérer les acteurs de terrain. Après quatre ans de déploiement, plus de 80 000 personnes ont été formées, plus de 70 partenaires dans 10 régions métropolitaines et en outre-mer participent à des niveaux divers et plus de 430 000 internautes ont accédé aux ressources – librement réutilisables – proposées (ici)

    (9) Apprentissage de la pensée informatique : de la formation des enseignant·e·s à la formation de tou·te·s les citoyen.ne.s, EPI, 2019 (ici)

    (10) La France en tête des investissements européens dans l’IA en 2019, maddyness.com 2019 (ici)

    (11) Le temps des algorithmes, 2017 (ici)

  • Formation à l’IA – épisode 3 : Class’Code / Inria IAI

    Nous vous l’avions annoncé ici, Victor Storchan termine la série d’articles sur les initiatives de formation à l’intelligence artificielle (IA). Après « Elements Of AI« , et « Objectif IA« , il donne la parole à Frédéric Alexandre, Marie-Hélène Comte, Martine Courbin-Coulaud et Bastien Masse sur Class´Code IAI. Serge Abiteboul et Thierry Viéville.
    La série: « Introduction« , « Elements Of AI”, “Objectif IA”, « Classcode IAI« .
    La formation/certification à l’IA 

    Victor Storchan (VS): Quelles ont été vos motivations initiales et vos objectifs pour l’élaboration de votre cours en ligne ?

    L’équipe de Class´Code (CC): Il s’agit d’offrir une initiation à l’Intelligence Artificielle via une formation citoyenne, gratuite et attestée https://classcode.fr/iai, dans le cadre d’une perspective « d’Université Citoyenne et Populaire en Sciences et Culture du Numérique » où chacune et chacun de la chercheuse au politique en passant par l’ingénieure ou l’étudiant venons avec nos questionnements, nos savoirs et savoir-faire à partager.

    Très concrètement on y explique ce qu’est l’IA et ce qu’elle n’est pas, comment ça marche, et quoi faire ou pas avec. On découvre les concepts de l’IA en pratiquant des activités concrètes, on y joue par exemple avec un réseau de neurones pour en démystifier le fonctionnement. On réfléchit aussi, ensemble, à ce que le développement de l’IA peut soulever comme questions vis-à-vis de l’intelligence humaine.

    Ce MOOC a été développé sur la plateforme FUN par le Learning Lab Inria qui en assure l’animation.

    VS: Quel est le public que vous visez ?

    CC: La cible primaire est l’ensemble des personnes en situation d’éducation : enseignant·e, animateur·e et parents, qui doivent comprendre pour re-partager ce qu’est l’IA. C’est —par exemple­— abordé au lycée dans les cours de sciences de 1ère et terminale, c’est abordé de manière transversale dans les enseignements d’informatique et présent dans de nombreux ateliers extra-scolaires.

    Par extension, toutes les personnes qui veulent découvrir ce qu’est l’IA et se faire une vision claire des défis et enjeux posés, ceci en “soulevant le capot”, c’est-à-dire en comprenant comment ça marche, sont bienvenues. Et c’est de fait une vraie formation citoyenne.

    VS: Quels sont les apports de votre cours pour ce public ?

    Ce qui rend ce cours attrayant est une approche ludique et pratique avec une diversité de ses supports –  vidéos conçues avec humour, tutos et activités pour manipuler (y compris avec des objets du quotidien) les mécanismes sous-jacents, des ressources textuelles pour aller plus loin, et des exercices pour s’évaluer. Toutes ces ressources sont réutilisables.

    Ce qui rend ce cours unique, par rapport aux autres offres connues, est un forum pour échanger et des webinaires et rencontres en ligne ou en présentiel sur ces sujets, à la demande des personnes participantes : la formation sert de support pour des rencontres avec le monde de la recherche. Cette possibilité de dialogue direct entre personnes participantes, de proposer des ressources ou des liens en fonction des besoins est vécu comme un point majeur de cette formation.

    VS: Pouvez-vous partager les premiers résultats à ce stade et quelles sont vos perspectives futures ?

    CC: Ouvert en avril 2020, le MOOC Class’Code IAI “Intelligence Artificielle avec Intelligence” a attiré jusqu’à présent (mi-novembre) plus de 18800 personnes, dont beaucoup ont effectivement profité d’au moins un élément de la formation et délivré 1038 attestations de suivi. Il y a plus de 5300 personnes sur le forum et près de 600 messages échangés, beaucoup entre l’équipe pédagogique et les personnes participantes, mais aussi entre elles.
    Nos mooqueurs et mooqueuses se disent satisfaits à plus de 94%.
    Les rencontres en ligne attirent entre 50 et 100 personnes et sont vues par plusieurs centaines en replay.
    Les vidéos sont réutilisées au sein de plusieurs ressources numériques en lien avec les manuels d’apprentissage des sciences en première et terminale qui inclut le sujet de l’IA ou sur le site lumni.fr de France Télévision (qq milliers de vues, mais pas de comptage précis).

    Au niveau des perspectives, nous invitons les personnes à suivre ensuite par exemple Elements Of AI course.elementsofai.com/fr-be dans sa version francophone, pour se renforcer sur des éléments plus techniques, tandis que notre action s’inscrit dans la perspective de cette université citoyenne déjà citée.

    VS: Comment vos ressources  participent-elles à la création d’une confiance dans le développement de ces innovations, et aident-elles à développer un esprit critique constructif à ces sujets ?

    Nous avons deux leviers principaux.

    Le premier est de dépasser les idées reçues (les “pourquoi-pas”) sur ce sujet et d’inviter à distinguer les croyances, les hypothèses scientifiques (qui pourront être infirmées, contrairement aux croyances qui ne seront jamais ni fausses, ni vraies), des faits avérés. Pour développer l’esprit scientifique il est particulièrement intéressant de montrer que, à l’instar de l’astrologie par exemple, il y a dans le domaine de l’IA l’émergence d’une pseudo-science qu’il faut expliciter et dépasser.

    Le second est de “comprendre pour pouvoir en juger”. Nous voulons aider les personnes à avoir une vision opérationnelle de ce qu’est l’IA, pas uniquement des mots pour en parler, de façon à réfléchir en profondeur sur ce qu’elle peut apporter.

    Motivé par la déclaration commune franco-finlandaise de “promouvoir une vision de l’intelligence artificielle juste, solidaire et centrée sur l’humain” nous pensons que la première étape est d’instruire et donner les moyens de s’éduquer. 

    Une analyse plus précise est donnée ici expliquant la démarche d’ « Open Educational Resources and MOOC for Citizen Understanding of Artificial Intelligence » 

    Le projet entrepreneurial 

    VS: Quelles difficultés surmonte-t-on  pour déployer un projet comme celui-ci ? 

    CC: Au niveau des moyens, forts de la réussite du projet Class´Code nous avons été soutenus sans souci par des fonds publics et avons eu les moyens des objectifs choisis.

    Au niveau de la diffusion, il est moins facile de faire connaître notre offre qui est peu relayée médiatiquement, car le message est moins “sensationnel” que d’autres, nous construisons notre notoriété principalement sur les retours des personnes qui ont pu en bénéficier.

    Au niveau des personnes, le principal défi est d’apaiser les peurs et d’aider à dépasser les idées reçues, parfois les fantasmes sur ces sujets : l’idée d’une intelligence qui émergerait d’un dispositif inanimé de la légende de Pinocchioau mythe du Golem est ancrée dans nos inconscients et c’est un obstacle à lever.

    VS: Quels sont les bénéfices de la coopération entre partenaires de votre initiative, en particulier pour la réalisation d’un cours sur l’IA par nature interdisciplinaire ?

    CC: Ils sont triples.

    D’une part en associant des compétences académiques en sciences du numérique, neurosciences cognitives et sciences de l’éducation on se donne vraiment les moyens de bien faire comprendre les liens entre intelligence artificielle et naturelle, et d’avoir les bons leviers pour permettre d’apprendre à apprendre. 

    Par ailleurs, à travers Class´Code et plus de 70 de ses partenaires, on donne les moyens aux initiatives locales, associatives ou structurelles de disposer de ressources de qualité et de les co-construire avec elles et eux, pour être au plus près du terrain. Notre collaboration avec des entreprises d’éducation populaire de droit public comme La Ligue de l’Enseignement ou de droit privé comme Magic Maker, ou des clusters d’entreprise EdTech comme celles d’EducAzur montre aussi que les différents modèles économiques ne s’excluent pas mais se renforcent sur un sujet qui est l’affaire de toutes et tous.

    La collaboration avec la Direction du Numérique pour l’Education et l’Université Numérique d’Ingéniérie et de Technologie permet de se positionner comme fournisseur de ressources pour l’apprentissage à grande échelle de ces sujets, en mettant en partage un bien commun.

    Les modèles d’écosystèmes français

    VS: Au-delà de la formation, quels sont les atouts et les faiblesses de l’Europe pour peser dans la compétition technologique mondiale ?

    CC: Il y a de multiples facteurs qui dépassent notre action. Mais relevons en un qui nous concerne directement : celui d’éduquer au numérique et ses fondements, que nous discutons ci-dessous.

    VS: Votre initiative crée donc un lien éducation et IA, quels sont les liens à renforcer entre IA et éducation  (par exemple apprentissage de l’IA dans le secondaire)  et éducation et IA (par exemple des assistants algorithmiques), et quels sont les impacts socio-économiques visés ? 

    CC: Les liens entre IA et éducation sont doubles : éduquer par et au numérique comme on le discute ici en explicitant les liens entre IA et éducation au-delà des idées reçues qui sont bien décryptées montrant les limites de l’idée que le numérique va révolutionner l’éducation. Nous nous donnons avec ce MOOC IAI les moyens pour que nos forces citoyennes soient vraiment prêtes à relever ces défis. L’apprentissage scolaire de l’informatique est un vrai levier et un immense investissement pour notre avenir, et la France a fait ce choix d’enseigner les fondements du numérique pour maîtriser le numérique

    À ce sujet Inria publie un livre blanc « Éducation et numérique, Défis et enjeux » qui discute de ces aspects tout particulièrement en lien avec l’IA, tandis que l’Éducation Nationale met en place des groupes thématiques numériques (GTnum) animés conjointement par des équipes de recherche et des pédagogues, par exemple sur le « renouvellement des pratiques numériques et usages créatifs du numérique en lien avec l’IA ».

    VS: Confier à des algorithmes des tâches qui mènent à des décisions cruciales, par exemple en matière de justice, d’embauche, ou d’autres décisions à forte conséquence humaine, questionne, quel est votre positionnement sur ce sujet ? Quelle place pensez-vous que l’éthique doit prendre dans votre enseignement ?

    CC: Pouvoir se construire une éthique, c’est-à-dire se forger un jugement moral sur ce qu’il convient de faire ou pas avec l’IA, est en quelque sorte l’aboutissement de cette formation. Là encore cela passe par la compréhension de notions fines comme interprétabilité et explicabilité ou les causes des biais dans les mécanismes d’IA venant des données ou des algorithmes pour ne pas juste émettre des opinions superficielles à ce sujet. Aucun sujet technique n’est abordé sans que ces aspects éthiques ou sociétaux le soient comme c’est le cas en robotique.

    D’un point de vue éthique, la responsabilité est toujours “humaine”, par exemple si on laisse l’algorithme décider, c’est notre décision de le faire : de déléguer la décision à un algorithme au lieu de la prendre soi-même, c’est un choix et c’est un humain qui doit faire ce choix. Si vous choisissez de “faire confiance” à une machine avec un algorithme d’IA, vous faites surtout confiance en votre propre jugement quant aux performances de ce mécanisme.

    VS: Le fait que des tâches cognitives de plus en plus complexes soient réalisées par des programmes nous amène-t-il à reconsidérer l’intelligence humaine ? Est-ce que cela a des impacts sur notre vision de l’IA ? Sur son enseignement ? 

    CC: C’est tout à fait le cas. On se pose souvent la question « symétrique » de savoir si une machine peut être ou devenir intelligente : le débat est interminable, car -en gros- il suffit de changer la définition de ce que l’on appelle intelligence pour répondre “oui, pourquoi-pas” ou au contraire “non, jamais”. La vraie définition de l’IA est de “faire faire à une machine ce qui aurait été intelligent si réalisé par un humain”, ce qui évite de considérer cette question mal posée. 

    ©cointre

    En revanche, avec la mécanisation de processus cognitifs, ce qui paraissait “intelligent” il y a des années par exemple, le calcul mental devient moins intéressant avec l’apparition -dans ce cas- de calculettes. De même l’intelligence artificielle soulage les humains de travaux intellectuels que l’on peut rendre automatiques. Du coup, cela oblige à réfléchir à l’intelligence humaine en fonction et au-delà de ce que nous appelons la pensée informatique.

    Par exemple, nous savons que plus le problème à résoudre est spécifique, plus une méthode algorithmique sera efficace, possiblement plus que la cognition humaine, tandis qu’à l’inverse plus le problème à résoudre est général, moins un algorithme ne pourra intrinsèquement être performant, quelle que soit la solution (no free lunch theorem). Il se trouve que les systèmes biologiques eux aussi ont cette restriction, l’intelligence humaine n’est donc peut-être pas aussi “générale” qu’on ne le pense. 

    VS:  Nous vivons au temps des algorithmes. Quelle place voulons-nous accorder aux algorithmes dans la “cité” ? Est-ce que cela nous conduit à repenser cette cité ? Comment mieux nous préparer au monde de demain ? 

    CC: En formant en profondeur les citoyennes et citoyens, nous nous donnerons « les moyens de construire un outil qui rend possible la construction d’un monde meilleur, d’un monde plus libre, d’un monde plus juste … » écrivent Gilles Dowek et Serge Abiteboul en conclusion du “temps des algorithmes”.

    Que des robots assistent des personnes âgées pour reprendre leur exemple, sera un progrès, permettant de les maintenir chez eux, à leur domicile et dans l’intimité de leur dignité, mais si cela est vu uniquement comme un levier de réduction des coûts de prise en charge, ou un moyen de nous désengager d’une tâche parmi les plus humaines qui soit à savoir s’occuper des autres, alors la machine nous déshumanisera. 

    Cet exemple nous montre surtout, comme la crise sanitaire le fait aussi depuis quelques mois, que des circonstances exceptionnelles nous obligent à revoir en profondeur les équilibres que nous pensions acquis pour notre société. Quand, et cela est en train d’advenir, nous aurons mécanisé la plupart des tâches professionnelles qui sont les nôtres aujourd’hui, nous allons devoir organiser autrement la société. 

    Frédéric Alexandre, Marie-Hélène Comte, Martine Courbin-Coulaud et Bastien Masse.

    Grand merci à Inria Learning Lab pour avoir porté et adapté le MOOC sur FUN ainsi que pour le forum.

  • Éducation & numérique : l’action publique

    ToutEduc a rendu compte des propositions Inria émises dans le cadre des Etats généraux du numérique pour l’Éducation. L’institut national en sciences et technologies du numérique partage ici la suite de ses recommandations, celles qui concernent les EdTechs. Serge Abiteboul
    Photo fauxels – Pexels

    Cet article est repris d’une tribune de ToutEduc.

    Dans le cadre des Etats généraux du numérique pour l’Éducation, Inria a émis plusieurs recommandations et a choisi ToutEduc pour leur présentation. Nous avons publié le premier volet sur la recherche (ici). En voici un second relatif à l’action publique.

    Les auteurs* de cette tribune veulent « mettre en exergue la nécessité d’engager l’Etat et ses opérateurs dans la création de cadre permettant à des écosystèmes de se développer et de créer des dynamiques collectives au bénéfice de tous les acteurs qu’ils soient publics ou privés en favorisant la mise en commun des forces et en favorisant la dynamique économique ». Il s’agit de « créer les conditions du développement et de la mise à jour de ressources éducatives numériques », celles-ci étant conçues comme des « biens communs ». Toutefois, les auteurs que cette notion n’exclut pas l’intervention d’opérateurs privés, puisque, aujourd’hui des structures qui n’ont pas de statut « public » diffusent en ligne du contenu éducatif librement accessible et ouvert au plus grand nombre sur la planète à l’instar de ce que ferait un « Etat planétaire ». La question ne porte donc pas tant sur l’opposition « public-privé » que sur la restriction (au sens « réserver à un petit nombre ») de l’éducation et surtout des contenus pédagogiques. Le « Savoir » a vocation à être à libre disposition de tous, et le contenu pédagogique qui permet d’enseigner ce savoir doit être accessible au plus grand nombre. La question est surtout « Qui doit garantir le respect de la qualité scientifique des contenus et des valeurs culturelles de la société des matières enseignées ? ». Qui maîtrise le contenu enseigné maîtrise en effet la culture de la société et ses valeurs. Plus qu’une opposition « public-privé » il s’agit donc surtout de souveraineté, estiment les auteurs.

    La tribune

    « Inria a beaucoup œuvré depuis la fin des années 1990 au développement du logiciel ‘open source’, notamment pour le développement d’infrastructures sur lesquelles la société numérique se construit et où l’on retrouve la question de biens communs (voir ici). Mais le développement de logiciels open source au sein de communautés de personnes n’empêche pas la création d’activités économiques autour de ces logiciels et même la création d’entreprises privées (dont les plus emblématiques travaillent autour de Linux) qui contribuent à un bien commun.

    Il semble ‘évident’ qu’il soit nécessaire de créer des biens communs en éducation.

    Mais, d’une part il faut que ces bien communs soient évolutifs et basés sur des ressources libres et éditables par les acteurs éducatifs ce qui n’empêche pas que ces acteurs puissent être des entreprises privées aptes à assurer au mieux la maintenabilité des solutions et leur pérennité si cela garantit la meilleure efficience avec le modèle économique qu’il convient de trouver dans les meilleurs équilibres ; l’innovation réside en grand partie sur ce point.

    D’autre part, ces ressources doivent pouvoir être indexées de manière à faciliter leur usage par les enseignants. Actuellement, malgré l’existence d’une quantité très importante de ressources, la localisation de celles-ci et la capacité à trouver facilement les ressources nécessaires pour les différentes disciplines et niveaux éducatifs reste un défi.

    Par ailleurs, certaines ressources sont limitées dans leur diffusion parce qu’elles ont été développées par peu de personnes et que, pour de multiples raison les mises à jour s’arrêtent, voire quelques unes disparaissent ou parce qu’elles ont été développées avec des technologies propriétaires qui n’interopèrent pas. L’accessibilité de toutes les REN (ressources éducatives numériques) relève d’un enjeu éducatif majeur pour s’assurer que les inégalités éducatives ne s’accentuent pas du fait des limites d’accessibilité des ressources. Il faut souligner que les situations de handicap aggravent ce problème d’accès aux ressources. Dans ce contexte, on parle alors de l’absence d’accessibilité numérique qui exclut de facto des personnes du droit élémentaire de tous les citoyens à la formation. Cette remarque peut être étendue à l’accès à l’information, au divertissement, à l’emploi via les outils numériques devenus incontournables aujourd’hui. Enfin, nous pouvons rappeler que cette exclusion est d’autant plus douloureuse à vivre et à constater que le numérique offre des solutions bénéfiques potentielles aux personnes en situation de handicap.

    Garantir la portabilité des données personnelles éducatives et développer l’interopérabilité des solutions logicielles

    Le règlement général sur la protection des données (RGPD) a été un acte fondateur en définissant le cadre juridique pour les données à caractère personnel des citoyens de l’Union Européenne. Ce règlement, construit sur les principes de ‘privacy by design’ (c’est à dire la prise en compte de la gestion de la confidentialité en amont, dès la conception du système, et non pas en aval une fois le logiciel développé) et de consentement individuel, garantit la portabilité des données pour chaque résident de l’UE qui est donc un droit exécutoire. À ce jour, aucun système, y compris au sein de l’Éducation nationale ou de l’Enseignement supérieur ne garantit cette portabilité. En effet, au motif que le cadre juridique autorise une exception à ce droit individuel dans le cadre de l’exercice du service public d’éducation, peu d’efforts sont faits pour permettre aux données personnelles d’éducation de circuler.

    Difficile donc de concevoir qu’à l’âge où la plupart des productions individuelles des élèves se font par le numérique, on s’interdise de leur permettre de les conserver et réutiliser facilement ; chose qui paradoxalement, à l’âge du cahier papier semblait une évidence et était encouragée ! On se coupe ainsi d’une formidable opportunité de développement individuel et économique, pour le bénéfice de chacun des acteurs : élèves, enseignants, parents, chercheurs, et entreprises du secteur. Sans rentrer dans les débats techniques, des principes techniques existent en particulier via les systèmes de gestion des informations personnelles (PIMS) (1). Les PIMS permettent aux personnes de gérer leurs données à caractère personnel dans des systèmes de stockage sécurisés locaux ou en ligne et de les partager au moment et avec les personnes de leur choix. La start-up Inrupt, co-fondée par l’inventeur du Web, Tim Bernes-Lee, a été créée avec pour objectif de redonner aux internautes un plein contrôle sur leurs données et elle vient d’annoncer le lancement de son produit entreprise Solid (ici). Le cœur de l’action publique est alors de favoriser et de garantir la portabilité des données personnelles éducatives et nous recommandons la création du dossier de formation personnalisé permettant à tout apprenant de se réapproprier ses données d’éducation dans le contexte de société apprenante (2) (3) et qui s’inscrit pleinement dans la réforme du compte personnel de formation. Mais cela ne suffit pas car il faut aussi encourager voire imposer des standards pour l’interopérabilité des solutions logicielles, seule apte à garantir que toute solution technique ne tombe pas dans une escarcelle monopolistique quelle qu’elle soit dont on sait que c’est un frein à toute évolution, à toute innovation y compris dans le cadre d’une vision de ‘bien public’ (4).

    Créer un observatoire des EdTechs

    Nous proposons d’ailleurs de re-créer un observatoire des Edtechs. Une première initiative avait vu le jour en mars 2017 avec la création d’un Observatoire EdTechs porté par Cap Digital avec le soutien de la Caisse des dépôts et de la MAIF. Cet observatoire a permis de mettre en avant la dynamique des startups EdTechs mais n’a pas réussi, peut-être par manque de moyens et de maturité du secteur, à créer un observatoire des pratiques, des usages, de l’offre et de la demande dans le vaste champ de la formation (formation initiale et continue, etc.). Cet observatoire a été fermé en 2019.

    Néanmoins, le besoin existe et va au-delà de la première version qui était essentiellement une liste statique d’entreprises des EdTechs. Actuellement, de très nombreux sites web fournissent des informations relatives au numérique éducatif : le très riche site Eduscol de l’Éducation nationale, le site de la DNE pour la veille et la diffusion des travaux de recherche sur le numérique dans l’éducation, les ressources pédagogiques développées par le CNED, les ressources de Canal U, l’initiative HUBBLE déjà citée, l’observatoire eCarto des territoires porté par la Banque des territoires, des observatoires d’académies (Paris, La Réunion, etc.), des sites d’associations d’entreprises (Afinef, EdTech France, EducAzur, etc.) Mais il n’y a pas à ce jour un observatoire qui permette d’agréger des informations, d’observer à l’échelle nationale des tendances et de mettre à disposition des données consolidées du numérique éducatif et encore moins d’avoir un travail de synthèse de référence et de parangonnage français et international (a minima dans l’espace francophone).

    Aujourd’hui l’information sur le numérique éducatif est donc fragmentée et mélange contenus, solutions, informations, etc.

    Aussi, nous recommandons de mettre en place un observatoire (français) des EdTechs pérenne sous la forme d’une plateforme web recensant les dispositifs utilisés dans l’enseignement et la formation, avec des évaluations quand elles existent, une cartographie des équipes de recherche travaillant sur le numérique pour l’éducation, une cartographie des entreprises du secteur et de leurs solutions, un blog listant les innovations du moment, etc.

    Un tel observatoire doit être le reflet de l’écosystème français de l’usage des EdTechs et à ce titre il doit être construit en partenariat avec les associations d’entreprises et les clusters EdTechs régionaux mais aussi avec l’implication forte des acteurs de la formation (Éducation nationale, universités, écoles, etc.), du monde de la recherche et des collectivités territoriales. Cet observatoire devrait pouvoir jouer un rôle majeur de mise en relation avec des alter ego en Europe mais aussi dans ceux de l’espace francophone.

    Pour porter une telle ambition, des moyens seront nécessaires mais il nous semble que pour garantir la neutralité et la pertinence de cet observatoire, il doit être porté par l’action publique à l’instar de ce qu’elle a réussi à faire avec PIX ; on pourrait par exemple réfléchir à le structurer avec les nouvelles missions actuellement envisagées pour le réseau Canopé et certainement avec la collaboration des ministères les plus concernés (MENJ, MESRI, MEIN).

    * Les auteurs :

    Gérard Giraudon (Inria). Pascal Guitton (Université de Bordeaux & Inria, Jean-Baptiste Piacentino (Edtech One), Margarida Romero (Université Côte d’Azur), Didier Roy (Inria & LEARN EPFL) et Thierry Viéville (INRIA) se sont associés pour la rédaction de cette tribune.

    Notes

    (1) « Managing your digital life with a Personal information management system », Serge Abiteboul, Benjamin André et Daniel Kaplan, Communications of the ACM, ACM, 2015, 58 (5), pp.32-35. hal-01068006

    (2) « L’école dans la société du numérique », rapport n°1296 de la commission parlementaire des affaires culturelles et de l’éducation, rapporteur Bruno Studer, octobre 2018 (92 pages).
    http://www.assemblee-nationale.fr/15/rap-info/i1296.asp

    (3) « Un plan pour co-construire une société apprenante », François Taddei, Catherine Becchetti-Bizot, Guillaume Houzel, avril 2018 (88 pages).https://cri-paris.org/wp-content/uploads/2018/04/Un-plan-pour-co-contruire-une-societe-apprenante.pdf

    (4) Les standards pour le numérique éducatif se sont développés au cours des dernières décennies, notamment en lien avec des plates-formes de formation (Learning Management Systems) par le biais des normes comme SCORM, AICC ou xAPI. Le standard Learning Technology Standards, IEEE-LTSC-LOM, permet également de décrire des objets d’apprentissage. Malgré le développement initial de SCORM, les standards restent encore trop peu intégrés dans de nombreuses ressources éducatives. Ces standards ne tiennent pas suffisamment compte des aspects pédagogiques et didactiques, bien que la LOM ou sa forme plus moderne la MLR (compatible avec le Web sémantique) intègre des éléments pédagogiques, sans vraiment faire office de standard. La plateforme edX y réfléchit car il est nécessaire de développer un standard si l’on veut disposer de normes plus largement utilisées. Le développement d’une terminologie commune en sciences de l’éducation comme le propose le « Lexicon project » est également un enjeu tant pour la recherche en sciences de l’éducation que pour le développement de solutions éducatives interopérables.

  • Formation à l’IA – épisode 2 : Objectif IA

    Nous vous l’avions annoncé ici, Victor Storchan va nous présenter trois initiatives de formation à l’intelligence artificielle (IA). Après « Elements Of AI« , c’est au tour de Théophile Lenoir, Responsable du programme Numérique et Milo Rignell, Chargé de l’innovation à l’Institut Montaigne de nous parler d’Objectif IA. Serge Abiteboul et Thierry Viéville.
    La série: « Introduction« , « Elements Of AI”, “Objectif IA”, « Classcode IAI« .
    La formation/certification à l’IA

    Victor Storchan (VS): Quelles ont été vos motivations initiales et vos objectifs pour l’élaboration de votre cours en ligne ?

    Théophile Lenoir et Milo Rignell (TL&ML): L’initiative Objectif IA a été lancée, d’une part, afin de déconstruire un certain nombre d’idées reçues tout en recentrant le débat sur les vrais enjeux de société et, d’autre part, pour permettre à notre pays et à nos entreprises d’être en mesure de se saisir des opportunités de l’intelligence artificielle (IA) et d’être compétitives à l’avenir. 

    C’est pour rendre l’IA accessible au plus grand nombre que nous avons développé une formation en ligne, gratuite, et qui ne prend que quelques heures à compléter. 

    Cette volonté s’accompagne d’un objectif concret : permettre à 1 % des Français de se former à l’IA grâce à Objectif IA.  

    VS: Quel est le public que vous visez ? Quels sont les apports de votre cours pour ce public ?

    TL&ML: Objectif IA s’adresse à tous ceux qui souhaitent, en quelques heures, mieux comprendre cette technologie afin de participer activement à son développement au sein de notre société et dans notre quotidien. 

    Nous constatons néanmoins que la formation est particulièrement utile pour deux types de publics. Elle permet aux jeunes et aux personnes en reconversion professionnelle de découvrir les nombreux métiers de l’IA et de la donnée avant de s’y lancer ; et elle permet aux dirigeants et aux collaborateurs d’entreprises et de structures publiques de se saisir de cette technologie, à tous les niveaux. 

    VS: Pouvez-vous partager les premiers résultats à ce stade et quelles sont vos perspectives futures ?

    TL&ML: En décembre 2020, 90 000 personnes avaient commencé la formation et 50 000 personnes, soit plus de la moitié, avaient complété l’ensemble des chapitres du cours et ainsi obtenu leur certificat de réussite. 

    Plus de 80 structures se sont par ailleurs engagées à former leurs collaborateurs – des entreprises de tous les secteurs, des régions, des acteurs publics comme Pôle emploi et la Gendarmerie nationale, des universités, des associations et d’autres acteurs de la société civile. 

    Fort de ce premier succès en France, nous envisageons de proposer l’initiative à de nouveaux publics. La version anglaise du cours sera disponible à partir de février 2021 et permettra à Objectif IA d’élargir sa formation à l’échelle européenne, aux côtés d’autres initiatives existantes, mais aussi sur le continent africain, où plusieurs acteurs ont déjà exprimé un intérêt fort.   

    VS: Comment vos ressources  participent-elles à la création d’une confiance dans le développement de ces innovations, et aident-elles à développer un esprit critique constructif à ces sujets ?

    TL&ML: Plusieurs sondages (Ifop, 2018 ; Ipsos, 2018) révèlent clairement la corrélation entre une meilleure connaissance et compréhension de l’IA d’une part, et la confiance envers elle d’autre part. La formation Objectif IA permet non seulement de mieux se rendre compte du potentiel de cette technologie pour la santé, l’environnement, le transport et bien d’autres secteurs, mais aussi de replacer les vraies questions sociétales au centre du débat public en démystifiant un certain nombre d’idées reçues. Trois chapitres sont ainsi expressément consacrés à resituer le potentiel de l’IA au-délà des mythes, à identifier ses enjeux éthiques et à évaluer son impact sur le travail.                   

    Le projet entrepreneurial 

    VS: Quelles difficultés surmonte-t-on  pour déployer un projet comme celui-ci?

    TL&ML: A la différence de nombreux MOOCs, qui affichent des taux de complétion entre 5 % et 15 %, plus de la moitié des apprenants qui débutent Objectif IA complètent le cours, souvent en quelques heures seulement. L’enjeu est donc de convaincre de plus en plus de personnes de débuter le tout premier chapitre ! Cela se fait du bouche à oreille, mais aussi avec des soutiens et une mobilisation institutionnels. 

    VS: Quels sont les bénéfices de la coopération entre partenaires de votre initiative, en particulier pour la réalisation d’un cours sur l’IA par nature interdisciplinaire ?

    TL&ML: Objectif IA a été développé au sein d’un partenariat, à première vue hétéroclite, inédit entre l’Institut Montaigne, la startup OpenClassrooms et la Fondation Abeona.    

    L’Institut Montaigne et la Fondation Abeona s’intéressent tous deux depuis longtemps aux enjeux de l’IA et nous avons travaillé ensemble à la production d’un rapport sur les biais algorithmiques, Algorithmes : contrôle des biais S.V.P. L’une des propositions fortes de ce rapport est notamment une sensibilisation large aux enjeux de l’IA. En tant que leader français de la formation en ligne et ayant déjà une offre conséquente de formations en ligne aux métiers du numérique, OpenClassrooms apporte une expertise pédagogique très riche et une plateforme qui recense plus de trois millions de visiteurs par mois. 

    Cette co-construction, à laquelle ont également participé des utilisateurs et des experts de l’IA, a permis de développer un contenu dont la qualité et l’accessibilité se retrouvent dans le pourcentage de personnes terminant le cours. 

    Les modèles d’écosystèmes

    VS: Au-delà de la formation, quels sont les atouts et les faiblesses de l’Europe pour peser dans la compétition technologique mondiale ? La dynamique européenne sur l’IA actuelle est-elle suffisamment ambitieuse ?

    TL&ML: Disposant d’un précieux savoir-faire dans plusieurs secteurs industriels, les entreprises européennes ont de nombreux atouts pour prendre de l’avance – à condition de comprendre les enjeux numériques et d’IA et de développer des nouveaux usages dont dépendra leur compétitivité. C’est pourquoi il faut non seulement plus de personnes formées aux métiers de la donnée et de l’IA, aujourd’hui déjà en tension, mais aussi la mobilisation de l’ensemble des collaborateurs de ces groupes, en allant des instances dirigeantes aux collaborateurs qui interagiront avec ces nouvelles technologies, sans nécessairement qu’elles en constituent le métier. 

    Objectif IA met ces compétences en situation, en suivant pas à pas les étapes d’un projet d’intelligence artificielle et en passant par les différents métiers impliqués. 

    VS: Selon une étude France Digitale-Roland Berger, la France était en tête des investissements dans l’IA en Europe avec un doublement des fonds levés en 2019 par rapport à 2018. Quelles sont les spécificités du modèle français ?

    TL&ML:  Il est difficile de tirer des conclusions des niveaux d’investissement en capital risque, qui dépendent des levées de fonds d’un petit nombre d’entreprises. 2019 a par exemple été l’année de la levée record de 230 millions de dollars par Meero, qui automatise l’édition de photos grâce à l’intelligence artificielle, soit 20 % des fonds levés en 2019. 

    Comparé à d’autres marchés, comme celui des Etats-Unis, en Europe la part d’investissements publics est plus importante et certains financeurs tels que les fonds de pensions et d’universités jouent un rôle considérablement réduit. En France par exemple, la Banque publique d’investissement (Bpifrance) joue un rôle particulièrement important. 

    Enfin, l’innovation en IA ne provient pas uniquement des levées de fonds de start ups. Le gouvernement a investi une somme non négligeable, 1,5 milliards d’euros sur cinq ans. Dans plusieurs secteurs, par exemple médicaux et industriels, la France dispose déjà d’acteurs qui investissent fortement en IA, bénéficiant en outre d’avantages fiscaux compétitifs.

    VS: Votre initiative crée donc un lien éducation et IA, quels sont les liens à renforcer entre IA et éducation  (par exemple apprentissage de l’IA dans le secondaire)  et éducation et IA (par exemple des assistants algorithmiques), et quels sont les impacts socio-économiques visés ?

    TL&ML: Concernant l’éducation à l’IA, les niveaux de compréhension nécessaires varient considérablement selon les publics. Pour la majorité de la population, il est utile de comprendre les principaux enjeux, sans prendre plus de temps que les quelques heures de formation proposées par Objectif IA

    Dans le domaine de l’éducation, les professeurs doivent garder un rôle central. Des outils d’IA peuvent néanmoins soutenir leur travail en permettant un enseignement adapté aux besoins individuels de l’élève et en soulageant leur charge de travail. Dans le domaine de l’apprentissage de la lecture par exemple, des associations comme Agir pour l’école utilisent la reconnaissance vocale des sons que lit un élève pour permettre un apprentissage plus autonome et des exercices adaptés à son niveau de lecture. 

    VS: Confier à des algorithmes des tâches qui mènent à des décisions cruciales, par exemple en matière de justice, d’embauche, ou d’autres décisions à forte conséquence humaine, questionne, quel est votre positionnement sur ce sujet ? Quelle place pensez-vous que l’éthique doit prendre dans votre enseignement ?

    TL&ML: Face aux risques de discrimination des algorithmes à fort impact, deux considérations importantes entrent en jeu : le point de départ auquel nous nous comparons, c’est à dire les biais humains déjà présents, et la possibilité de mesurer les résultats finaux pour détecter, et ainsi corriger, d’éventuels biais. 

    La formation Objectif IA consacre plusieurs chapitres de son cours à restituer les enjeux éthiques, non seulement en démystifiant certaines idées reçues, mais également en précisant les points de vigilance et en proposant des solutions concrètes aux enjeux d’utilisation des données, d’information, de décisions algorithmiques et de biais. 

    VS: Le fait que des tâches cognitives de plus en plus complexes soient réalisées par des programmes nous amène-t-il à reconsidérer l’intelligence humaine ? Est-ce cela a des impacts sur notre vision de l’IA ? Sur son enseignement ?

    TL&ML: Les systèmes d’intelligence artificielle sont très performants lorsqu’il s’agit de certaines tâches précises. Cela peut donner l’illusion que l’IA évolue rapidement vers le niveau d’intelligence humaine, et ainsi développer une vision négative et menaçante de l’IA. 

    Si les résultats de systèmes d’IA continuent à s’améliorer à grands pas, dans la plupart des cas ces avancées sont liées aux progrès en matière de puissance de calcul, qui ne sont pas toujours synonymes d’une plus grande intelligence, au sens de l’intelligence générale. 

    Comprendre la différence entre les atouts de l’intelligence étroite des systèmes d’IA largement utilisés dans notre société, et ceux de l’intelligence générale, le “sens commun”, dont disposent les humains, est essentiel pour articuler au mieux les deux. 

    VS: Nous vivons au temps des algorithmes. Quelle place voulons-nous accorder aux algorithmes dans la “cité” ? Est-ce que cela nous conduit à repenser cette cité ? Comment mieux nous préparer au monde de demain 

    Le recours de plus en plus massif aux algorithmes pour répondre à certains besoins quotidiens, tant au niveau individuel que collectif, est inévitable et doit être encouragé. Il existe néanmoins en France une défiance particulièrement forte envers les outils numériques – les difficultés du gouvernement à déployer l’application StopCovid (renommée TousAntiCovid) en est un exemple. Ces contestations mêlent parfois une variété d’enjeux posés par les outils numériques au sens large (protection des données personnelles, surveillance, transparence). Tout l’objectif d’Objectif IA est d’aider à démêler ces enjeux dans le cas de l’IA.

    Théophile Lenoir, Responsable du programme Numérique, Institut Montaigne.
    Milo Rignell, Chargé de l’innovation, Institut Montaigne.

     

  • Éducation & numérique : la recherche

    ToutEduc a rendu compte des propositions Inria émises dans le cadre des Etats généraux du numérique pour l’Éducation. L’institut national en sciences et technologies du numérique partage ses premières recommandations, celles qui concernent la recherche. Serge Abiteboul
    © Inria / Photo L. Jacq

    Cet article est repris d’une tribune de ToutEduc.

    La clôture le 5 novembre dernier des EGNE, États généraux du numérique pour l’Éducation terminait un cycle de débats où de nombreux contributeurs ont pu exprimer leurs idées et leurs propositions notamment sur le site web participatif des EGNE.

    Inria a publié fin 2020 un livre blanc sur les enjeux et défis du numérique pour l’éducation, a saisi l’occasion pour proposer sept recommandations (voir ToutEduc ici) que l’institut a regroupées en trois grandes thématiques : la recherche, la formation au et par le numérique et l’action publique. Nous avons jugé important qu’Inria, en tant qu’institut national de recherche en sciences et technologies du numérique, apporte sa contribution aux débats.

    La synthèse des EGNE peut se résumer avec les 40 propositions réparties dans les cinq grands chapitres qui organisaient les débats (téléchargez le PDF). De nombreuses propositions font écho aux recommandations que Inria avait proposées et cette première tribune revient sur la thématique recherche et évaluation, qui correspond aux propositions 10 (1) et 32 (2).

    Le numérique : science et technologie, industrie et culture.

    Le numérique transforme le monde car comme toute « technique révolutionnaire » inventée par l’Humain, il transforme la société dans laquelle il a été inventé et intégré (3). Il est donc important de comprendre et d’anticiper cette transformation pour, a minima, tenter d’en éviter les inconvénients et surtout en tirer le plus grand bénéfice pour nous tous. En effet, la technique est a priori « neutre » ; cependant, un mauvais usage par l’Humain peut amener à de graves déconvenues. Le numérique – et en son cœur l’informatique – n’est pas qu’une technologie, c’est aussi une science, une industrie et maintenant une culture. C’est pour cette raison que nous cherchons à permettre à chacun de devenir acteur et non simple consommateur de cette transformation, pour permettre à chaque citoyen d’exercer ses droits et devoirs démocratiques. Pour cela il est indispensable d’aider chacun à acquérir un niveau minimal d’acculturation au numérique afin qu’il n’y soit pas aliéné.

    C’est dans cette intention que Inria propose sa contribution sur la formation au numérique et par le numérique, face aux enjeux et défis éducatifs actuels. La recherche en sciences du numérique, en collaboration avec d’autres disciplines dans des approches transdisciplinaires, et au premier chef les sciences de l’éducation, les sciences cognitives et les neurosciences, doit contribuer à développer des travaux scientifiques où l’enjeu est de savoir travailler ensemble au-delà des silos disciplinaires, en se focalisant sur quelques défis majeurs et en sachant définir des méthodologies d’évaluation des résultats de ces travaux, évaluation sans laquelle il ne peut y avoir de progrès solide au bénéfice des apprenants.

    Un enjeu central et prioritaire : la réussite scolaire.

    Parmi les très nombreux sujets d’études sur l’Éducation, ceux autour de la réussite scolaire sont la clé de voûte de l’enjeu sociétal de l’éducation. Ce sujet de recherche pose la question d’aider à engager pleinement les élèves dans les activités pédagogiques grâce à des approches exploitant l’informatique, que ce soit comme support aux processus d’enseignement et d’apprentissage (Technology Enhanced Learning) ou en utilisant le numérique pour étudier ces processus (comme le font les approches Computational Learning Sciences).

    La première question est de s’interroger sur comment favoriser la réussite scolaire. Il convient d’y répondre en élaborant des programmes de recherche conjoints avec les sciences cognitives, les sciences de l’éducation et les sciences du numérique fondées notamment sur l’IA, le traitement automatique des langues, la robotique, la réalité virtuelle/augmentée. Cette synergie scientifique doit permettre d’élaborer des environnements d’apprentissage adaptés aux caractéristiques individuelles, et encore plus nettement aux personnes en besoin d’adaptation scolaire, en particulier en situation de handicap. Cette démarche s’inscrit dans un vaste programme scientifique autour de la modélisation de l’apprenant en questionnant l’émergence d’une « science computationnelle de l’apprentissage ».

    Passer des opinions à une étude rigoureuse des actions éducatives.

    Il est également nécessaire de s’interroger sur la façon de mesurer précisément les effets induits. Parmi les voies à suivre, nous pouvons mentionner le développement d’études expérimentales rigoureuses menées avec des enseignants ainsi qu’avec des dispositifs numériques de mesure de l’attention et d’états cognitifs/conatifs (motivationnels) (voir ici). Ces mesures s’effectuent à partir d’analyses de traces d’utilisations de logiciels (learning analytics), d’analyses de captations vidéo cherchant à identifier le comportement d’un utilisateur mais également, à terme, avec des interfaces cerveau-ordinateur (BCI, Brain Computer Interface) ou bien avec d’autres signaux physiologiques que ceux liés à l’activité cérébrale. Par exemple, on peut mentionner l’utilisation de mesures biométriques comme la pupillométrie ou encore les électroencéphalogrammes (EEG) utilisés dans l’analyse de l’activité de l’apprenant dans des environnements numériques d’apprentissage comme NetMaths (Ghali&al-2018, note 4 et ici). Il s’agit de développer la théorie en même temps qu’on met en œuvre les approches opérationnelles qui en découlent.

    Parmi ces sujets de recherche, il nous semble particulièrement pertinent d’étudier, en intégrant aussi le point de vue des sciences du numérique, la question de l’amotivation (Sander-2018, note 5), qui est l’une des causes de l’échec scolaire. Une telle initiative permettrait de construire un programme de recherche abordant les volets suivants :

    ● De quoi s’agit-il ? Quels facteurs psychologiques sont engagés ? En se rapprochant notamment de spécialistes en sciences cognitives et de psychologues de l’éducation qui travaillent sur ce sujet depuis des décennies ;

    ● De quoi résulte-t-elle ? Identification des facteurs de l’individu et des facteurs contextuels des « conditions extérieures » (milieu social, conditions familiales, etc.).

    Inria souhaite améliorer la structuration et la visibilité de ses recherches fortement pluridisciplinaires (par exempple ici) sur ce sujet, notamment en développant des partenariats avec des acteurs académiques et économiques, à travers des équipes-projets communes afin de pouvoir construire dans des cycles courts des cadres théoriques, des conditions d’expérimentation pertinentes et de garantir leur diffusion effective et opérationnelle.

    Quelques équipes de recherche Inria ont déjà ouvert la voie comme l’équipe-projet Flowers, et d’autres encore que l’on peut découvrir sur le site web de l’INRIA (ici), sans oublier d’autres équipes de recherche par exemple à Sorbonne Université (Mocah du LIP6) ou à l’université de Lorraine (Kiwi du Loria).

    Chercher c’est bien, prouver c’est mieux : évaluer l’éducation.

    Avoir un impact réel et objectivé nécessite d’avoir une évaluation indiscutable et pour cela de développer des méthodologies rigoureuses d’évaluation du numérique éducatif. Comme l’a rappelé Stanislas Dehaene dans son intervention du 4 novembre lors des EGNE où il a évoqué l’analogie avec l’évaluation dans le domaine de la santé avec les essais cliniques, certaines intégrations passées du numérique ont été réalisées sans évaluation de leurs impacts sur les apprentissages ou bien alors analysées dans le cadre d’expérimentations à portée trop limitée. Face aux défis de la complexité des causes, il est nécessaire de développer des recherches transdisciplinaires aboutissant à des études rigoureuses, produisant des résultats solides sur les effets du numérique éducatif.

    Les équipes de développement de solutions d’envergure telles que Sesamath (ici), ViaScola (ici), Léa (ici) (liste non exhaustive) fonctionnent le plus souvent avec des enseignants chevronnés et entretiennent parfois des collaborations de recherche, tant dans la phase de conception que dans l’évaluation des résultats. Comme exemple caractéristique, citons NetMaths (ici), plateforme interactive québécoise d’apprentissage des mathématiques particulièrement réussie, tant du point de vue des contenus que de celui des collaborations avec la recherche.

    Cette démarche de conception collaborative n’est pas toujours adoptée dès l’analyse des besoins et durant l’élaboration de la solution. Cela empêche par exemple de proposer dans les solutions développées des indicateurs et des traces d’apprentissage (logs) selon un modèle de traces adapté à l’évaluation.

    Pour dépasser les limites actuelles, nous recommandons l’intégration d’une démarche d’évaluation dès la phase de conception. Ces évaluations doivent pouvoir décrire de manière claire et détaillée les usages et la situation d’apprentissage concernés.

    Dans la prise de décision en lien avec le numérique éducatif, il est important de pouvoir apporter des indicateurs en lien avec les résultats de recherche. Comme dans le cas du Nutri-Score, le développement d’indicateurs compréhensibles faciliterait la prise de décision sur les outils EdTechs et leurs contextes d’utilisation.

    Gérard Giraudon (*). Pascal Guitton, (***) Margarida Romero (**), Didier Roy (****) et Thierry Viéville (*) se sont associés pour la rédaction de cette tribune.

    (*) Inria

    (**) Université Côte d’Azur

    (***) Université de Bordeaux & Inria

    (****) Inria & LEARN EPFL

    (1) Proposition n° 10 : Favoriser les projets associant chercheurs et enseignants pour une conception collaborative d’outils adaptés aux besoins de la communauté éducative et une analyse de leurs usages pour mettre à disposition des logiciels dont l’efficacité pour les apprentissages peut être mesurée

    (2) Proposition n° 32 : Aider les laboratoires de recherche et assurer le transfert des innovations dans l’éducation pour développer des solutions numériques en pointe et transférer dans l’éducation les derniers résultats de la recherche académique

    (3) « Du mode d’existence des objets techniques », Gilbert Simondon, collection Analyse et Raisons Aubier éditions Montaigne, 1958 ; à noter qu’il y a eu 3 autres éditions augmentées aux éditions Aubier (1969, 1989, 2012).

    (4) Ghali&al-2018] « Identifying brain characteristics of bright students », Ghali, Ramla, et al. Journal of Intelligent Learning Systems and Applications 10.03 (2018) : 93.

    (5) Sander-2018] : « Les neurosciences en éducation – Mythes et réalité », E. Sander, H. Gros, K. Gvozdic, C. Scheibling-Sève, Edition Retz, 2018″

  • Formation à l’IA – épisode 1 : Elements Of AI

    Nous vous l’avions annoncé ici, Victor Storchan va nous présenter trois initiatives de formation à l’intelligence artificielle (IA).
    Il s’entretient aujourd’hui avec Temuu Roos, Professeur d’IA et de Data Science à l’Université d’Helsinki, sur le MOOC « Elements Of AI” déployé en Finlande. Serge Abiteboul et Thierry Viéville.
    La série: « Introduction« , « Elements Of AI”, “Objectif IA”, « Classcode IAI« .
    La formation/certification à l’IA

    Victor Storchan (VS) : Quelles ont été vos motivations initiales et vos objectifs pour l’élaboration de votre cours en ligne ?

    Teemu Roos (TR): D’une certaine façon, nous voulons permettre aux gens de se lancer dans la technologie de la manière qu’ils jugent la plus appropriée pour eux-même. Certains voudront peut-être commencer à acquérir des compétences qui leur permettront d’évoluer et commencer à résoudre des problèmes par l’IA dans leur travail. Mais plus que cela, nous espérons que les gens pourront se forger leur opinion sur le type de technologie que nous devrions développer et comment cela devrait être réglementé.

    VS: Quel est le public que vous visez ? Quels sont les apports de votre cours pour ce public ?

    TR: En bref, notre cours s’adresse à tout le monde sauf ceux qui travaillent dans la technologie. Cependant, nous avons eu des retours indiquant que même pour ce type de personnes certaines parties du cours couvrant les implications sociétales leurs sont utiles.

    Pour le grand public, le cours propose une introduction en douceur sans nécessiter aucune connaissances techniques a priori.

    VS: Pouvez-vous partager les premiers résultats à ce stade et quelles sont vos perspectives futures ?

    Sur les modèles d’écosystèmes français, finlandais et européen, questions spécifiques selon les partenaires

    TR: Nous avons maintenant plus d’un demi-million d’inscriptions dans plus de 170 pays, et le cours est actuellement classé premier parmi tous les cours d’informatique ou d’IA sur Class Central. Nous venons de lancer le cours de suivi “Building AI”. Notre perspective d’avenir consiste à viser l’objectif de formation de 1% de la population européenne et à terme le monde entier.

    VS: Comment vos ressources participent-elles à la création d’une confiance dans le développement de ces innovations, et aident-elles à développer un esprit critique constructif à ces sujets ?

    Lors d’une déclaration commune en Août 2018, la France et la Finlande ont affirmé leur volonté partagée de “jouer un rôle actif pour promouvoir une vision de l’intelligence artificielle juste, solidaire et centrée sur l’humain, à la fois fondée sur la confiance et facteur de confiance”.

    TR: Nous sommes pleinement attachés à la vision centrée sur l’humain d’une IA européenne digne de confiance : le cours invite le participant à se forger une opinion personnelle, éduquée et critique sur l’IA dès le début. Par exemple, le quatrième exercice demande au participant de critiquer les définitions existantes de l’IA et de proposer une définition qui lui est propre et qu’il juge plus pertinente. Un autre exercice lui demande de trouver des solutions au phénomène dit de « bulle de filtre » sur les réseaux sociaux. Le fait est qu’il n’y a aucune bonne ou mauvaise réponse à ces questions, et qu’aucune de leurs questions n’est notée automatiquement sous forme de questions à choix multiples, contrairement à ce qui est courant dans les MOOC. Au lieu de cela, les participants sont notés par d’autres participants dans un processus d’évaluation par les pairs, afin que chaque participant soit exposé aux pensées et aux arguments des autres.

    Le projet entrepreneurial 

    VS: Quelles difficultés surmonte-t-on pour déployer un projet comme celui-ci ?

    TR: Étant donné que le projet n’est pas seulement un cours en ligne mais une initiative plus large, il implique un réseau de collaboration étendu avec plusieurs partenaires dans chaque pays. Cela vient avec des frais généraux de coordination qui sont importants et nécessite des levées de fonds. Le projet, qui est un mélange de politiques éducatives, scientifiques, industrielles, publiques, et de communication est tout à fait unique dans son genre. Ceci rend difficile de le placer dans les catégories de projets déjà existantes.

    VS: Pour “Elements of AI” qui est en train d’être déployé en Europe, quelles sont les difficultés spécifiques que l’on rencontre lors du passage à l’échelle européenne ?

    TR:  Le projet a reçu un énorme soutien de la Commission européenne et d’autres acteurs ainsi que de nos partenaires locaux dans chaque pays de l’UE, donc d’une certaine manière cela a peut-être été moins douloureux que prévu. Bien entendu, coordonner le projet est une tâche colossale. Il y a eu des problèmes mineurs liés à l’appariement de notre « marque » avec diverses organisations nationales et initiatives – par exemple, nous voulons garder le contrôle de toute publication dans le cadre de la marque “Elements of AI”. Cela signifie que nous ne pouvons pas systématiquement accepter les contenus que nous suggèrent nos partenaires dans les différents pays. À terme, nous aimerions bien sûr poursuivre la co-création de contenus éventuellement sous une marque commune avec nos merveilleux partenaires nationaux. Mais le l’ampleur et l’urgence du projet ont jusqu’à présent mis ces plans en suspens.

    Note: Elements Of AI a reçu des fonds européens pour être traduit dans toutes les langues européennes.

    Les modèles d’écosystèmes

    VS: Au-delà de la formation, quels sont les atouts et les faiblesses de l’Europe pour peser dans la compétition technologique mondiale ? La dynamique européenne sur l’IA actuelle est-elle suffisamment ambitieuse ?

    TR:  La fragmentation de l’industrie est probablement le facteur le plus important. Il a des retombées sur la capacité de retenir les talents et les investissements en Europe. Au lieu de ça, on observe un mouvement des experts vers les États-Unis, notamment lors de montées en puissance appuyées par des fonds de capital-risque américains. L’Europe peut faire beaucoup mieux en tirant parti d’une main-d’œuvre qualifiée et d’institutions de recherche de qualité.

    VS: Une récente étude McKinsey a identifié la Finlande (avec 8 autres pays nordiques) comme pouvant prendre le leadership sur le numérique européen. Comment décririez-vous les spécificités de l’écosystème finlandais ? 

    TR: L’écosystème finlandais a récemment investi considérablement dans la numérisation à tous les étages. Les investissements en IA commencent peut-être seulement maintenant à augmenter en volume, mais le bon positionnement stratégique sur le numérique offre un environnement fertile pour un bon retour sur investissement de l’IA. Il convient de noter que ce ne sont pas seulement les industries des TIC (Technologies de l’information et de la communication) et des jeux qui sont manifestement « nées du numérique », les piliers traditionnels de l’industrie finlandaise (foresterie, industrie, maritime, construction) sont également bien préparés.

    VS: Votre initiative crée donc un lien éducation et IA, quels sont les liens à renforcer entre IA et éducation  (par exemple apprentissage de l’IA dans le secondaire)  et éducation et IA (par exemple des assistants algorithmiques), et quels sont les impacts socio-économiques visés ?

    TR: Je crois qu’il est le plus important d’apprendre les bases au secondaire : les mathématiques, le numérique, et peut-être la programmation. Si l’IA peut être introduite à ce niveau dans une certaine mesure, elle devrait l’être sous l’angle de la “littératie numérique” plutôt que par la dimension technique. Personnellement, je suis assez vieille école quand on parle d’éducation. Je vois une certaine valeur à appliquer l’IA dans l’éducation personnalisée. Par exemple, les applications d’apprentissage des langues telles que Duolingo sont bonnes parce que l’apprentissage de la langue exige la répétition, la répétition, et encore la répétition. Mais je pense toujours que dans l’ensemble, l’éducation nécessite une interaction interhumaine.

    VS: Confier à des algorithmes des tâches qui mènent à des décisions cruciales, par exemple en matière de justice, d’embauche, ou d’autres décisions à forte conséquence humaine, questionne, quel est votre positionnement sur ce sujet ? Quelle place pensez-vous que l’éthique doit prendre dans votre enseignement ?

    TR: L’IA centrée sur l’humain est le concept clé ici. Nous devons toujours évaluer les conséquences du déploiement des systèmes d’IA d’une manière qui englobe l’ensemble du système : comment s’opère l’interaction souvent complexe et dynamique entre le système, ses opérateurs et ses utilisateurs. Il ne suffit pas de tester le logiciel indépendamment de son contexte.

    VS: Le fait que des tâches cognitives de plus en plus complexes soient réalisées par des programmes nous amène-t-il à reconsidérer l’intelligence humaine ? Est-ce cela a des impacts sur notre vision de l’IA ? Sur son enseignement ?

    TR: Je considère toujours l’IA comme un outil. L’utilisation de l’outil libère les humains pour faire plus de tâches « humaines ».

    VS: Nous vivons au temps des algorithmes. Quelle place voulons-nous accorder aux algorithmes dans la “cité” ? Est-ce que cela nous conduit à repenser cette cité ? Comment mieux nous préparer au monde de demain?

    TR: Comme je l’ai dit, je considère l’IA et les algorithmes comme des outils (certes complexes) et leur place devrait se limiter à celle qu’ont les outils dans notre société.

     

     

  • Formation à l’intelligence artificielle : la bande annonce

    La formation des Européens aux enjeux technologiques et en particulier leur acculturation aux défis transverses de l’intelligence artificielle (IA) sont devenus des éléments incontournables des différentes stratégies IA présentées ces dernières années par les États membres de l’Union. Les défis sont de taille. Victor Storchan devient journaliste pour nous et nous propose une série d’articles pour nous présenter plusieurs initiatives. Serge Abiteboul et Thierry Viéville.

    La série: « Introduction« , « Elements Of AI”, “Objectif IA”, « Classcode IAI« .

    Oui, les défis sont de taille. Il s’agit d’abord de garantir que chacun pourra, dans sa vie professionnelle, maîtriser les connaissances indispensables pour  travailler dans un environnement de travail où l’IA sera omniprésente. Chacun aura aussi à comprendre le monde dans lequel il vit pour être un citoyen pleinement éclairé.  Pour ce qui est de l’IA, les approches participatives et inclusives entre les utilisateurs avertis et les concepteurs des modèles d’IA sont indispensables au développement d’une IA de confiance, respectueuse de la vie privée, transparente et non-discriminante. La formation en IA a donc un rôle considérable à jouer.

    Mais quelle formation ? Nous présentons un regard croisé entre trois telles formations. Le but est  de partager les motivations, les premiers résultats, les visions de trois écosystèmes :

    Temuu Roos, le créateur du MOOC « Elements Of AI”, parle de la genèse de ce cours en Finlande, puis sur son déploiement dans toute l’Europe et son ambition de former 1% de la population de l’Union. 

    Théophile Lenoir et Milo Rignell partagent leur objectif de former le plus grand nombre de français aux fondamentaux de l’IA avec le MOOC “Objectif IA”.

    Frédéric Alexandre, Marie-Hélène Comte, Martine Courbin-Coulaud et Bastien Masse, décrivent la plateforme de formation ``IAI´´ de ClassCode du Inria Learning Lab.

    Ces regards croisés permettent de saisir les enjeux, et de comprendre la complémentarité de ces trois approches. Ils permettent également de questionner les parcours entrepreneuriaux de chacun et le rôle des écosystèmes finlandais, français et européens dans le processus de déploiement d’un contenu pédagogique qui bénéficie au plus grand nombre. 

    Victor Storchan, Ingénieur en IA.

  • Les hauts de Otesia

    Lorsqu’on parle d’intelligence artificielle, surgit très souvent le problème de la définition de ce que cette notion recouvre, en opposition ou en complément à une intelligence dite « humaine ». Profitant des travaux sur la formalisation d’une intelligence mécanique et de nombreux outils développés dans ce cadre, abordons la question passionnante de la modélisation de l’intelligence humaine ! Regardons ici comment quelques scientifiques essayent d’aborder cette question.  Antoine Rousseau

    Promouvoir une Intelligence Artificielle (IA) responsable et éthique en ouvrant une réflexion approfondie sur l’IA, par exemple la manière dont elle va impacter les différents aspects de la société, l’Observatoire des Impacts Technologiques Économiques et Sociétaux de l’Intelligence Artificielle (OTESIA) de la Côte d’Azur en a fait sa mission.

    Comprendre pour maîtriser et non subir

    Pour bien profiter de ce que l’IA propose, il faut comprendre comment ça marche, et ce n’est pas uniquement un enjeu technologique : nous devons développer nos compétences en matière de pensée informatique, c’est à dire bien comprendre ce qui peut être mécanisé au niveau du traitement de l’information (d’où le mot “informatique”), pour justement que notre pensée humaine ne se limite pas à cela. 

    Nous savons que plus le problème à résoudre est spécifique, plus une méthode algorithmique sera efficace, possiblement plus que la cognition humaine, tandis qu’à l’inverse plus le problème à résoudre est général, moins un algorithme ne pourra intrinsèquement être performant, quelle que soit la solution.

    C’est une double approche, créative et d’esprit critique, vis-à-vis du numérique. Nous y contribuons avec ClassCode. On y montre aussi que le développement de l’intelligence artificielle modifie notre vision de ce que peut être l’intelligence humaine.

    ©4minutes34.com

    On se pose souvent la question “symétrique” de savoir si une machine peut être ou devenir intelligente : le débat est interminable, car – en gros – il suffit de changer la définition de ce que l’on appelle intelligence pour répondre “oui, pourquoi-pas” ou au contraire “non, jamais”. La vraie définition de l’IA est de “faire faire à une machine ce qui aurait été intelligent si réalisé par un humain”, ce qui évite de considérer cette question mal posée. 

    L’intelligence artificielle comme modèle de l’intelligence naturelle

    L’IA permet aussi de mieux étudier notre intelligence. Pas uniquement en fournissant des techniques pour améliorer l’apprentissage d’une personne, mais aussi en tentant de mieux comprendre les apprentissages humains. En effet, pour faire fonctionner des intelligences algorithmiques on dispose de modèles de l’apprentissage mécanique, de plus en plus sophistiqués. Dans quelle mesure peuvent-ils aussi aider à modéliser l’apprentissage humain pour mieux l’appréhender ?

    Pour répondre à cette question, le projet AIDE construit un formalisme, une ontologie, permettant de réaliser une modélisation de la personne apprenante, de la tâche et des observables au cours de l’activité, ceci afin de développer un modèle applicable aux données qui puisse être exploité pour les analyser avec des approches computationnelles, et modéliser les tâches de résolution créative de problèmes.

    Modéliser la tâche d’apprentissage et se donner des observables

    Pour cela, il faut observer les traces d’apprentissage, avoir des sources de mesure. Ces traces d’apprentissages sont relevées lors de l’utilisation d’un logiciel (mesure des déplacements de la souris, des saisies au clavier…), en analysant des vidéos des activités, mais aussi grâce à des capteurs employés dans des situations pédagogiques sans ordinateur (par exemple une activité physique dans une cours d’école, observée avec des capteurs visuels ou corporels). Exploiter ces mesures impose alors non seulement de formaliser la tâche d’apprentissage elle-même, mais en plus, de modéliser la personne apprenante (pas dans sa globalité bien entendu, mais dans le contexte de la tâche).

    Une approche pluridisciplinaire

    L’apprenant·e est ainsi modélisé·e à partir de connaissances issues des neurosciences cognitives. Dans ce cadre, on structure les facultés cognitives humaines selon deux dimensions.

    La première dimension prend en compte les différentes formes d’association entre entrées sensorielles externes ou internes et les réponses à y apporter, des plus simples (schémas sensori-moteurs, comportements liés aux habitudes) aux plus complexes (comportements dirigés par un but, décisions après délibérations ou raisonnements).

    La deuxième dimension prend en compte le fait que ces associations peuvent être apprises et exécutées pour quatre différentes classes de motivations (pour aider à identifier un ‘objet’ de l’environnement comme but possible du comportement, pour le localiser ou y prêter attention, pour le manipuler ou encore pour définir en quoi il répond à une motivation). 

    Cette modélisation inscrit ces différents concepts au sein de l’architecture cérébrale, permettant de spécifier ainsi le rôle fonctionnel de ces régions (cortex préfrontal, boucles impliquant les ganglions de la base, incluant l’amygdale, en lien avec le thalamus et l’hippocampe). 

    En explicitant les différentes fonctionnalités liées à ces deux dimensions, on rend compte de nombreuses fonctions cognitives, en particulier relatives à la résolution de problèmes. Il s’agit donc d’un cadre de description intéressant car il est structuré, relativement compact et rend compte de ce qui semble s’être développé pour élaborer l’architecture cognitive du cerveau.

    Ontologie et modèle de données pour l’étude d’une activité d’apprentissage médiatisée par des robots pédagogiques (Romero, Viéville & Heiser, 2021). 

    Un exemple de questionnement : exploration versus exploitation

    Dans des activités de résolution de problèmes, on peut considérer que les sujets alternent entre deux principaux modes de raisonnement : l’exploration vise à “expérimenter des nouvelles alternatives” pour générer de nouvelles connaissances (par exemple la recombinaison de connaissances pour développer une nouvelle idée), tandis que l’exploitation est l’usage des connaissances (déclaratives, procédurales) existantes dans une situation donnée. 

    Dans une situation que le sujet reconnaît comme familière, le sujet peut exploiter ses connaissances pour résoudre la situation existante s’il vise un objectif de performance (performance goal). Mais, dans cette même situation, il pourrait également décider d’explorer la situation de manière différente s’il a des buts de maîtrise ou, même, si au moment de développer une première solution, il avait envisagé plusieurs idées de solution qu’il avait laissées de côté au moment de réussir la situation-problème une première fois. 

    Dans des situations problèmes, le sujet est face à une double-incertitude, sur la manière mais aussi sur les moyens d’arriver au but. Dans ces circonstances, les connaissances (déclaratives et procédurales) pour arriver au but ne sont pas clairement structurées et le sujet se doit d’explorer les moyens à sa disposition pour pouvoir développer des connaissances lui permettant de développer une idée de solution.

    La régulation des modes exploration/exploitation pour accomplir la tâche.

    Les tâches simples nécessitent juste l’exploitation, cependant, les tâches plus complexes nécessiteraient l’exploration pour être complétées, nécessitant ainsi de pouvoir combiner les deux modes.

    Exploration et exploitation selon la (mé)connaissance des moyens en lien aux objectifs (Busscher et al 2019).

    Ce domaine en est encore à ses débuts et des actions de recherches exploratoires qui allient sciences de l’éducation, sciences du numérique (dont intelligence artificielle symbolique et numérique) et neurosciences cognitives se développent.

    Au-delà de ce projet, dans le cadre d’OTESIA, on étudie aussi l’impact de l’apprentissage machine sur les compétences professionnelles pour contribuer à une compréhension des processus d’apprentissage par lesquels les entreprises développent de nouvelles capacités technologiques, c’est un autre projet. Par ailleurs, les liens entre IA et santé, pour décrypter les multiples dimensions et impacts de l’usage du numérique dans les établissements médico-sociaux, notamment les EHPAD, et analyser le lien entre soin et numérique sont aussi étudiés. Enfin, la prévention du cyber-harcèlement et de la cyber-haine, à travers le développement d’un logiciel de détection des messages haineux à partir d’une analyse du langage naturel pour comprendre permettre aux victimes de développer leur esprit critique et un contre-discours pour une meilleure lutte contre ce fléau.

    Lisa Roux, Margarida Romero, Frédéric Alexandre et Thierry Viéville.

     

    En savoir plus :

    Développement d’une ontologie pour l’analyse d’observables de l’apprenant dans le contexte d’une tâche avec des robots modulaire

    Class´Code IAI :  Ouvert en avril 2020, le Mooc Class’Code IAI “Intelligence Artificielle avec Intelligence” offre une initiation à l’Intelligence artificielle, gratuite et attestée, via une formation citoyenne qui a attiré jusqu’à présent plus de 18800 personnes. Son approche ludique et pratique et la diversité de ses supports –  vidéos conçues avec humour, tutos et activités pour manipuler, ressources textuelles pour aller plus loin, un forum pour échanger et enfin des exercices pour s’évaluer – a  remporté un grand succès chez nos mooqueurs et mooqueuses qui se disent satisfaits à plus de 94%.

  • Bienvenue dans la communauté d’apprentissage de l’informatique

    L’enseignement de l’informatique est un enjeu majeur dans la formation des adultes de demain. Dans cette société où la technologie est de plus en plus présente, cet enseignement commence seulement à arriver dans nos pays francophones. L’équipe de CAI (Communauté d’Apprentissage de l’Informatique) nous présente son initiative. Lonni Besançon

    Dans ce contexte, le projet de Communauté d’Apprentissage de l’Informatique (CAI) vise la mise en communauté d’enseignant·e·s pour faciliter la découverte de l’informatique et leur permettre d’accéder aux outils nécessaires pour son enseignement aux élèves de 10 à 18 ans : entraide entre enseignant·e·s et autres professionnel·le·s de l’éducation, partages d’expériences et de ressources pédagogiques, co-construction de projets, via une méta-plateforme https://cai.community en phase de déploiement.

    C’est par exemple le cas du projet Canopé de “Collection Open Badges Robotique Educative” à propos de robotique éducative ou de nos #CAIchat qui permettent de partager sur des sujets comme «Informatique et société» ou l’enseignement du Numérique et Sciences Informatiques (NSI) au niveau lycée. À bientôt à Ludovia pour se rencontrer sur ces sujets.

    Qu’y fait-on concrètement ?

    On y partage, identifie, évalue ou construit des ressources; on échange, s’accompagne et partage nos pratiques; on se donne des rendez-vous et on se rencontre pour s’entraider sur internet ou les territoires. Tout est librement réutilisable en CC-BY et CeCILL-C.

    Nous sommes au service des enseignant·e·s et éducatrices et éducateurs francophones au sens large, toute personne intéressée (ex: parent) est bienvenue. Nous sommes régis par une charte qui tient en quelques mots :

     #entraide #partage #bienveillance
    #respect-mutuel  #esprit-critique #humour:)

    Une vue de la plateforme résultat de la réflexion partagées ici et des spécifications proposées, on y voit le choix d’une présentation minimale, les différentes rubriques qui correspondent aux fonctionnalités proposées ici et le lien avec les réseaux sociaux les plus usités par les personnes qui vont l’utiliser.

    Comment ça marche ?

    Très simplement 😉

    1/ on édite et consulte des “ressources” (de formation, activités, outils logiciels, …) qui sont définis par des méta-données, et peuvent former des “parcours”; on trouve aussi des profils de personnes (avec qui on partage et s’entraide), des “rendez-vous” (en ligne ou sur un territoire), ou des simples “brèves” (actualité, bonne-feuille, liens utiles, …).

    2/ on “partage” sur des fils de discussion qui sont structurés en catégories et s’ouvrent et se ferment selon nos besoins, on y pose des questions, on y propose des retours sur les ressources, on y invite à co-créer des ressources, on y organise des rendez-vous en ligne ou sur un territoire


    Une vue de la page de ressources, on peut rechercher une ressource par recherche textuelle, différentes métadonnées, et il y a aussi la possibilité d’une aide pour rechercher un ressource, en proposer, ou en co-créer.

    À quel niveau aider les collègues enseignant·e·s ?

    Notre projet cherche simplement à offrir ce qui semble manquer dans l’écosystème actuel.

    Assistance documentaire : beaucoup de belles ressources, partagées au fil de messages sur des mailing listes, ont besoin d’être thésaurisées et recevoir des métadonnées permettant de facilement les retrouver. Pour couvrir ce besoin, il faut un référentiel de référencement et une véritable aide humaine documentaire avec un support en matière de secrétariat numérique.

    Espaces de co-construction : les ressources actuelles sont majoritairement individuelles ou le fait de petites équipes locales, à contrario de produits comme les ouvrages scolaires ou les ressources numériques issues de travaux d’équipes qui permettent de rassembler une intelligence collective. Pour couvrir ce besoin il faut proposer un process et des outils usuels de travail collaboratif.

    • Bureau d’accueil individuel : il y a un vrai besoin de contact “personnel” en contrepoint des discussions collectives, pour des problèmes spécifiques ou moins faciles à exprimer publiquement, ou des demandes dont la formulation est encore préliminaire. Pour couvrir ce besoin, une personne animatrice de communauté est disponible.

    Service pour les rencontres hybrides : au-delà des échanges asynchrones (mails ou forum) le besoin de rencontres en ligne ou sur un territoire est couvert de manière un peu disparate, et (i) une solution de rendez-vous en ligne est proposée: ouverte, sécurisée et facile d’utilisation tandis qu’un (ii) outil minimal connectable aux agendas numériques usuels permettant de poser des rendez-vous est déployé.

    Navigation entre plateformes : entre les dialogues par courriels, utilisation des réseaux sociaux, sites webs personnels sous forme de blogs, de dépôts de ressources ou de banques, multiples outils d’échange et co-travail synchrone en ligne, il y a vraiment besoin de mettre en lien ces différents espaces de ressources, partages ou rendez-vous. Pour couvrir ce besoin, une méta-plateforme est déployée à capot ouvert .

    https://cai.community

    Maintenant que l’on commence à enseigner l’informatique en secondaire et primaire, il faut surtout se demander comment le monde de l’enseignement supérieur et de la recherche peut continuer de s’orienter au service et aider à la continuation de la réussite de cette mutation.

    Les initiatives sont multiples, et la présente est une des briques de ce mouvement de soutien à ce qui va permettre à nos enfants, avec l’aide des enseignants, de maîtriser le numérique, en apprenant les bases de l’informatique.

    Pour en savoir plus : https://hal.inria.fr/hal-02994175v3

    Olivier Goletti et toute l’équipe de CAI.

     

  • Éducation et numérique : quels défis et quels enjeux ?

    Éducation et numérique : deux domaines de plus en plus fréquemment associés, a minima pour en débattre. Entre les farouchement « pour » et les non moins motivés « contre », il est souvent difficile d’appréhender les véritables défis et enjeux posés par ce sujet pourtant vraiment central pour notre société. C’est pour participer à ce débat que des chercheur.e.s, tant des sciences du numérique que des sciences de l’éducation, ont entrepris la rédaction d’un livre blanc consacré à l’éducation et au numérique (disponible sur HAL) en apportant des éléments factuels sur la situation, en faisant le point sur les recherches actuelles et enfin en émettant une série de recommandations notamment pour contribuer à lutter contre l’échec scolaire. Binaire.

    La crise liée à la pandémie de Covid-19 est survenue au moment de la finalisation du document et bien entendu, nous nous sommes interrogés sur notre projet. Était-il toujours d’actualité ? Le contenu était-il toujours pertinent ? Quels ont été les usages et les limites du numérique pour soutenir la continuité pédagogique pendant la crise ? De nouvelles questions de recherche sont-elles posées ? Autant d’interrogations qui nous ont conduits à un travail supplémentaire de réflexion.

    Cette réflexion a tout d’abord débouché sur la mise en lumière, encore plus criante, des inégalités que nous avions placées au cœur de notre document posant de façon encore plus explicite la question de l’inclusion numérique. En effet, que ce soit pour l’Éducation nationale, l’Enseignement supérieur et plus généralement pour toutes les formations, dans cette période de crise, la continuité pédagogique les a encore accrues pour des raisons diverses et souvent cumulatives :

    Conditions matérielles : la mise en place de cours en ligne a davantage souligné les effets réels de la fracture numérique avec la présence d’un seul ordinateur (voire pas du tout) pour une famille entière et/ou une connexion internet défaillante (voire absente) ;

    Perte de soutien : naturellement les élèves en situation d’échec scolaire, d’isolement social et/ou de handicap ont été les plus touchés car le confinement les a empêchés de bénéficier des soutiens humains qui leur permettaient de compenser – au moins partiellement – leurs difficultés ;

    Contexte social : la présence et l’engagement inégal de parents pouvant aider à organiser le travail, à expliquer les consignes et à soutenir les enseignements complexes ont été encore plus déterminants qu’à l’habitude.

    Plus largement, le déploiement d’outils pour assurer la continuité pédagogique n’est qu’un prérequis mais il a parfois été considéré comme suffisant pour le retour à un niveau d’enseignement opérationnel, alors que certains élèves (et en particulier des étudiants) se retrouvaient plongés dans un état d’isolement ou de précarité qui leur interdisait de penser à leurs études. Mentionnons également que certains enseignants, s’ils pouvaient envoyer du matériel pédagogique, n’arrivaient pas à retrouver le niveau de contact leur permettant d’identifier des problèmes ; autrement dit, ces outils, souvent conçus comme un accompagnement au présentiel et non pour un enseignement à distance, n’avaient peut-être pas été suffisamment pensés pour procurer des retours, y compris émotionnels voire existentiels, des apprenants.

    Le deuxième axe de notre réflexion a été l’analyse (partielle et sûrement imparfaite à cause du recul trop court) du comportement des systèmes numériques liés à l’éducation offerts aux élèves et au monde enseignant. Commençons par les outils et les plates-formes : il nous semble que ce bilan est mitigé. D’une part, des outils préconisés par les structures de formation qui, malgré la très forte implication d’individus tentant de les maintenir à flot, ont connu beaucoup de difficultés et se sont révélés inadaptés dans de nombreuses situations. D’autre part, afin d’assurer une présence pédagogique, beaucoup d’enseignants et d’enseignantes, parfois conseillés par leurs élèves et/ou leurs enfants, ont plébiscité des plates-formes permettant de mettre à disposition des contenus, d’entretenir des échanges, voire de dispenser quelques cours. Enfin, il faut absolument mettre en exergue de très belles initiatives animées par des enseignants et enseignantes afin de pallier les difficultés d’outils ou de contenus peu adaptés aux besoins immédiats.

    À partir de cette analyse, le troisième axe de notre réflexion nous a conduits à lister les forces et les faiblesses des usages associés à cet environnement numérique dédié à l’éducation.

    – En tout premier lieu, rappelons que la relation forte entre les enseignants et leurs élèves est absolument fondamentale et que les pratiques se bornant à consulter des plates-formes délivrant de façon dépersonnalisée des contenus sont vouées à l’échec à moins que l’élève n’ait une motivation hors du commun. La situation actuelle souligne la nécessité de développer des nouvelles collaborations entre les enseignants, les élèves et les parents pour soutenir l’apprentissage des élèves et fait apparaître le défi de penser les modalités de la formation tant synchrone qu’asynchrone. Mais le fait de développer de nouvelles modalités scolaires en temps et en espace nécessitera une adaptation tant de la part des enseignants que des élèves et de leur famille.

    – Ensuite, la nécessité d’un recours massif aux pratiques numériques a souligné le déficit de formation d’une partie du monde enseignant ; on parle ici d’abord de la capacité à concevoir son usage au service d’une pratique pédagogique, ce qui sous-entend aussi la capacité à « faire fonctionner » un logiciel. Cette réflexion entraîne un écho d’abord individuel mais aussi collectif. Une des difficultés pour les élèves a été de s’adapter et de jongler entre les approches très diverses de leurs enseignants : récupérer des consignes sur ProNote, passer de Skype à Discord pour suivre un cours, après être allé récupérer des fichiers pdf ou audio sur Moodle et avoir envoyé une évaluation par e-mail a constitué un redoutable parcours du combattant, souvent hors de portée d’élèves en échec scolaire et/ou en situation de handicap pour lesquels la quasi-totalité des outils est inaccessible. Il ne s’agit pas de critiquer ces décisions prises dans l’urgence mais simplement de les mettre en lumière pour motiver très rapidement une réflexion de fond sur l’accompagnement des pratiques pédagogiques soutenues par le numérique.

    – Il faut également insister sur les problèmes importants liés à la souveraineté numérique nationale et européenne face aux géants américains voire asiatiques, notamment en lien à la confidentialité des données personnelles que pose l’utilisation de systèmes présentés comme gratuits mais dont la rentabilité est basée sur la monétisation de ces informations. Même si l’usage de tels outils s’explique, par facilité ou par économie, cela démontre, encore plus fortement en temps de crise, combien manquent des alternatives nationales ou européennes, offrant la sécurité des données comme élément de décision et donc pas uniquement la performance. De manière plus globale, c’est aussi une nouvelle illustration du manque de formation au numérique.  Il est fondamental que le recours à ces systèmes soit très restreint, limité dans le temps et surtout qu’une fois la crise surmontée, de vraies réflexions soient menées et des formations proposées pour savoir choisir les « bonnes » solutions.

    – Enfin, et ce n’est pas le moins important, si des enseignants et des formateurs ont su se mobiliser pour développer de belles initiatives, il est crucial que collectivement nous reconnaissions tant les actions que leurs auteurs, et que la société et les institutions commencent rapidement à les soutenir afin d’assurer leur pérennité. On parle ici explicitement d’introduire plus d’agilité (au sens informatique du terme) dans le fonctionnement de l’Éducation nationale afin qu’elle ne reste pas dans le seul modèle descendant (top-down) qui prévaut trop souvent et qui n’est manifestement pas le plus efficace face au besoin d’adaptation dans un contexte de disruption dans les modalités d’apprentissage.

    Le passage d’un modèle de formation principalement présentiel à un modèle totalement distanciel, sans transition ni réflexion préalable, a conduit à une adoption massive du numérique pour assurer la continuité pédagogique aux différents niveaux éducatifs. Cette disruption a entraîné l’ensemble des acteurs à l’appropriation des outils numériques, comme les environnements numériques de travail (ENT). Le développement des usages du numérique, même si adoptés en raison de la nécessité liée à la fermeture des centres éducatifs, permet d’envisager pour l’après confinement, des compétences numériques davantage développées qui puissent permettre à un plus grand nombre d’enseignants de considérer les usages du numérique dans leurs pratiques éducatives.

     

    Forts de cette réflexion, nous partageons avec les lecteurs de Binaire ce document et espérons que vous aurez autant de plaisir à le découvrir que nous en avons eu à le rédiger.

    Gérard Giraudon – Pascal Guitton – Margarida Romero – Didier Roy – Thierry Viéville, avec la participation de Gilles Dowek – Fabien Gandon – Marc Schoenauer et les contributions de Frédéric Alexandre – Francis Bach – Anne Boyer – Bertrand Braunschweig – Marie-Claire Forgue – Martin Hachet – Jean-Marc Hasenfratz – Fabien Lotte – Florent Masseglia – Pierre-Yves Oudeyer – Jean-Baptiste Piacentino – Sophie Raisin – Jil-Jênn VIE.

     

  • Écran total pour les élèves

    Binaire s’intéresse particulièrement à l’apport du numérique dans l’enseignement, ici la mise à disposition de tablettes et de PC. Dans ce cadre, Serge Abiteboul et Guy Daroles interviewent Bertrand Caillaud, directeur technique de Unowhy, un des gros fournisseurs français de tels objets pour l’enseignement. A l’heure des confinements et de l’enseignement à distance, le sujet est certainement d’actualité.
    Nous sommes bien en présence d’une entreprise française qui montre que la dépendance aux grands fabricants mondiaux de matériel informatique n’est pas inéluctable.

     

    Tablette QOOQ « historique »

    binaire : Vous avez commencé en fabriquant la Tablet QOOQ pour les recettes de cuisine. Maintenant Unowhy est un des acteurs incontournables dans le domaine du matériel informatique pour l’éducation en France.

    BC : En 2019, nous avons fourni 40 000 PC et 160 000 tablettes dans des lycées, collèges et écoles. Un de nos gros clients, c’est la région Île-de-France.

    binaire : Ça fait au moins deux systèmes d’exploitation à faire vivre, un pour PC, un pour tablette.

    BC : Oui. Nous avons choisi Windows 10 pour PC et Android pour tablettes.

    Tablette et PC pour l’Île-de-France, Site web de Unowhy

    binaire : Des PC et des tablettes. Qui choisit entre les deux ? Et comment choisit ?

    Site web de Unowhy

    BC : Ce sont deux usages très différents l’un, la tablette, plus orienté sur une production simple et la consultation de contenu tel que les manuels, l’autre, le PC, plus complexe à appréhender pour les élèves mais facilitant la production de contenus. On peut aussi considérer que la robustesse et la mobilité de la tablette sied mieux à certains usages (enfant plus jeune, usage en atelier …).

    Site web de Unowhy

    Pour les jeunes élèves (jusqu’à la fin du collège) la majorité des demandes va vers la tablette, là ou pour les plus âgés lycéen et supérieur la tendance penche largement vers le PC. Le PC est me semble-t-il un bon outil pour le lycéen et lui propose un outil qu’il utilisera avec certitude dans sa future vie professionnelle ou étudiante

    binaire : Pourquoi pas Linux ?

    BC : On a essayé une distribution Linux : Ubuntu dans nos premières expérimentations éducatives. Mais le catalogue d’applications disponibles ne suffisait pas aux besoins. Les applis historiques de l’Éducation nationale sont sur Windows. Par exemple, quasiment aucun des lecteurs de manuels scolaires n’est disponible sur Linux.

    binaire : Est-ce que le logiciel est une partie importante du coût de vos machines ? Qu’est-ce que vous mettez comme logiciels ?

    Site web de Unowhy

    BC : Le logiciel et les services c’est environ 30% du coût. Il y a l’OS. Pour l’enseignement, Windows 10 et Android ne sont pas chers du tout. Vous avez aussi des applications et puis le logiciel Unowhy qui permet d’inventorier les machines, de déployer des logiciels, de gérer le parc, et en particulier suivre chaque machine. Un agent peut piloter tous ces matériels depuis nos bureaux. On veut aussi pouvoir adapter un look and feel aux demandes d’un client, par exemple, quand vous avez entre les mains une tablette fournie par une région IdF, vous savez immédiatement d’où elle vient

    binaire : De quels outils dispose-t-on sur un de vos PC ?

    BC : Typiquement, l’OS Windows 10, Libre office, une dizaine d’applications open source, l’accès en ligne à l’ENT (Espace numérique de travail).  Et puis, un prof peut déployer un logiciel particulier, par exemple Scratch, sur les machines de tous les élèves d’une classe, ou juste un groupe. Nous mettons à disposition des dizaines d’applications sur notre outil de gestion de parc, ce volume augmente en permanence.

    binaire : Et pour ce qui est de la sécurité ?

    BC : Un sujet complexe est celui de l’authentification. Pour l’Île-de-France, on utilise les comptes de l’ENT, un logiciel d’authentification open-source, et un pont avec les systèmes d’authentification de Microsoft et Android. Ensuite, on doit obéir au RGPD pour la protection des données personnelles. On applique le principe de minimisation des données personnelles : une application n’a accès qu’aux données dont elle a absolument besoin. Et puis, toutes nos données sont stockées en France, dans les data centers sécurisés d’OVH.

    binaire : Et le matériel. Comment et où est-il construit ?

    BC : On a essayé la conception et la fabrication, tout en France. Et puis tout en Asie. À chaque fois, on a été confronté à de nombreux soucis. Aujourd’hui la fabrication est en Chine, mais la conception et le contrôle qualité sont français. On veut des matériels hyper résistants pour des raisons évidentes. Ça fonctionne bien. On considère aussi la possibilité de réaliser l’assemblage en France pour le matériel « Île-de-France », ce qu’on fait déjà pour les tablettes destinées aux écoles et au collèges. Mais ça ce n’est pas simple à cause du coût supérieur de la main d’œuvre. Il faut introduire plus d’automatisation.

    binaire : Qu’en est-il du développement durable ?

    BC : Le numérique durable et éco-responsable est un enjeux important pour nous. Outre le gain immédiat et un peu évidement de la possibilité du presque zéro papier dans un système éducatif numérique, nous portons une attention particulière à :

    – l’utilisation de matières recyclées quand c’est possible ; cela nous demande des efforts en particulier quand nous produisons en Asie où ces préoccupation sont loin d’être d’actualité.
    – la réduction des emballages au maximum ; nous privilégions pour tous nos client « Éducation » la livraison dans un emballage bulk  de 5 ou 10 machines par cartons,  ce qui diminue les volumes transportés et le volume d’emballage.
    – la durabilité et la réparabilité des produits ; comme nous travaillons avec les collectivités sur un temps long (au delà de 5 ans, parfois) avec une maintenance incluse dans nos offres, c’est aussi notre intérêt de faire des choix de conceptions  dans ce sens, même si c’est parfois un challenge face au désir d’avoir des machines toujours plus fines et plus intégrées.

    binaire : L’écosystème des matériels éducatifs est complexe. Le fait que différents ENT, différentes entreprises développent indépendamment des solutions en concurrence, n’est-ce pas une cause d’inefficacité ? Et puis, la distribution des responsabilités entre différents acteurs, l’Éducation nationale, les régions, les départements, n’est-ce pas aussi une cause d’inefficacité ?

    BC : Cette concurrence est un aiguillon pour aller vers plus d’innovation, de créativité. Par contre, le fait que les responsabilités soient partagées complique parfois les choses. Par exemple, le fait que les collectivités aient autant d’espace de décision dans le dispositif. C’est super quand vous avez à faire à une collectivité dynamique qui a placé le numérique dans ses priorités. Mais ce n’est pas toujours le cas. Cela induit des inégalités considérables entre les territoires.

    binaire : Dans votre gros contrat avec la région Île-de-France, vous intervenez comme sous-traitant de La Poste. Ça peut paraître surprenant.

    BC : Le projet est énorme et c’est bien de pouvoir s’appuyer sur une entreprise de la taille de La Poste, très motrice dans le numérique. Et puis quand vous devez déployer du matériel dans 600 lycées en 3 semaines, vous êtes contents de pouvoir vous appuyer sur un réseau de postiers qui couvre le territoire.

    Serge Abiteboul, Inria et ENS, Paris, Guy Daroles, Directeur de projet Monlycee.net Région Île-de-France

  • Quels sont les liens entre IA et Éducation ?

    Les liens entre Intelligence Artificielle et Éducation sont multiples : L’IA comme outil pour mieux apprendre, comme outil pour mieux comprendre comment on apprend, comme sujet à part entière et enfin comme objet d’enseignement. Pascal Guitton et Thierry Viéville nous parlent de ces différentes facettes. Serge Abiteboul.

    L’IA comme outil pour mieux apprendre

    C’est le premier usage auquel on pense, utiliser des algorithmes d’IA pour proposer des outils afin de mieux apprendre. Bien entendu, il y a beaucoup de mythes et de croyances à dépasser pour concrétiser cette première idée.

    Pixabay

    Le point clé est l’apprentissage adaptatif : en analysant les traces d’apprentissage de l’apprenant·e, par exemple ses résultats à des questionnaires, son interaction avec le logiciel…, le système va modifier son fonctionnement, notamment à travers la sélection de contenus, pour essayer de s’adapter à la personne.. Même si les fondements scientifiques n’en sont pas encore totalement stabilisés, on peut aussi exploiter une analyse de son “comportement” via l’utilisation de capteurs. Cela va d’une caméra sur son portable jusqu’à des interfaces cerveau-ordinateur en laboratoire. Ce principe d’adaptation se rencontre le plus souvent dans un contexte ludique et individuel, un jeu pédagogique avec la machine, mais existe également dans d’autres situations, par exemple avec plusieurs personnes. 

    Cette approche implique au préalable un travail souvent colossal pour  formaliser complètement les savoirs et savoir-faire à faire acquérir. Cette formalisation est en soi intéressante car elle oblige à bien expliciter et à structurer les compétences, les connaissances et les pratiques qui permettent de les acquérir. Il faut cependant prendre garde à ne pas  “sur-organiser” l’apprentissage qui demeure dans tous les cas une tâche cognitive complexe.

    Par ailleurs, cette approche nécessite de travailler dans un contexte d’apprentissage numérique qui s’accompagne des contraintes bien connues comme les besoins de matériels, de formation aux logiciels, les limites à l’usage d’écrans, etc.

    On peut mentionner  plusieurs impacts pédagogiques de cet apprentissage algorithmique. En tout premier lieu, il génère en général un meilleur engagement de la personne apprenante, car interagir autrement avec les contenus offre une chance supplémentaire de bien les comprendre. Par ailleurs, la machine ne “juge pas” -comme un humain-, ce qui peut contribuer à maintenir cet engagement. Ensuite, et sans doute surtout, le fait que la difficulté soit adaptée à l’apprenant permet de limiter, voire d’éviter le découragement ou la lassitude. Ce type d’apprentissage nécessite cependant un investissement cognitif  important. Enfin, si l’aspect ludique est “trop” prépondérant, il ne faut pas négliger le risque de se disperser au lieu de s’investir dans l’apprentissage escompté. 

    L’usage de ces nouveaux outils conduit le rôle de l’enseignant·e à évoluer. Ainsi, profitant que sa classe est plus investie dans des activités d’apprentissage autonomes,  il a plus de disponibilités pour individualiser sa pratique pédagogique, avec les élèves qui en ont le plus besoin. De même, cela permet de se libérer – comme en pédagogie inversée – d’une partie du passage des savoirs ou de l’accompagnement de l’acquisition de savoir-faire, avec des contenus multimédia auto-évalués et des exercices d’entraînement automatisés, pour se concentrer sur d’autres approches pédagogiques, par exemple, par projets. Par rapport à des outils numériques classiques, sans IA, le degré d’apprentissage en autonomie peut être bien plus élevé et s’applique plus largement, par exemple, avec des exercices auto-corrigés et des parcours complets d’acquisition de compétences. Ces outils sont particulièrement d’actualité dans des situations d’école distancielle avec la crise sanitaire, et questionnent sur l’organisation du temps de travail scolaire.  

    L’utilisation de tels outils peut s’accompagner de dérives possibles dont on doit se protéger : traçage  omniprésent et omnipotent des personnes apprenantes permettant de les “catégoriser”, tentation de réduire l’offre humaine en matière d’enseignement, renforcement des inégalités en lien avec l’illectronisme, etc… Le risque est accru quand ces traces sont reliées à celles émanant d’autres facettes de son comportement : achats, consultations de vidéos/lectures…

     L’IA comme outil pour mieux comprendre comment on apprend

    Pixabay

    La possibilité de mesurer ces traces d’apprentissage n’offre pas uniquement une technique pour améliorer “immédiatement” l’apprentissage d’une personne, mais fournit aussi des sources de mesures pour mieux comprendre sur le long terme les apprentissages humains. Ces traces d’apprentissages sont relevées lors de l’utilisation d’un logiciel, par la mesure des déplacements de la souris, des saisies au clavier…, mais aussi grâce à des capteurs employés dans des situations pédagogiques sans ordinateur. On pense par exemple à une activité physique dans une cours d’école, observée avec des capteurs visuels ou corporels. Exploiter ces mesures impose alors non seulement de formaliser la tâche d’apprentissage elle-même, mais en plus, de modéliser la personne apprenante. Pas dans sa globalité bien entendu, mais dans le contexte de la tâche.

    Il faut noter que ces algorithmes d’apprentissage machine reposent sur des modèles assez sophistiqués. Ils ne sont pas forcément limités à des mécanismes d’apprentissage supervisés où les réponses s’ajustent à partir d’exemples fournis avec la solution, mais fonctionnent aussi par “renforcement”, c’est à dire quand l’apprentissage se fait à partir de simples retours positifs (autrement dit par des récompenses) ou négatifs, le système devant inférer les causes qui conduisent à ce retour, parfois donc en construisant un modèle interne de la tâche à effectuer.  Ils peuvent s’appliquer aussi en présence de mécanismes qui ajustent au mieux les comportements exploratoires (qualifiés de divergents) d’une part et les comportements exploitant ce qui est acquis (qualifiés de convergents) d’autre part. Ces modèles sont opérationnels, c’est-à-dire qu’ils permettent de créer des algorithmes effectifs qui apprennent. Il est passionnant de s’interroger dans quelle mesure ces modèles pourraient contribuer à représenter aussi l’apprentissage humain. Rappelons que, en neuroscience, ces modèles dits computationnels (c’est-à-dire qui représentent les processus sous forme de mécanismes de calculs ou de traitement de l’information) sont déjà largement utilisés pour expliquer le fonctionnement du cerveau au niveau neuronal. Dans ce contexte, ce serait de manière plus abstraite au niveau cognitif. 

    Ce domaine en est encore à ses débuts et des actions de recherches exploratoires qui allient sciences de l’éducation, sciences du numérique et neurosciences cognitives se développent.

     L’IA comme sujet d’enseignement

    https://classcocde.fr/iai une formation citoyenne à l’intelligence artificielle intelligente.

    Bien entendu pour maîtriser le numérique et pas uniquement le consommer, au risque de devenir un utilisateur docile voir même crédule, il faut comprendre les principes de son fonctionnement  à la fois au niveau technique et applicatif.

    Il est essentiel de comprendre par exemple que ces algorithmes ne se programment pas explicitement à l’aide  “d’instructions”, mais en fournissant des données à partir desquelles ils ajustent leurs paramètres. Il est aussi nécessaire de se familiariser au niveau applicatif avec les conséquences juridiques, par exemple, d’avoir dans son environnement un “cobot” c’est-à-dire un mécanisme robotique en interaction avec notre vie quotidienne. Ce  système n’est quasiment jamais anthropomorphique (c’est à dire possédant une forme approchant celle de l’humain), c’est par exemple une machine médicale qui va devoir prendre en urgence des décisions thérapeutiques quant à la santé d’une personne que la machine monitore. On voit dans cet exemple que la chaîne de responsabilité entre conception, construction, installation, paramétrisation et utilisation est très différente de celle d’une machine qui fonctionne sans algorithme, donc dont le comportement n’est pas partiellement autonome.

    Le MOOC https://classcode.fr/iai sur l’IA est justement là pour contribuer à cette éducation citoyenne, et faire de l’IA un sujet d’enseignement.

    L’IA comme un objet d’enseignement qui bouleverse ce que nous devons enseigner. 

    ©iconspng.com

    En effet, la mécanisation de processus dits intelligents change notre vision de l’intelligence humaine : nous voilà déléguer à la machine des tâches que nous aurions qualifiées  intelligentes si nous les avions exécutées nous mêmes. Nous allons donc avoir moins besoin d’apprendre des savoir-faire que nous n’aurons plus à exécuter, mais plus à prendre de la hauteur pour avoir une représentation de ce que les mécanismes “computent” (c’est-à-dire calculent sur des nombres mais aussi des symboles) pour nous.

    C’est un sujet très concret. Par exemple, avec les calculettes … devons nous encore apprendre à calculer ? Sûrement un peu pour développer son esprit, et comprendre ce qui se passe quand s’effectue une opération arithmétique, mais nous avons moins besoin de devenir de « bons calculateurs ». Par contre, ils nous faudra toujours être entraînés au calcul  des ordres de grandeurs, pour vérifier qu’il n’y a pas d’erreur quand on a posé le calcul, ou s’assurer que le calcul lui-même est pertinent. De même avec les traducteurs automatiques, l’apprentissage des langues va fortement évoluer, sûrement avec moins le besoin de savoir traduire mot à mot, mais plus celui de prendre de la hauteur par rapport au sens et à la façon de s’exprimer, ou pas … c’est un vrai sujet ouvert.

    Finalement, si nous nous contentons d’utiliser des algorithmes d’IA sans chercher à comprendre leurs grands principes de fonctionnement et quelles implications ils entraînent sur notre vie, nous allons perdre de l’intelligence individuelle et collective : nous nous en remettrons à leurs mécanismes en réfléchissant moins par nous-même. 

    Au contraire, si nous cherchons à comprendre et à maîtriser ces processus, alors la possibilité de mécaniser une partie de l’intelligence nous offre une chance de nous libérer en pleine conscience de ces tâches devenues mécaniques afin de consacrer notre intelligence humaine à des objectifs de plus haut niveau, et à considérer des questions humainement plus importantes.

    Pascal Guitton et Thierry Viéville.

    P.S.:  pour aller plus loin Inria partage un  livre blanc « Education et Numérique : enjeux et défis », organisé en cinq volets :
    – état des lieux de l’impact du numérique sur le secteur de l’éducation;
    – identification des défis du secteur ;
    – présentation des sujets de recherche liés au domaine de l’éducation au numérique ;
    – analyse des enjeux français dans le domaine ;
    – et enfin mise en avant de sept recommandations pour la transformation numérique de l’éducation.

  • L’apprentissage à distance : une adaptation continue

     

    Nombre d’entre nous ont dû avec les contraintes du confinement avoir recours pour la première fois de leur vie massivement au télétravail. Certains ont été émerveillés par un apport du numérique qu’ils n’attendaient pas. D’autres ont souligné des problèmes majeurs soulevés par le distanciel. Claude Terosier de Magic Maker propose son point de vue. Dans un cadre particulièrement exigeant, les ateliers avec des enfants dans le cadre d’une structure très distribuée, elle montre comment ils ont fait face et tiré le meilleur de la situation. Bon, les formateurs du numériques étaient mieux que d’autres préparés. Une morale peut-être : il est urgent de nous former tous et toutes au numérique. Serge Abiteboul et Pauline Bolignano.
    Claude Terosier, crédit Géraldine Aresteanu

    Cela fait 6 ans que nous faisons des ateliers de programmation créative chez Magic Makers[1], grâce auxquels des milliers d’enfants et de jeunes de 7 à 18 ans apprennent à créer avec le codage informatique. Le 14 mars 2020, suite à l’annonce par le président de la République de la fermeture de tous les établissements scolaires de France, nous avons dû mettre à l’arrêt nos 300 ateliers hebdomadaires. Le 21 mars, ces 300 ateliers reprenaient, à distance, grâce à la visioconférence. En une semaine, nous avons testé un outil de visioconférence, établi une base de bonnes pratiques d’animation, et dessiné les grandes lignes de la manière d’adapter au format visioconférence des contenus d’ateliers interactifs pour des enfants du CE1 à la terminale. Pour que cela fonctionne, nous avons accompagné nos 50 animateurs pour qu’ils puissent devenir à l’aise dans cette nouvelle manière d’animer des ateliers.

    Cela a été une période de réinvention très forte, sous la contrainte. Ce qui me frappe, c’est que l’évolution de la manière de mettre en oeuvre nos ateliers a été le miroir de la manière dont nous avons transformé nos pratiques au sein des équipes pour nous adapter au mode distanciel. Car nous avons dû en même temps également adapter nos modes de fonctionnement au sein de Magic Makers. Et cette transformation, au lieu de nous fragiliser, nous a renforcé, apportant des solutions parfois plus efficaces que par le passé à des enjeux de fonctionnement auxquels nous étions déjà confrontés avant le confinement.

    La chose la plus importante, en atelier avec les enfants comme au sein des équipes, a été de maintenir le lien humain. Cela a demandé un effort conscient pour transposer les pratiques non verbales et instinctives en pratiques explicites. Nous prenions déjà le temps en début de réunion de faire une “inclusion” ou chaque participant partage ce avec quoi il arrive, énergie ou préoccupations, personnelles ou professionnelles. Ce temps a encore plus d’importance dans une réunion en visioconférence, ou l’on ne peut pas saisir, par la simple présence et gestuelle, l’état d’esprit de chacun, et où l’on ne voit pas tout le monde si chacun ne fait pas l’effort de mettre sa caméra et de parler chacun à son tour.

    De la même manière, en atelier, l’utilisation de la caméra pour tous les participants est indispensable. Sinon, il n’y a pas interaction. Car il ne s’agit pas de parler sans savoir si l’on est entendu, mais d’aider chaque enfant à prendre sa place. Là où l’interaction entre l’animateur et chaque enfant est implicite lorsque l’on est dans la même salle, il faut la rendre explicite dans un format distanciel, pour que le lien existe, et que la transmission puisse se faire.

    Au-delà de remplacer les réunions en présentiel et les ateliers avec les enfants par des réunions en visioconférence, c’est toute notre façon d’interagir et de communiquer au sein de Magic Makers qui a évolué. La crise est arrivée à point pour nous amener à accélérer la mise en place de solutions face des problèmes que nous n’avions pas encore résolus. Un bon exemple est l’utilisation du tchat, que nous avons appris à utiliser aussi bien dans nos ateliers, qu’entre nos animateurs

    Lorsque l’on est connecté en visio, l’utilisation du tchat dédié à la session permet d’échanger des informations entre participants sans perturber le flux de celui qui parle. Celui-ci jugera bon de reprendre à l’oral une question posée à l’écrit dans le tchat visible de tous, ou indiquera à ceux qui ne l’ont pas remarqué qu’un lien a été ajouté pour que tout le monde puisse consulter un document.

    Il y a des règles à respecter pour que l’outil soit efficace, et en tant que collaborateurs adultes, ces règles se sont imposées rapidement et implicitement dans nos réunions. Dans le cadre des ateliers, il a fallu expliquer aux plus jeunes comment utiliser ce canal spécifique, qui remplace des signaux non verbaux en atelier : lever la main, bouger la tête et ouvrir la bouche pour signaler que l’on veut poser une question par exemple.

    En dehors des réunions, c’est un serveur de discussion qui est devenu un outil de travail incontournable en interne, remplaçant la communication informelle qui ne pouvait plus se faire, et fluidifiant de fait la circulation de l’information au sein de l’organisation. Les animateurs l’utilisent notamment pour demander et donner de l’aide en permanence, puisqu’ils ne peuvent se retourner vers leur voisin qui animerait dans la salle d’à côté pour lui poser la question. Cela démultiplie de fait l’efficacité. Là où il ou elle aurait eu la réponse de celui qui est à côté face à une difficulté concrète, il ou elle a la réponse de toute l’entreprise. Les problèmes se résolvent plus vite, parce que les bonnes pratiques que l’on invente face à une situation nouvelle se diffusent quasiment immédiatement.

    Il est intéressant de constater que nous n’avions jamais réussi à faire prendre ce genre d’outil en interne, et que la crise a forcé l’adhésion quasi systématique des collaborateurs, et nous a permis de résoudre une difficulté de communication qui existait déjà avant, nos animateurs étant répartis sur une cinquantaine de lieux.

    C’est un exemple significatif de la contrainte qui nous pousse à utiliser un outil numérique pour pallier à un besoin concret et où, au final, l’outil structure et apporte plus d’efficacité à la pratique informelle qu’il remplace, ne serait-ce qu’en supprimant les frontières spatiales et temporelles de l’interaction.

    La seconde leçon de cette crise, après l’innovation par la contrainte, c’est l’adaptation permanente. La crise sanitaire, et ses conséquences sociales et économiques, nous a projeté dans une époque où il devient difficile de faire des prévisions plus de quinze jours ou un mois à l’avance. Les solutions que l’on met en place à un instant particulier ne sont plus forcément pertinentes telles quelles un mois plus tard, et demandent une adaptation constante.

    Avec le déconfinement, la configuration des réunions a de nouveau été bouleversée. Les réunions qui fonctionnaient de manière fluide lorsque tout le monde était à distance devant son ordinateur n’étaient plus aussi efficaces dans une configuration hybride, avec certaines personnes ensemble physiquement dans une même salle et les autres à distance.
    Le choix que nous avons fait est de clarifier qu’il y avait 2 types de réunions, qui sont programmées et menées différemment. Lorsque le fait de se voir est important pour l’objectif recherché, la réunion est programmée en présentiel, en s’assurant que l’on respecte les contraintes sanitaires. C’est le cas pour l’accueil d’un nouveau collaborateur, une réunion de brainstorming, ou même des points de management lors desquels des sujets émotionnels devaient être traités. Concrètement, des situations qui vont contribuer à créer et à entretenir le lien humain. Sinon, la réunion se fait en distanciel. Dans ce cas, même si certains participants sont présents sur le même lieu, ils se connectent individuellement à la visioconférence et non pas depuis la même salle, car autrement la réunion ne fonctionne plus. Avoir dans une réunion distancielle plusieurs personnes en présentiel dans une même salle et les autres à distance est un élément qui empêche la réunion d’être efficace, et c’est souvent une raison pour laquelle des organisations ont arrêté le télétravail à la fin du confinement. Chez nous, dans une même journée, un collaborateur peut se rendre sur son lieu de travail, et alterner des réunions en présentiel dans la même salle, et en distanciel dans des salles distinctes, avec les mêmes personnes.

    Réunion à distance avec des collaborateurs de Magic Maker
    Réunion à distance avec des collaborateurs de Magic Maker

    Cela nous a permis de garder les améliorations apportées par les réunions en distanciel, car malgré la perte d’information et d’échanges non verbaux, elles nous ont permis d’être plus efficaces. Sans temps de transport, et sans “small talk” avant et après, les réunions démarrent à l’heure, et nous sommes souvent plus focalisés sur l’ordre du jour . L’efficacité de l’utilisation de documents de travail collaboratifs, dans lesquels tous les participants peuvent écrire en même temps puisque tout le monde est déjà sur son ordinateur, est encore renforcée.

    Les mots clé à mon sens sont bien ceux-là : adaptation permanente, et hybridation. Prendre le meilleur du présentiel et du distanciel, en adaptant le curseur à l’évolution de la situation.

    Du côté de nos ateliers, la même logique a prévalu. Grâce à l’épisode du confinement, nous avons découvert que nous pouvions faire fonctionner à distance la dynamique interactive de nos ateliers, confortés par les retours extrêmement positifs des enfants et des parents. Face à l’incertitude de la rentrée, et à cette nouvelle opportunité, nous avons fait évoluer la conception de nos ateliers hebdomadaires pour ce mois de septembre. Nous les avons pensés pour qu’ils puissent être proposés aussi bien en présentiel comme avant, qu’en distanciel pour ceux qui choisiraient de suivre l’atelier en se connectant depuis chez eux chaque semaine.

    La rentrée, et l’émergence d’une seconde vague nous conforte dans ce choix de la versatilité et de l’adaptation permanente, aussi bien de nos ateliers, que de nos manières de fonctionner.

    Claude Terosier, Magic Maker

    [1] Magic Makers organise des ateliers pour apprendre le code. L’esprit en est donné par le manifeste : Magic Makers s’engage à former une génération qui a les moyens de résoudre les problèmes auxquels elle est confrontée. Parce que chacun peut créer avec la technologie et avoir un impact sur le monde, enfant comme adulte.

  • Lancement de Planet Tech’Care

    Binaire, a demandé à Véronique Torner, co-fondatrice et présidente de alter way , membre du CA du Syntec Numérique, présidente du programme Numérique Responsable et membre du Conseil Scientifique de la SIF (Société informatique de France) de nous parler de l’initiative Planet Tech’Care. Marie Paule Cani et Pierre Paradinas.

    Binaire: Véronique peux tu nous dire en quoi consiste le projet Planet Tech’Care?
    Véronique TornerPlanet Tech’Care est une plateforme qui met en relation des entreprises et des acteurs de la formation qui souhaitent s’engager pour réduire l’empreinte environnementale du numérique avec un réseau de partenaires, experts du numérique et de l’environnement.

    En s’engageant autour d’un manifeste, les signataires ont accès gratuitement à un programme d’accompagnement composé d’ateliers conçus par les partenaires de l’initiative.

    La plateforme est animée par le programme Numérique Responsable de Syntec Numérique. Le projet a été initié sous l’impulsion du Conseil National du Numérique.
    Binaire : Qui sont les membres de Planet Tech’Care ?
    VéroniqueVous avez d’un côté les signataires du manifeste, des entreprises de tous secteurs et de toutes tailles (du CAC40 à la start-up) et des écoles, universités, instituts de formation et d’un autre côté les partenaires, organisations professionnelles, associations, think tanks, spécialistes du sujet Numérique & Environnement.
    Binaire : Que contient le manifeste de Planet Tech’Care
    Véronique : Les signataires du manifeste Planet Tech’Care reconnaissent que le numérique génère une empreinte environnementale et s’engagent à mesurer puis réduire les impacts environnementaux de leurs produits et services numériques. Ils s’engagent également à sensibiliser leurs parties prenantes afin que tous les acteurs de l’écosystème numérique soient en mesure de contribuer à réduire leurs impacts sur leurs périmètres de responsabilité. En parallèle, les acteurs de l’enseignement, ainsi que les acteurs du numérique proposant des formations à leurs collaborateurs, s’engagent à intégrer des formations au numérique responsable et écologiquement efficient dans leur curriculum de cours. Ainsi, la nouvelle génération de professionnels sera en capacité de développer des produits et services technologiques numériques bas carbone et durables.
        
    Binaire : Qui peut rejoindre le projet ? Pourquoi et comment impliquer les jeunes ?
    Véronique :  Toute entreprise et tout acteur du domaine de l’éducation peuvent nous rejoindre. Rassembler suffisamment de signataires dans le domaine de l’éducation sera essentiel pour impliquer massivement les jeunes. On peut à terme imaginer d’intégrer des formations au numérique responsable adaptées à tous les programmes des universités et autres établissement d’enseignement supérieur, des formations spécialisées en informatique à tous les secteurs utilisant le numérique, mais aussi d’associer une sensibilisation au numérique responsable aux programmes d’initiation au numérique au collège et au lycée. Nous comptons ensuite sur l’énergie et l’enthousiasme des jeunes pour que ces nouveaux usages diffusent à l’ensemble de la société.

     

    Binaire : Comment sera évalué l’intérêt du projet Planet Tech’Care ?
    Véronique :  Nous ferons un premier bilan dans un an qui sera constitué de plusieurs indicateurs : le nombre de signataires, la qualité des ateliers, un baromètre de maturité de notre communauté. Nous comptons pour le lancement plus de 90 signataires et plus de 10 partenaires qui démontrent déjà l’intérêt d’une telle initiative. Notre enjeux est de :
    • – créer une dynamique autour d’acteurs engagés pour le numérique éco-responsable,
    • – fédérer les expertises pour passer de l’engagement à l’action, 
    • – et enfin créer des communs pour passer à l’échelle.

     

    Binaire : Tu es dans le CA du Syntec Numérique et le CS de la SiF, pourquoi ces instances se mobilisent-elles sur la question de la responsabilité sociale et plus particulièrement sur les impacts environnementaux ?
    Véronique :  Syntec Numérique est en première ligne sur les enjeux du Numérique Responsable qui constitue un des cinq programmes stratégiques de notre organisation professionnelle. Nous œuvrons depuis plusieurs années sur l’inclusion sociale et sur l’éthique du numérique. En ce qui concerne les enjeux environnementaux, notre industrie a un double challenge à relever. Nous devons bâtir des solutions numériques au service de la transition écologique, car nous le savons Il n’y aura pas de transition écologique réussie sans numérique. Et nous devons aussi, comme toutes les industries, réduire notre empreinte environnementale. Nous avons un groupe de travail très actif sur le sujet et nous animons désormais la plateforme Planet Tech’Care.
    Par ailleurs, la SiF, Société informatique de France, qui anime la communauté scientifique et technique en informatique, a déjà montré son engagement pour une double transition numérique et écologique lors de son congrès annuel 2020, qui a porté sur ce thème. Diffuser plus largement cette réflexion est indispensable pour agir plus largement non seulement sur les acteurs socio-éconimique mais aussi, et en particulier via l’éducation, sur l’ensemble de la société. En particulier, le conseil scientifique de la SIF a tout de suite montré un grand enthousiasme pour le projet Planet Tech’ Care, jugé essentiel pour que  le numérique devienne un véritable levier pour les transitions sociétales et écologiques !
    Pour aller plus loin :
  • Enfin un CAPES en informatique !

    Isabelle Guérin-Lassous est présidente du jury du nouveau CAPES Numérique et Sciences Informatiques (NSI) qui a auditionné les futurs professeurs qui enseigneront dès cette rentrée les sciences du numérique comme option au lycée en classes de première et terminale. Elle revient sur la mise en place de cette première édition du concours.
    Article repris du site du CNRS.
    Crédit photo Centre Jacques Cartier

    L’informatique est devenue incontournable dans nos sociétés actuelles. Comment aurions-nous vécu le confinement sans les outils informatiques, tant d’un point de vue personnel que professionnel ? La période de confinement aurait sûrement été très différente : pas de continuité pédagogique pour les élèves, un plus grand nombre de professions et d’entreprises à l’arrêt, une communication plus réduite entre la famille et les amis, un accès à la culture encore plus limité, etc.

    L’informatique est donc incontournable et pourtant… Peu de gens ont une idée, même assez générale, de ce qui se passe derrière ces outils informatiques. Les métiers de l’informatique sont constamment en tension et en recherche de profils compétents depuis de nombreuses années.

    Si l’informatique est enseignée depuis le début des années 1970 dans l’enseignement supérieur, l’enseignement de l’informatique au lycée est un long chemin fait d’avancées et de reculs. Il y a eu des premières expériences d’enseignement en informatique, dès le début des années 1970, dans quelques lycées. Puis diverses options d’informatique ont vu le jour entre 1982 et 2015. Mais il faut attendre septembre 2019 pour que l’informatique soit enseignée au lycée comme discipline à part entière !

    Depuis la rentrée scolaire 2019, la discipline informatique est enseignée au sein de deux nouveaux enseignements introduits lors de la réforme du lycée. SNT (Sciences Numériques et Technologie) est enseigné aux élèves de seconde générale et technologique. C’est un enseignement commun qui balaye les principaux concepts et enjeux de l’informatique.  NSI (Numérique et Sciences Informatiques) est proposé comme enseignement de spécialité aux élèves de première et de terminale de la voie générale. Le programme de NSI est vaste et organisé au sein de quatre thèmes-clés de l’informatique que sont les données, les algorithmes, les langages et les machines.

    Cet enseignement répond à deux objectifs principaux. Il doit apporter une culture générale sur l’informatique permettant de comprendre les grands principes sous-jacents à l’informatique et aux outils extrêmement utilisés de nos jours (comme par exemple le Web ou les réseaux sociaux). Il doit aussi faire prendre conscience de l’impact de l’informatique sur nos sociétés et inciter à l’adoption de bonnes pratiques. Le deuxième objectif, avec l’enseignement de NSI, est d’apporter une formation large aux élèves intéressés par cette discipline, permettant d’aborder le supérieur avec un socle significatif de connaissances.

    Si l’arrivée de l’informatique dans l’enseignement au lycée est une avancée majeure pour la discipline qui était attendue depuis longtemps, un autre enjeu, de taille, est de disposer d’enseignants experts dans cette discipline. Les enseignants qui assuraient les précédentes options en informatique possèdent déjà un bagage avéré dans la discipline, mais le programme de NSI est bien plus large et le nombre d’élèves à former bien plus conséquent. Il était donc indispensable d’avoir plus d’enseignants aptes à enseigner l’informatique.

    Si l’arrivée de l’informatique dans l’enseignement au lycée est une avancée majeure pour la discipline, un autre enjeu de taille est de disposer d’enseignants experts dans cette discipline.
    ,

    Des enseignants volontaires ont pu suivre le DIU (Diplôme Inter-Universitaire) Enseigner l’informatique au lycée qui s’est mis en place dès le printemps 2019. Les enseignants qui valident ce DIU peuvent alors enseigner NSI. En parallèle, un CAPES, dénommé CAPES NSI, a été créé pour un premier recrutement en 2020.

    Organiser le premier concours d’un CAPES repose sur de nombreux défis : trouver un jury constitué de membres aux origines professionnelles du monde de l’enseignement et compétences informatiques variées, sans oublier le respect de la (presque) parité ; élaborer les sujets des épreuves d’admissibilité et les leçons des épreuves d’admission, ce qui n’est pas une tâche facile quand tout est à inventer ; mettre au point un système informatique léger, rapide et robuste, équipé de multiples logiciels utiles au concours, sur lequel chaque candidat pourra préparer, en temps limité, sa présentation orale ; recruter des futurs enseignants qui ont une culture informatique large et solide sur les attendus du programme et qui seront capables d’enseigner la discipline à des jeunes souvent accro au numérique mais sans réelle connaissance des mécanismes sous-jacents aux outils utilisés.

    Le concours du CAPES NSI en 2020 est une cuvée spéciale. C’est certes le premier concours, mais le calendrier du concours a été fortement chamboulé par la crise sanitaire actuelle, comme beaucoup de concours de recrutement. Dans ce contexte, les épreuves orales ont été annulées et les épreuves écrites, qui sont devenues les épreuves d’admission, ont eu lieu fin juin. Ce n’est évidemment pas une configuration idéale pour effectuer un premier recrutement, mais l’important est que le concours ait été maintenu et qu’il permette de recruter les premiers enseignants disposant du CAPES NSI pour la rentrée 2020. Le concours de cette année va d’ailleurs être hautement sélectif, tout particulièrement pour l’enseignement public avec 30 postes mis au concours pour le CAPES externe et un peu plus de 300 candidats présents aux épreuves et 7 postes ouverts pour le 3e concours et presque 150 candidats présents aux épreuves.

    Le nombre de postes mis au concours en 2020 est certes modeste mais il est normal de prendre la température au lancement d’une nouvelle discipline, notamment sur le nombre d’élèves prenant la spécialité NSI en première, puis en terminale, mais aussi sur le vivier de candidats prêts à présenter le concours du CAPES NSI, ou sur le nombre de préparations au CAPES proposées dans les universités et le nombre d’étudiants inscrits à ces préparations. Mais il est fort probable que le nombre d’enseignants aptes à enseigner l’informatique au lycée devra être significativement augmenté dans le futur. Avoir des enseignants compétents et motivés sur tout le territoire est une étape incontournable pour l’essor de l’enseignement de l’informatique au lycée, car ne l’oublions pas, au-delà de la culture générale, le France a besoin de plus de jeunes qui se tournent vers les formations en informatique, et plus leur expérience sera bonne au lycée, plus ils seront enclins à poursuivre vers ces formations !

    Isabelle Guérin-Lassous
    Professeur à l’Université Claude Bernard Lyon 1, membre du LIP