Catégorie : Impact de l’intelligence artificielle sur les métiers

  • L’IA contre les « oublis » aux caisses automatiques des supermarchés ? Mais c’est bien sûr !

     

    Charles Cuvelliez et Jean-Jacques Quisquater nous proposent en collaboration avec le Data Protection Officer de la Banque Belfius ; Francis Hayen, une discussion sur le dilemme entre le RGPD et la mise en place de caméra augmentée à l’IA pour diminuer le nombre de vols, les oublis, le sous-pesage aux caisses automatiques des supermarchés, qui sont bien nombreux. Que faire pour concilier ce besoin effectif de contrôle et le respect du RGPD ? Et bien la CNIL a émis des lignes directrices, d’aucun diront désopilantes, mais pleines de bon sens. Amusons-nous à les découvrir. Benjamin Ninassi et Thierry Viéville.
    Montage à partir d’une photo libre de droit. © CC-BY, binaire.

    C’est le fléau des caisses automatiques des supermarchés : les fraudes ou les oublis, pudiquement appelées démarques inconnues, ou la main lourde qui pèse mal fruits et légumes. Les contrôles aléatoires semblent impuissants. Dans certaines enseignes, il y a même un préposé à la balance aux caisses automatiques. La solution ? L’IA pardi. Malgré le RGPD ? Oui dit la CNIL dans une note de mai 2025.

    Cette IA, ce sont des caméras augmentées d’un logiciel d’analyse en temps réel. On les positionne en hauteur pour ne filmer que l’espace de la caisse, mais cela inclut le client, la carte de fidélité, son panier d’achat et les produits à scanner et forcément le client, flouté de préférence. L’algorithme aura appris à reconnaitre des « événements » (identifier ou suivre les produits, les mains des personnes, ou encore la position d’une personne par rapport à la caisse) et contrôler que tout a bien été scanné. En cas d’anomalie, il ne s’agit pas d’arrêter le client mais plus subtilement de programmer un contrôle ou de gêner le client en lui lançant une alerte à l’écran, propose la CNIL qui ne veut pas en faire un outil de surveillance en plus. Cela peut marcher, en effet. 

    C’est que ces dispositifs collectent des données personnelles : même en floutant ou masquant les images, les personnes fautives sont ré-identifiables, puisqu’il s’agira d’intervenir auprès de la personne. Et il y a les images vidéo dans le magasin, non floutées. La correspondance sera vite faite.

    Montage à partir d’une photo libre de droit. © CC-BY, binaire.

    Mais les supermarchés ont un intérêt légitime, dit la CNIL, à traiter ces données de leurs clients (ce qui les dispense de donner leur consentement) pour éviter les pertes causées par les erreurs ou les vols aux caisses automatiques. Avant d’aller sur ce terrain un peu glissant, la CNIL cherche à établir l’absence d’alternative moins intrusive : il n’y en a pas vraiment. Elle cite par exemple les RFID qui font tinter les portiques mais, si c’est possible dans les magasins de vêtements, en supermarché aux milliers de référence, cela n’a pas de sens. Et gare à un nombre élevé de faux positifs, auxquels la CNIL est attentive et elle a raison : être client accusé à tort de frauder, c’est tout sauf agréable. Cela annulera la légitimité de la méthode.

    Expérimenter, tester

    Il faut qu’un tel mécanisme, intrusif, soit efficace : la CNIL conseille aux enseignes de le tester d’abord. Cela réduit-il les pertes de revenus dans la manière dont le contrôle par IA a été mis en place ? Peut-on discriminer entre effet de dissuasion et erreurs involontaires pour adapter l’intervention du personnel ? Il faut restreindre le périmètre de prise de vue de la caméra le plus possible, limiter le temps de prise de vue (uniquement lors de la transaction) et la stopper au moment de l’intervention du personnel. Il faut informer le client qu’une telle surveillance a lieu et lui donner un certain contrôle sur son déclenchement, tout en étant obligatoire (qu’il n’ait pas l’impression qu’il est filmé à son insu), ne pas créer une « arrestation immédiate » en cas de fraude. Il ne faut pas garder ces données à des fins de preuve ou pour créer une liste noire de clients non grata. Pas de son enregistré, non plus. Ah, si toutes les caméras qui nous espionnent pouvaient procéder ainsi ! C’est de la saine minimisation des données.

    Pour la même raison, l’analyse des données doit se faire en local : il est inutile de rapatrier les données sur un cloud où on va évidemment les oublier jusqu’au moment où elles fuiteront.

    Le client peut s’opposer à cette collecte et ce traitement de données mais là, c’est simple, il suffit de prévoir des caisses manuelles mais suffisamment pour ne pas trop attendre, sinon ce droit d’opposition est plus difficilement exerçable, ce que n’aime pas le RGPD. D’aucuns y retrouveront le fameux nudge effect de R. Thaler (prix Nobel 2017) à savoir offrir un choix avec des incitants cognitifs pour en préférer une option plutôt que l’autre (sauf que l’incitant est trop pénalisant, le temps d’attente).

    Réutilisation des données pour entrainement

    Un logo RGPD dérivé sur le site de l’EDPB ©EDPB.

    Autre question classique dès qu’on parle d’IA : peut-on réutiliser les données pour entrainer l’algorithme, ce qui serait un plus pour diminuer le nombre de faux positifs. C’est plus délicat : il y aura sur ces données, même aux visages floutés, de nombreuses caractéristiques physiques aux mains, aux gestes qui permettront de reconnaitre les gens. Les produits manipulés et achetés peuvent aussi faciliter l’identification des personnes. Ce serait sain dit la CNIL de prévoir la possibilité pour les personnes de s’y opposer et dans tous les autres cas, de ne conserver les données que pour la durée nécessaire à l’amélioration de l’algorithme.

    Les caisses automatiques, comme les poinçonneuses de métro, les péages d’autoroute, ce sont des technologies au service de l’émancipation d’une catégorie d’humains qui ont la charge de tâches pénibles, répétitives et ingrates. Mais souvent les possibilités de tricher augmentent de pair et il faut du coup techniquement l’empêcher (sauter la barrière par ex.). L’IA aux caisses automatiques, ce n’est rien de neuf à cet égard.

    Une caisse en libre-service ©Eurofruit from Global , via Wikipédia

    Mine de rien, toutes ces automatisations réduisent aussi les possibilités de contact social. La CNIL n’évoque pas l’alternative d’une surveillance humaine psychologiquement augmentée, sur place, aux caisses automatiques : imaginez un préposé qui tout en surveillant les caisses, dialogue, discute, reconnait les habitués. C’est le contrôle social qui prévient bien des fraudes.

     Quand on sait la faible marge que font les supermarchés, l’IA au service de la vertu des gens, avec toutes ces précautions, n’est-ce pas une bonne chose ?

     


    Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles), Francis Hayen, Délégué à la Protection des Données & Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain et MIT). 

     

    Pour en savoir plus :

  • L’IA pour la cybersécurité : entre promesses et limites actuelles

    La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers. Ici sur le domaine de la cybersécurité, grâce à une interview de Ludovic Mé, directeur du programme cybersécurité de l’agence de programme chez Inria. Interview réalisée Erwan Le Merrer, président du conseil scientifique de la SIF, Serge Abiteboul et Pierre Paradinas.

    Bonjour Ludovic, pouvez-vous vous présenter ?

    J’ai consacré toute ma carrière professionnelle à la cybersécurité, depuis ma thèse portant sur la détection d’intrusions. À cette époque, j’utilisais des outils nommé « algorithmes génétiques », que l’on pourrait classer dans le domaine de l’intelligence artificielle aujourd’hui. J’ai soutenu cette thèse en 1994, puis j’ai suivi une carrière classique d’enseignant-chercheur, à Supélec puis à CentraleSupélec. J’ai encadré mes premiers doctorants, obtenu une habilitation à diriger des recherches, puis été nommé professeur. J’ai ensuite créé une équipe qui a d’abord été une équipe propre à CentraleSupélec, puis une équipe d’accueil (EA 4034) et, enfin, une équipe Inria à partir de 2011. En 2015, tout en restant à CentraleSupélec, je suis devenu délégué scientifique du centre Inria à Rennes. Enfin, à partir de 2019, je suis devenu adjoint de Jean-Frédéric Gerbeau à la direction scientifique d’Inria, fonction que j’ai occupée jusqu’en mars 2025, date à laquelle j’ai été nommé directeur du programme cybersécurité de l’agence de programme du numérique.

    Qui/qu’est-ce qui sera impacté par l’IA dans la cybersécurité ?

    La cybersécurité se compose de divers sous-domaines, assez disjoints les uns des autres du point de vue de leurs objectifs et des outils qu’ils emploient. Citons par exemple la cryptographie, la sécurité des systèmes d’exploitation, la sécurité des réseaux, la supervision de la sécurité. L’impact de l’intelligence artificielle (IA), ou plus précisément de l’apprentissage automatique, varie considérablement selon les sous-domaines.

    Par exemple, en cryptographie, l’impact est, me semble-t-il, quasi-inexistant. En effet, il est peu probable qu’un nouveau mécanisme cryptographique soit développé grâce à l’apprentissage automatique. La mise au point d’un tel mécanisme nécessite un travail d’identification de problèmes mathématiques complexes et de conception d’algorithmes de chiffrement basées sur ces problèmes. Il faut également dimensionner correctement les constantes qui entrent en jeu, comme bien évidemment la taille des clés, afin de garantir une marge de sécurité suffisante, compte tenu de la puissance de calcul nécessaire pour « casser » ces algorithmes de chiffrement. Il y a donc peu de place pour l’apprentissage automatique dans ce domaine, et je doute qu’il y en ait à court terme. De même, le « cassage » d’un algorithme (ce qu’on appelle la cryptanalyse) repose sur des méthodes spécifiques qui, à ma connaissance, ne peuvent être remplacées par l’apprentissage automatique.

    À l’inverse, le domaine de la supervision de la sécurité (détection des attaques en cours sur un système informatique) est assez fortement impacté. Dans le monde industriel, jusqu’à aujourd’hui, les techniques principales de détection d’intrusions sont dites à base de signatures. Il s’agit de spécifier les symptômes des attaques, puis de rechercher des traces de ces symptômes dans les données à analyser, qui peuvent être des journaux système, des journaux applicatifs ou du trafic réseau. Ce dernier type de données est généralement utilisé, car il a un impact minimal sur les systèmes. Ainsi, si certains symptômes sont observés, par exemple dans les en-têtes des paquets réseau, des alertes sont déclenchées et envoyées à des experts pour analyse. En particulier, l’objectif de ces experts est d’éliminer les fausses alertes, qui sont très nombreuses. Dans cette démarche globale de « supervision de la sécurité », plusieurs opportunités s’ouvrent pour l’apprentissage automatique, tant pour la production d’alertes que pour le tri de ces alertes.

    Premièrement, en ce qui concerne la production, au lieu de se baser sur l’identification de symptômes d’attaque (notons que l’intelligence artificielle dite « symbolique » pourrait le faire), il est possible de raisonner par la négation. Il s’agit alors de définir ce qu’est la normalité du fonctionnement d’un système et d’identifier ensuite les déviations par rapport à cette normalité. C’est ce que l’on appelle la détection d’anomalies, technique connue depuis longtemps. Pour effectuer une détection d’anomalies, des statistiques étaient classiquement utilisées. Aujourd’hui, au lieu de se baser uniquement sur des mathématiques, on utilise plutôt l’apprentissage : on apprend des modèles correspondant au fonctionnement normal de certains systèmes, puis on détecte les anomalies de fonctionnement.

    Si cette démarche semble naturelle, elle ne fonctionne pas parfaitement. Les résultats obtenus rivalisent certes avec l’état de l’art des systèmes sans IA, mais il n’y a pas de révolution comparable à celle que l’on a pu connaître dans le domaine de la traduction ou de la reconnaissance d’images. L’intérêt des méthodes basées sur l’intelligence artificielle réside peut-être davantage dans le moindre effort qu’elles demandent pour leur mise en œuvre. Cependant, leur principal problème est celui de la « non-transférabilité » des résultats. Cela constitue un défi majeur : le bon fonctionnement en laboratoire ne garantit pas une application immédiate à d’autres cas d’étude, même légèrement différents. Cette difficulté provient du problème récurrent du manque de données de qualité pour l’apprentissage notamment, on dispose souvent de données mal étiquetées ou imparfaites. La communauté scientifique n’a pas encore trouvé de solution convaincante à ce problème, qui est l’objet d’un champ de recherche actif.

    Malgré les annonces commerciales, il est en fait assez difficile de connaître précisément les mécanismes d’IA concrètement mis en œuvre dans les outils industriels de détection d’intrusions. Une migration vers l’apprentissage est certainement en cours, mais il est peu probable selon moi qu’elle améliore significativement la qualité de la détection par rapport aux méthodes actuelles, au moins dans un premier temps.

    Deuxièmement, la production d’alertes nécessite comme mentionné précédemment un tri ultérieur de ces alertes, en particulier en raison du grand nombre de fausses alertes généralement produites. Dans le secteur industriel, ce tri est effectué dans des centres d’opérations de sécurité (SOC). Les techniques traditionnelles employées incluent le regroupement des alertes correspondant à un même phénomène et la détection des données aberrantes. Ici, l’apprentissage automatique peut bien sûr apporter des solutions pertinentes.

    Plus généralement, en dehors du domaine de la détection, des chercheurs ont récemment configuré des routeurs réseau avec des grands modèles de langage (LLM) [routeurs], contournant ainsi la complexité de la configuration manuelle. Cette piste pourrait être explorée pour la configuration de la sécurité réseau ou des mécanismes de contrôle d’accès aux données contenues par les systèmes informatiques. On peut même envisager de dépasser l’héritage des années 70, avec une configuration par IA de droits d’accès afin d’implémenter des politiques de sécurité complexes et difficiles à mettre en œuvre aujourd’hui. Je ne développerai pas plus ici, mais l’IA pourrait ainsi contribuer à relancer des travaux sur la sécurité des systèmes d’information, sujet fondamental de la cybersécurité qui donne malheureusement lieu à très peu de recherche, en tous cas en France.

    Tout ce qui précède traite de l’impact de l’IA au service de la cybersécurité. Mais l’IA va aussi avoir un impact contre la cybersécurité. En effet, les mécanismes de l’IA, et en particulier les LLM (Large Language Models), sont en capacité de générer du code et donc potentiellement du code malveillant (virus, exploitation de vulnérabilités, etc.). Ils sont aussi en mesure de rendre beaucoup plus réalistes les mails d’hameçonnage, ce qui pourrait conduire à piéger davantage d’utilisateurs. Ces effets délétères de l’IA sont encore peu observés (ou en tous cas on manque de chiffres), mais ils sont redoutés et il convient de s’y préparer, au cas où ils se concrétiseraient.

    Pour terminer, on voit aussi une inquiétude marquée relative à la génération par LLM de fake news. Pour ma part, je considère que ce sujet, évidemment d’une extrême importance, ne relève pas du domaine de la cybersécurité. Pour dire les choses rapidement, tout mensonge ou toute arnaque véhiculée ou utilisant l’informatique (et qu’est-ce qui n’utilise pas l’informatique aujourd’hui ?) ne relève pas nécessairement de la cybersécurité.

    À quel changement peut-on s’attendre dans le futur ? Par exemple, quelle tâche pourrait être amenée à s’automatiser, et à quels horizons ?

    Comme mentionné précédemment, la supervision de sécurité sera probablement impactée par la détection d’anomalie à base d’IA, bien que des efforts restent à fournir. Il est difficile de le prédire avec précision, mais il est probable qu’un impact notable au-delà de la simple démonstration ne se produise que dans quelques années. Nous l’avons déjà abordé, l’enjeu principal réside dans la qualité des données d’apprentissage. Sans données de qualité et partageables, aucun progrès significatif ne sera possible. Des données de qualité permettront de construire des modèles de qualité, qui devront ensuite être adaptés aux cas particuliers.

    Quelles connaissances en intelligence artificielle sont nécessaires pour les postes en cybersécurité ?

    La sécurité combine R&D et actions opérationnelles. Les équipes opérationnelles n’ont pas nécessairement besoin de connaître le type de modèle précis à choisir ni la manière dont il est entraîné. Prenons à nouveau l’exemple de la supervision de la sécurité. Les équipes opérationnelles des SOC voient arriver des alertes et doivent être en mesure de les qualifier : fausse alerte ou alerte réelle. Pour ce travail, pas vraiment besoin d’une formation en IA radicalement différente de celle déjà au programme des formations aujourd’hui.

    En revanche, en R&D, des connaissances en IA sont effectivement nécessaires. En effet, les développeurs en charge du développement des sondes de détection devront choisir des modèles, disposer d’une méthodologie solide pour l’apprentissage, ainsi que pour l’évaluation de la qualité de cet apprentissage. Une compétence solide en apprentissage automatique sera donc ici requise.

    Il est également important de rappeler que les mécanismes d’apprentissage automatique sont eux-mêmes vulnérables. Il existe donc un besoin important de formation concernant les attaques spécifiques contre l’apprentissage automatique, afin d’assurer sa protection.

    Que faudrait-il privilégier pour le domaine : des informaticiens à qui apprendre le métier ou des spécialistes du métier également compétents en IA ?

    Je pense que nous avons besoin de spécialistes de l’IA qui s’intéressent à la sécurité, tant en termes d’utilisation de l’IA au service de la sécurité, qu’en termes d’utilisation de l’IA contre la sécurité, avec des attaques générées par IA. Il ne s’agit pas seulement de contribution à des attaques simples comme l’hameçonnage, mais aussi de génération de stratégies d’attaques sophistiquées ou de découvertes dans des logiciels de nouvelles vulnérabilités pouvant être exploitées pour réaliser des attaques, c’est à dire l’utilisation du cyberespace dans le but de perturber, de désactiver, de détruire ou de contrôler de manière malveillante un environnementou une infrastructure informatique, ou de détruire l’intégrité des données ou de voler des informations non publiques.

    Les spécialistes en IA devraient être en mesure de guider les spécialistes de la sécurité, qui ne savent généralement pas quel modèle sélectionner pour quel avantage, ni à quel point telle ou telle tâche est complexe. Malheureusement, il semble que les spécialistes de l’IA, pour le moment, délaissent la sécurité de l’IA et la sécurité par l’IA, au profit de thèmes qu’ils jugent plus intéressants. J’en arrive donc à la conclusion qu’il faudra que les spécialistes en sécurité s’y attellent eux-mêmes. Comme auparavant finalement : lorsqu’ils faisaient des statistiques, ils le faisaient eux-mêmes, sans demander l’aide de mathématiciens.

     Quelles formations continues vous paraissent indispensables ?

    Dans la continuité de mon propos, il faut que les acteurs de la R&D dans certains sous-domaines de la sécurité s’intéressent à l’usage de l’IA. Il est nécessaire que ces acteurs aient une bonne compréhension des différents mécanismes de l’IA. J’insiste aussi sur la formation spécifique sur les attaques contre l’apprentissage automatique. Je pense qu’il ne suffit pas d’étudier l’apprentissage automatique en soi, il faut aussi comprendre comment il peut être contourné.

    Inversement, certains articles scientifiques (« Real Attackers Don’t Compute Gradients » [real]) expliquent clairement que les attaquants privilégient toujours les attaques les plus simples, comme l’hameçonnage. Il faut donc du discernement pour être capable d’évaluer la vraisemblance d’une attaque contre l’IA, et ces formations peuvent y contribuer.

    Quelle demande formuleriez-vous auprès des concepteurs d’intelligence artificielle ?

    L’histoire de l’informatique est jalonnée d’exemples où, lors de la conception d’un système, la cybersécurité est négligée. Cela s’est vérifié pour les systèmes d’exploitation, les réseaux et l’internet en particulier, et c’est le cas aujourd’hui pour l’intelligence artificielle. Or, cette négligence se révèle souvent problématique après un certain temps. Pourquoi ? Parce que réintégrer la sécurité a posteriori est extrêmement complexe, voire impossible.

    Par conséquent, si j’avais un conseil à donner, ce serait d’intégrer la sécurité dès la conception, même si cela peut s’avérer parfois contraignant. Sinon, il faudra peut-être faire machine arrière, voire cela s’avérera tout simplement impossible. Réfléchissons avant d’agir !

     

     Ludovic Mé.

    Références

    [routeurs] Mondal, R., Tang, A., Beckett, R., Millstein, T., & Varghese, G. (2023, November). What do LLMs need to synthesize correct router configurations?. In Proceedings of the 22nd ACM Workshop on Hot Topics in Networks (pp. 189-195).

    [real] Apruzzese, G., Anderson, H. S., Dambra, S., Freeman, D., Pierazzi, F., & Roundy, K. (2023, February). “real attackers don’t compute gradients”: bridging the gap between adversarial ml research and practice. In 2023 IEEE conference on secure and trustworthy machine learning (SaTML) (pp. 339-364). IEEE.

     

  • De l’impact de l’IA sur l’industrie manufacturière

    La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers,  en commençant ici par l’impact de l’IA sur les industries culturelles et créatives, grâce à une interview de Pierre-Emmanuel Dumouchel, fondateur et Directeur Général de la start-up Dessia Technologies, réalisée par Pascale Vicat-Blanc, avec l’aide d’Erwan Le Merrer, président du conseil scientifique de la SIF, Marie-Paule Cani, Serge Abiteboul et Thierry Viéville.

    1. Bonjour Pierre-Emmanuel, pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ?

    Pierre-Emmanuel

    Dessia Technologies est une jeune start-up fondée en 2017 par d’anciens ingénieurs de PSA Peugeot Citroën. Nous sommes basés en région parisienne et comptons aujourd’hui une quarantaine de collaborateurs. Notre mission est d’aider les grandes entreprises industrielles, notamment dans les secteurs automobile, aéronautique, ferroviaire et naval, à digitaliser leurs connaissances et à automatiser des tâches de conception grâce à l’intelligence artificielle. Nous travaillons avec des clients prestigieux comme Renault, Valeo, Safran, Airbus, Naval Group et Alstom. Nous utilisons par exemple des algorithmes d’IA pour automatiser le design des câblages électriques ou pour générer des architectures de batteries électriques. Forts de deux levées de fonds, nous sommes soutenus par quatre fonds d’investissement, dont celui d’Orano.

    2. En quoi pensez-vous que l’IA a déjà transformé votre métier ?

    L’intelligence artificielle a transformé en profondeur la manière dont les ingénieurs abordent la résolution de problèmes. Avant l’arrivée de ces technologies, les ingénieurs cherchaient principalement une ou deux solutions optimales pour répondre à un problème donné. Aujourd’hui, grâce à l’IA, ils explorent un éventail beaucoup plus large de solutions possibles. Les modèles génératifs, en particulier, permettent de proposer automatiquement de nombreuses alternatives et de hiérarchiser les options selon des critères précis. Cette évolution a modifié le rôle de ces ingénieurs, qui se concentrent désormais davantage sur l’analyse et la sélection des meilleures solutions pour leur entreprise.

    3. À quels changements peut-on s’attendre dans le futur ? Quelles tâches pourraient être amenées à être automatisées ? À quel horizon ?

    Dans le futur, l’interaction homme-machine sera profondément redéfinie grâce aux LLM (« Large Language Models » ou grands modèles de langage). Ces modèles remplaceront les interfaces graphiques traditionnelles par des interactions écrites ou orales, rendant les outils d’ingénierie plus intuitifs et accessibles. Les ingénieurs deviendront des gestionnaires de processus automatisés, orchestrant des agents autonomes pour exécuter des tâches techniques. La plupart des activités actuellement réalisées manuellement, comme la configuration de systèmes complexes ou la gestion de chaînes logistiques, seront automatisées d’ici 5 à 10 ans. Le rôle des ingénieurs évoluera donc vers un travail décisionnel, où ils valideront les choix proposés par les systèmes automatisés, favorisant une approche collaborative et stratégique.

    Ainsi, lIA révolutionne particulièrement l’interaction et l’expérience de l’humain (UX) vis-à-vis des systèmes numériques. Les techniciens n’échangent plus via des pages HTML mais interagissent avec des éléments de savoir, grâce au langage naturel et via des messages communiquant leurs intentions de manière concise (prompt). L’IA générative permet donc de repenser les univers d’interaction traditionnels (via une « souris » et un écran) pour aller vers des univers d’interaction fluide en 3D et en langage naturel.

    Demain, les interactions se feront via des agents : des automates réalisant des tâches pour le compte des ingénieurs. Les humains travailleront de concert avec des agents spécialisés, tels que les agents spécialistes de l’architecture électrique, avec ceux de l’architecture 3D et ceux des problèmes thermiques, qui se coordonneront entre eux. Ces agents permettront de résoudre des problèmes de conception en ingénierie qui sont actuellement insolubles, tels que concevoir une architecture de batterie ou un véhicule pour baisser l’empreinte carbone.

    Une ou un ingénieur devra être capable de manipuler de nouvelles briques de savoir, par exemple pour s’assurer que la ligne d’assemblage d’une batterie ou d’un véhicule fonctionne bien, ou comment la faire évoluer, ainsi que le processus de conception. Il s’agit d’une mutation vers l’intégration et le développement continus (CI/CD) des produits manufacturés, réalisés en ingénierie concurrente.

    On entre dans une ère dans laquelle se poseront des questions telles que celle de la sélection des tâches à automatiser et à déléguer à des agents, celle de la structuration du savoir de chaque ingénieur, de la manière de poser des questions, et de collecter des éléments de savoir.

    Les ingénieurs devront aussi brainstormer, collaborer et travailler sur leur expertise pour prendre les décisions à partir des sorties des agents. La collaboration se fera au niveau décisionnel plutôt qu’au niveau opérationnel.

    L’IA remet l’humain au centre. La numérisation a apporté un travail qui s’effectue de manière solitaire, seul derrière son écran. L’IA casse ce mode et pousse à développer un travail plus collaboratif ciblant les aspects stratégiques concernant la tâche à effectuer.

    4. Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes ?

    Nous recherchons des profils capables de s’adapter à l’écosystème technologique actuel et de tirer parti des outils modernes comme les LLM. Par exemple, dans les métiers marketing et vente, nous attendons une maîtrise des outils génératifs pour créer du contenu ou analyser des données de marché. Du côté des ingénieurs et data scientists, une bonne compréhension des algorithmes d’IA, des outils d’automatisation et des techniques de prototypage rapide est essentielle.

    Ces remarques et les suivantes sur l’emploi des ingénieurs et autres collaborateurs concernent l’industrie en général et ne sont pas spécifiques à Dessia.

    5. Pouvez-vous préciser quelles formations, à quel niveau ?

    Les formations nécessaires dépendent des métiers, mais une tendance claire se dessine : la capacité d’adaptation et l’auto-apprentissage deviennent des compétences prioritaires. Pour les métiers techniques comme l’ingénierie et la data science, une spécialisation poussée reste essentielle, avec des profils de personnes ayant souvent obtenu un diplôme de doctorat ou ayant une expertise avancée en mathématiques et algorithmique. Pour d’autres postes, les recruteurs privilégient les candidats capables de se former rapidement sur des sujets émergents, au-delà de leur parcours académique, et de maîtriser les outils technologiques en constante évolution.

    Les nouveaux employés devront ainsi s’adapter à de plus en plus d’exigences de la part des employeurs, ils devront avoir une expérience en IA, en pilotage de projets d’IA. Non seulement dans les domaines de l’ingénierie mais aussi des ventes. Il devront connaitre l’IA, utiliser les LLM, avoir de très bonnes qualités humaines et relationnelles.

    6. Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables ?

    Toutes les fonctions au sein d’une entreprise devront intégrer l’IA à leur activité, car cette technologie est en passe de devenir une nouvelle phase de digitalisation. Les entreprises qui ne suivent pas cette transformation risquent non seulement de perdre en compétitivité, mais aussi de rencontrer des difficultés à recruter des talents. L’IA deviendra un standard incontournable pour améliorer la productivité et attirer les jeunes générations, qui recherchent des environnements de travail modernes et connectés.

    7. Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique ?

    Nous ne faisons pas de distinction stricte. Chaque rôle dans l’entreprise doit intégrer l’IA, quil s’agisse de marketeurs utilisant des outils génératifs pour automatiser des campagnes ou d’ingénieurs chefs de projets s’appuyant sur l’IA pour optimiser la gestion de leurs plannings. Les développeurs travailleront en collaboration avec des agents IA pour accélérer leurs cycles de production, tandis que les CTO et managers utiliseront des outils intelligents pour piloter leurs indicateurs de performance. Cette polyvalence est au cœur de notre approche.

    8. Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables ?

    Nous privilégions des approches de transformation ciblées et pratiques plutôt que des formations classiques. Par exemple, un ou une ingénieure avec des compétences en VBA (note : Visual Basic for Applications) pourrait être accompagné pour se former à Python et à l’automatisation, augmentant ainsi sa valeur ajoutée dans l’entreprise. Un collègue secrétaire pourrait apprendre à utiliser des outils « no-code » ou des chatbots pour améliorer la gestion des intranets ou la création de contenus automatisés. Ces plans de transformation, accompagnés d’experts ou de consultants, permettront aux employés de devenir les acteurs de leur propre évolution.

    9. Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA ?

    Nous appelons à une plus grande ouverture dans l’écosystème de l’intelligence artificielle, en particulier à travers l’open source. Cela permettrait de garantir une compétitivité équilibrée et d’éviter une concentration excessive de pouvoir entre les mains de quelques grands acteurs. Les modèles d’IA devraient être facilement personnalisables et utilisables en local pour protéger les données sensibles des entreprises. Cette approche favoriserait un écosystème plus collaboratif et innovant, permettant à un plus grand nombre d’entreprises de bénéficier des avancées technologiques.

    Pierre-Emmanuel Dumouchel, fondateur et Directeur Général de la start-up Dessia Technologies, interviewé, par  Pascale Vicat-Blanc, avec l’aide Erwan Le Merrer, avec le concours de la SIF.

     

     

  • De l’impact de l’IA sur les industries culturelles et créatives.

    La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’Intelligence Artificielle (IA) sur les métiers, en commençant ici par l’impact de l’IA sur les industries culturelles et créatives, grâce à une interview de Quentin Auger, Directeur de l’Innovation chez Dada ! Animation, Erwan Le Merrer, Président du Conseil Scientifique de la SIF, Marie-Paule Cani, Serge Abiteboul et Thierry Viéville.

    Bonjour Quentin, pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ? 

    Je suis co-fondateur et directeur de l’innovation de  Dada ! Animation, un studio d’animation 2D et 3D orienté « nouvelles technologies » (entendre moteurs de jeux / temps réel, Réalité Virtuelle et Augmentée / XR, ou IA) appliquée à l’animation pour la TV, le cinéma, le web et les nouveaux médias immersifs et de réseaux. 

    De formation ingénieur en Design Industriel de l’Université de Technologie de Compiègne (1994), j’ai basculé vers le monde de l’animation 3D et des effets spéciaux en 1999, en retournant un temps à l’École des Gobelins. J’ai travaillé dans ces domaines en France dans de nombreux studios de différentes tailles, en Allemagne et aux USA (chez ILM, par exemple) et j’ai fondé en 2019 ce nouveau studio suite à des expérimentations réussies avec mes collègues cofondateurs dans une autre structure, où nous basculions les process classiques de la 3D dite « précalculée » vers le « temps réel » (via l’utilisation de moteurs de jeux vidéo comme Unity ou Unreal Engine) et vers la Réalité Virtuelle comme aide à la réalisation. Ces expérimentations nous ont d’ailleurs apporté à l’époque un prix Autodesk Shotgun à la conférence  SIGGRAPH 2019 à Los Angeles. 

    Capitaine Tonus : série d’animation ludo-éducative produite par Dada ! Animation pour Disney Channel, Lumni, TV5 Monde, RTBF, ERR, beIN.© 2024 Dada ! Animation – All rights reserved


    Nous avons passé le pas et focalisé Dada ! Animation sur ces approches nouvelles, auxquelles s’ajoutent maintenant les IA Génératives (IAG) que nous scrutons de près. Nous travaillons par ailleurs aussi sur des thèmes éditoriaux spécifiques et éthiques : le ludo-éducatif, le documentaire, la science, l’écologie, l’inclusivité, etc. 

    Mon travail consiste en énormément de veille technique et de détection de talents nouveaux adaptés à ces approches, en l’organisation de tests, et de préconisations en interne. Je dialogue ainsi beaucoup avec les écoles, les institutions du métier ( Centre National du Cinéma,  Commission Supérieure Technique,  CPNEF de l’Audio-Visuel…) et des laboratoires avec lesquels nous travaillons par ailleurs, pour leur faire des films (CNRS, CNSMDP, INRIA, …), pour tester des solutions techniques (IRISA, Interdigital, …) ou pour de la recherche. 

    Je coordonne d’ailleurs en ce moment un projet ANR, intitulé «  Animation Conductor »,  en collaboration avec l’IRISA, Université de Rennes 1 et LIX, Ecole Polytechnique, sur de l’édition d’animation 3D par la voix et les gestes. 

    L’Archéoconcert : Past Has Ears at Notre-Dame (PHEND). Film réalisé par Dada ! Animation pour le CNRS-Sorbonne Université et le Conservatoire National Supérieur de Musique et de Danse de Paris. © 2024 CNRS – Sorbonne Université – CNSMDP


    Enfin, je suis un membre actif du groupe de travail interstructurel 
    Collectif Creative Machines, regroupant des labos, des studios, des écoles et tout professionnel francophone intéressé par la réflexion sur les impacts des IAG dans nos métiers. 

    En quoi pensez-vous que l’IA a déjà transformé votre métier ? 

    Elle l’occupe déjà beaucoup rien qu’en veille et en colloques, en termes d’inquiétude et de discussions sans fin ! Je passe personnellement au moins 20% de mon temps à en évaluer et en parler… L’IA n’est bien-sûr pas nouvelle dans nos métiers de l’image de synthèse, bourrés d’algorithmes de toutes sortes, renouvelés régulièrement. On utilise même des algorithmes de modification d’images proches de modèles de diffusion (la même famille que Midjourney) depuis 10 ans (par exemple les « denoisers » de NVIDIA, qui accélèrent le rendu final d’images de synthèse), mais bien-sûr, j’imagine que « l’IA » dont on parle ici est celle, de nouvelle génération, souvent générative, propulsée par les récentes avancées des Transformers ou CLIP et par des succès techniques comme ceux d’OpenAI, Runway, Stability, Midjourney, etc. 

    Pour le monde de l’animation, tout ce qui touche le texte (les scénarios, mais aussi le code, très présent) est bien-sûr impacté par les grands modèles de langage (LLMs), mais, j’ai l’impression que c’est principalement en termes d’aide à l’idéation ou pour accélérer certains écrits, jamais au cœur ou en produit final (des problèmes de droits d’auteurs se poseraient alors aussi !), du moins pour du média classique. Pour ce qui est de l’image, idem : pour la partie du métier qui ne la rejette pas complétement (c’est un sujet radioactif du fait des méthodes d’entraînement disons « agressives » vis-à-vis des droits d’auteurs et du copyright), au mieux les IAG sont utilisées en idéation, pour de la texture, quelques fois des décors (ce qui pose déjà beaucoup de problèmes éthiques, voire juridiques). Il n’y a pas encore de modèles intéressants pour générer des architectures 3D propres, de la bonne animation, etc. Et pour cause, les données d’entraînement pertinentes pour ce faire n’ont jamais été facilement accessibles à la différence des images finales ! On n’a pas accès aux modèles 3D d’Ubisoft ou de Pixar… 

    Making-of des séquences animées réalisées par Dada ! Animation pour le pilote du documentaire « Ils étaient des millions ». © Seppia – Indi Film – Arte


    En revanche, les mondes des effets spéciaux visuels (VFX) et du son, en particulier de la voix, ont accès déjà à des modèles puissants de traitement d’images et de sons réels, et de nombreux studios commencent à les intégrer, surtout pour des tâches lourdes et ingrates : détourage, rotoscopie, relighting, de aging/deepfake, doublage, etc. 

    Des défis juridiques et éthiques demeurent tout de même pour certaines de ces tâches. Les comédiens par exemple, luttent pour garder bien naturellement le contrôle professionnel de leur voix (une donnée personnelle et biométrique qui plus est). De nombreux procès sont encore en cours contre les fabricants des modèles et quelques fois contre des studios ou des diffuseurs. Mais il est difficile de ne pas remarquer un lent pivot de l’industrie Hollywoodienne vers leur utilisation (par exemple par l’accord Lionsgate x Runway, James Cameron au board de Stability, des nominations chez Disney, etc.) et ce, alors que ces sujets furent pourtant au coeur des grèves historiques des réalisateurs, acteurs et auteurs de l’année dernière ! 

    On peut parler d’une ambiance de far west dans ces domaines, tant il y a d’incertitudes, qui se rajoutent en ce moment au fait que la conjoncture dans l’audiovisuel et le jeu video est catastrophique et ne promet pas de s’arranger en 2025 (cf. les chiffres du secteur par le CNC au RADI-RAF 2024

    A quels changements peut-on s’attendre dans le futur ? Par exemple, quelles tâches pourraient être amenées à s’automatiser? A quel horizon ? 

    Pour les effets spéciaux, il devient absurde d’imaginer faire du détourage, du tracking et de la rotoscopie encore à la main dans les mois qui viennent (et c’était le travail d’entreprises entières, en Asie entre autres…) De même, les tâches de compositing, relighting, etc. vont être rapidement augmentées par des modèles génératifs, mais, je l’espère, toujours avec des humains aux commandes. On risque d’ailleurs de voir diverses tâches « coaguler » autour d’une même personne qui pourra techniquement les mener toutes à bien seule, mais pour laquelle la charge mentale sera d’autant plus forte et les responsabilités plus grandes ! On a déjà vécu cela lors de l’avènement des outils de storyboard numérique qui permettaient d’animer, de faire du montage, d’intégrer du son, etc. Moins d’artistes ont alors pu, et dû, faire plus, dans le même laps de temps, et sans être payés plus chers puisque tout le monde fut traité à la même enseigne et que la compétition fait rage…

    Les Designers aussi commencent à voir de leur travail s’évaporer, surtout dans les conditions actuelles où la pression est forte « d’économiser » des postes, sur des productions qui pensent pouvoir se passer d’un regard humain professionnel remplacé par quelques prompts. Cela peut en effet suffire à certaines productions, pour d’autres, c’est plus compliqué. 

    Sinon, dans les process d’animation 3D, ce ne sont pas des métiers, mais des tâches précises qui pourraient être augmentées, accélérées (texture, dépliage UV, modélisation, rig, certains effets). Mais honnêtement, vu la conjoncture, l’avènement des IA de génération vidéo qui court-circuitent potentiellement tout le processus classique, de l’idée de base à l’image finale, vu l’apparition des IA dites « agentiques » qui permettent à des non-codeurs de construire temporairement des pipelines entiers dédiés à un effet, et vu l’inventivité habituelle des techniciens et artistes, il est en fait très dur d’imaginer à quoi ressembleront les pipelines des films et des expériences interactives dans 5 ans, peut-être même dès l’année prochaine ! Et c’est bien un problème quand on monte des projets, des budgets, et encore pire, quand on monte des cycles de formations sur plusieurs années… (la plupart des très nombreuses et excellentes écoles d’animation, VFX et Jeu Vidéo françaises ont des cursus sur 3 à 5 ans). Certains prédisent l’arrivée avant l’été 2025 des premiers studios « full AI ». Cela ne se fera en tous cas pas sans douleur, surtout dans le climat actuel. 

    Développement Dada ! en collaboration avec l’IRISA pour une description « universelle » de contrôleurs d’animation 3D entre logiciels. © 2024 Dada ! Animation – All rights reserved


    Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes ? Pouvez-vous préciser quelles formations, à quel niveau ? / Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique. 

    De plus grosses entreprises, selon leurs projets, peuvent embaucher des data scientists et ingénieurs en apprentissage machine, mais la réalité pour la majorité des petits studios est qu’on travaille avec les outils disponibles sur le marché. Au pire, une petite équipe de développeurs et « TD » (Technical Directors, postes paradoxalement entre la R&D et les graphistes) vont faire de la veille des modèles (si possibles disponibles en open-source) à implémenter rapidement (en quelques heures ou jours) dans des solutions de type ComfyUI, Nuke, Blender où ils ont de toute façon la charge de coder des outils. On ne change donc pas vraiment de profils recherchés car ceux-ci étaient déjà nécessaires pour maintenir les productions. En revanche, il est important de trouver des profils qui ont une appétence pour ces nouvelles approches non déterministes et qui aiment « bricoler » des dispositifs qui pourront changer d’une semaine à l’autre au fil des publications scientifiques… C’est tout de même assez typique de profils VFX je pense, même si les rythmes d’adaptation sont plus soutenus qu’avant.

    Pour ce qui est de la formation, il est indispensable pour ces postes qu’ils connaissent ces métiers. Ils doivent donc être issus de nos écoles d’animation / VFX, mais elles ne peuvent former qu’en surface à ces outils car ils changent trop souvent, ils remettent en cause pour l’instant trop de pipelines, et ne permettent pas de créer de cursus stables ! 

    Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables? 

    Tous ceux dont je viens de parler : les techniciens des pipelines, les ITs et a minima les managers pour qu’ils en comprennent au moins les enjeux. 

    Les artistes sont habitués à apprendre de nouveaux algorithmes, qui viennent chacun avec leur particularités. Mais si les nouvelles méthodes impactent trop la distribution des métiers, ce sont les équipes entières qui devront les reconstruire. 

    Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables?

    Cela dépend de leur métier, mais je pense qu’on arrive vers un nouveau paradigme de l’informatique, avec de nouveaux enjeux, de nouvelles limites et possibilités. Tout le monde devrait a minima être au courant de ce que sont ces IAG, et pas que pour leur métier, mais aussi pour leur vie personnelle, pour les risques de deepfake temps réel et autres dangers ! Ca donnera d’ailleurs vite la mesure de ce qu’on peut en faire en terme d’audio-visuel.

    Animation Keyframe en VR chez Dada ! Animation. © 2024 Dada ! Animation – All rights reserved


    Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA? 

    Quand des technologies des médias évoluent autant, on s’attend à un enrichissement des œuvres (elles pourraient devenir toutes immersives, 8k, 120 images/secondes, avec de nouvelles écritures, plus riches, etc.) et/ou à leur multiplication et potentiellement à un boom de l’emploi. C’est arrivé avec le numérique, la 3D, l’interactif, les plateformes… D’ailleurs avec un impact environnemental conséquent. Cependant, on arrive dans un moment économique compliqué et le « marché de l’attention » semble saturé : l’américain moyen consomme déjà 13h de media par jour, à plus de 99% produits pour les nouveaux réseaux (tiktok, instagram, etc.) et le reste classiquement (cinéma, TV, jeux). 

    Ces médias classiques restent tout de même encore majoritairement consommés, mais nous souffrons déjà de ce que j’appellerais une « malbouffe numérique », addictive, trop présente, trop synthétique, et pas que côté média, en journalisme aussi, pour la science en ligne, etc. 

    On imagine alors mal ce que la baisse de la barrière à l’accès de la création d’effets numériques, que propose l’IAG, va apporter de positif. Sans doute pas moins de « contenus », mais aussi, et même s’ils étaient de qualité, sans doute pas non plus pour un meilleur soin de notre attention, ni de notre environnement vu l’impact du numérique – et encore plus s’il est lesté d’IAG – sur l’énergie et l’eau. 

    C’est aussi ce mélange de crises existentielles, sanitaires et environnementales que traverse le monde des médias en ce moment. 

    Nous n’avons pas encore géré la toxicité des réseaux sociaux qu’une vague générative artificielle arrive pour a priori l’accentuer à tous égards. 

    Il serait bon, peut-être vital même, que les chercheurs et entrepreneurs du domaine s’emparent de ces questions, avec les créateurs. Une des voies assez naturelle pour cela est de rencontrer ces derniers sur leur terrain : plutôt que d’apporter des solutions hyper-technologiques qui cherchent des problèmes à résoudre, qu’ils entendent ce que les créateurs professionnels demandent (pas le consommateur lambda subjugué par des générateurs probabilistes de simulacres d’œuvres, même s’il doit être tentant, j’entends bien, de créer la prochaine killer app en B2C), qu’ils comprennent comment ils travaillent, avec quelle sémantique, quelles données, quels critères, et quels besoins (vitaux, pour « travailler » leur art) de contrôle. 

    J’en croise de plus en plus, de ces chercheurs et entrepreneurs interrogatifs sur les métiers qu’ils bousculent, qu’ils « disruptent », et qui sont avides de discussions, mais les occasions officielles sont rares, et la pression et les habitudes des milieux de la recherche, de l’entreprenariat et de la création sont quelques fois divergents. On devrait travailler d’avantage à les croiser, dans le respect de ce qui reste naturellement créatif de part et d’autre. 

    Quentin Auger, Directeur de l’Innovation chez Dada ! Animation, interviewé, par Erwan Le Merrer, avec le concours de la SIF.