Catégorie : Science

  • Podcast : loi et vie privée

    Le numérique, la loi et notre vie privée

    La collecte massive de données modifie-t-elle la notion de « vie privée » ? Le droit doit-il s’adapter à une société devenue numérique ? Pourquoi et comment expliquer les résultats d’un algorithme ? L’articulation entre droit et techniques pose autant de questions de droit, société, éthique auxquelles tout citoyen doit être sensible…

    Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

    Spécialiste en protection de la vie privée, Daniel Le Métayer est directeur de recherche au centre de recherche Inria Grenoble – Rhône-Alpes et membre de l’équipe de recherche Privatics. Jusqu’en juin 2016, il a été responsable de l’Inria Project Labs Cappris qui regroupait les équipes de recherche actives dans le domaine de la protection de la vie privée.

    Ses activités de recherche tournent autour des interactions entre le droit et les nouvelles technologies. Il lui arrive également d’alerter le public sur les limites et les dangers de certains projets comme ce fut le cas lors de la loi sur le renseignement (2015) et du décret instituant le fichier TES (2016).

    Pour aller plus loin

  • Podcast : Interaction humain machine

    Découvrir ce que sont les interfaces humain-machine

    Comment les humains interagissent avec les machines (ordinateur, smartphone, etc.) ? Comment concevoir des systèmes efficaces, efficients et satisfaisants pour leurs utilisateurs ? Voici les questions qui se posent dans ce domaine particulier qu’est l’IHM, et qui s’intéresse à la conception de systèmes, comme son nom l’indique, à l’interface entre les humains et les machines…

    Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

    Anke Brock est chargée de recherche au sein de l’équipe-projet Potioc au centre de recherche Inria Bordeaux – Sud-Ouest. Née en Allemagne, elle a travaillé 5 ans dans un département de recherche et développement dans l’industrie automobile avant de rejoindre la France. Chez Inria, elle œuvre dans le domaine de l’interaction Homme-Machine, et travaille désormais au développement de son propre projet de recherche : l’interaction avec les cartes géographiques.

    Pour aller plus loin

     

  • La science, une histoire d’humour !

    La deuxième édition du forum sur les Nouvelles Initiatives en Médiation Scientifique (NIMS), organisé par le CNRS et la CPU (Conférence des Présidents d’Université) s’est déroulée à Paris le 14 juin dernier. Nous vous avions déjà raconté l’édition 2016. Nous ne résistons pas à l’envie de partager l’un des temps forts de cette journée avec la table ronde dédiée à l’humour dans les sciences. Chez binaire, nous adorons les sciences mais nous aimons tout autant rire !  

    NIMS c’est quoi ? Une journée où des professionnels de la médiation et de la communication scientifique et des chercheur.e.s se retrouvent pour échanger sur les bonnes pratiques, découvrir des idées originales et parfois décalées ou réfléchir à la meilleure façon de parler de sciences au grand public. Un maître mot : attirer, surprendre, informer différents publics sur la richesse du monde de la recherche toutes disciplines confondues.

    Le programme de cette édition 2017 était une fois de plus très varié. En introduction, on a parlé de la place de la science à la télé. Pas la peine de vous creuser la tête ; une seule émission en France (Xenius sur Arte) pour plus d’une trentaine en Allemagne. Puis les sessions se sont enchainées pour parler de dispositifs numériques dans les expositions, de concerts ou comédies musicales scientifiques (totalement décoiffant), de pépites de médiation dans les sciences humaines et sociales ou bien encore de sciences participatives. La session coup de cœur de cette année était celle dédiée à la rigolade (mais version scientifiquement approuvée).

    Quand l’humour déride les sciences

    Tweet @GaelleHeron

    Les quatre intervenants ont présenté chacun leurs projets et abordé plusieurs approches de l’humour. Le public a beaucoup réagit sur Twitter (#ForumNIMS) sur l’importance de l’humour mais surtout sur le bien fondé d’une telle démarche. L’humour ne nuit-il pas au message ? À quoi sert-il ? Peut-ton rire de tout ? Les points de vue sont nombreux, les formats et les styles aussi. Clairement affaire de personnalités (L’humour est un art !), il est perçu avec plus ou moins de succès selon le public.

    Pour vous faire une opinion, je vous propose une liste (non exhaustive) de liens sur différents formats de médiation scientifique humoristique qui ont été évoqués durant le forum mais aussi proposés spontanément par les Twittos. De quoi prendre quelques petites doses d’humour !

    Il existe un nombre grandissant de sites, blogs, évènements, concours, BD sur la médiation par l’humour. Impossible de tous les citer. Mais, faites comme nous. Installez-vous confortablement, peut-être avec des amis, peut-être avec un verre de bon vin. Tapez les mots clés « Sciences Humour »  dans votre navigateur web favori. Faites-vous plaisir !

    Marie-Agnès Enard

  • Construire une machine Turing

    Nous avons reçu un article de Marc Raynaud qui nous fait partager son expérience de la création d’une machine de Turing et son utilisation dans un environnement scolaire. La machine de Turing est un objet à la fois complexe et simple, explorons un peu cet « engin », construit avec des technologies dont aurait pu se servir Turing à l’époque de la publication de son article fondateur. Pierre Paradinas, Cnam.

    Crédits Photos sur tout l’article : Marc Raynaud

    Construire une machine Turing

    Alan Turing a publié en 1936 un article intitulé : « Sur les nombres calculables avec une application au problème de la décision » Dans cet article fondateur de la science informatique, il décrit un dispositif que son maître de thèse Alonzo Church appellera une machine de Turing.

    Le principe est extrêmement simple, il suffit de disposer d’un ruban infini, constitué de cases pouvant contenir des symboles. Un mécanisme peut lire, écrire et se déplacer d’une case vers la gauche ou vers la droite. La machine peut changer d’état avec des « transitions’. Sur un exemple de transition, c’est encore plus simple :

    • si la machine est à l’état 3, si elle lit un 1,
    • on peut lui dire : écrit un 0,
    • et déplace-toi d’une case à gauche et passe à l’état 5.

    Voilà vous savez tout…

    Par exemple, nous pourrions déterminer dans une suite de 0 et de 1 si le nombre de 1 est pair. Pour cela on va utiliser une « bascule » qui représentera le nombre de 1…

    À chaque fois que la machine lira un 1, elle passera de l’état q1 à l’état q2 et inversement. Son état (q1 ou q2) à la fin du parcours correspondra à la parité du nombre de 1 rencontrés. On lui dit alors de passer une case et de nous écrire sa réponse sous la forme d’un 1 dans le cas impair et d’un 0 dans le cas pair.

    On représente l’algorithme par une table des transitions.

    La partie en jaune correspond aux instructions que l’on peut donner à la machine. Elle peut écrire, se déplacer d’une case à gauche ou d’une case à droite et changer d’état. À noter l’état 12 est ici l’état final, il provoque l’arrêt de la machine. Cette table des transitions, nous donne le modèle de feuille de programmation à réaliser sous la forme d’une feuille perforée.

    Comment réaliser une « vraie machine »?

    Le ruban infini a été replié sur lui-même sous la forme d’un disque qui comprend 100 cases, il n’est pas infini, mais il est quand même assez grand pour notre usage. Le codage binaire correspond à la hauteur de petits cylindres en fer. Le mécanisme d’écriture a été réalisé avec des moteurs Lego qui entraînent des crémaillères (l’asservissement des moteurs a été réalisé avec des cames et des relais, sans électronique). Le mécanisme de lecture pousse une tige par l’intermédiaire d’un ressort, contre les petits cylindres, la position de butée indique au système le symbole écrit. Le comportement de la machine dépend à tout instant de l’état et du résultat de la lecture, pour cela on utilise deux types de mémoire : (i) l’état est mémorisé simplement par la position physique du commutateur des états, (ii) le résultat de la lecture est mémorisé dans un des 3 relais prévus à cet effet. En fait, le schéma électrique général est directement issu du principe donné par Alan Turing.

    Principe de fonctionnement

    Pour que le système fonctionne, il faut générer des impulsions ! Dans vos ordinateurs, un quartz en produit des milliards par seconde. Ici, on se contente d’une ou deux impulsions par seconde. Elles sont générées par une horloge (le même hardware (matériel)  que le premier ordinateur construit au monde, par Charles Babbage), les impulsions sont dirigées vers les différents organes de la machine. À chaque tour d’horloge on produira une impulsion vers le mécanisme de la lecture, vers les relais sous le lecteur pour renvoyer aux systèmes de déplacement, d’écriture et de changement d’état.
    De nombreuses machines et de nombreux modèles de calcul ont été proposés. Il est fascinant de découvrir qu’ils calculent tous la même chose. La machine de Turing dans son extrême simplicité (avec un ruban infini) peut réaliser les mêmes programmes que la machine la plus sophistiquée.

    La machine à l’école

    Lors de séances dans des classes de lycée la machine permet la recherche d’algorithmes (actions sur les chaînes de caractères, calculs en binaire, division Euclidienne, PGCD, suites numériques,…) avec des tests directement qui montrent la valeur pédagogique à voir un algorithme s’exécuter directement en pas à pas . Quand l’algorithme ne fonctionne pas j’entends souvent la phrase « Ah je vois pourquoi » l’erreur peut être plus formatrice que la réussite !

    Présentation de la Machine de Turing au Lycée Lesage à Vannes. © Marc Raynaud
    Et utilisation programmation de la Machine de Turing. © Marc Raynaud

    Marc Raynaud, Association Rennes en Sciences

    Pour aller plus loin:

  • Prolog est orphelin

    Nous venons d’apprendre le décès d’Alain Colmerauer et il nous semble important de dire quelle était sa place dans le paysage de l’informatique mondiale. Alain est l’inventeur du langage Prolog, qui a joué un rôle clé dans le développement de l’IA, il se trouve que plusieurs binairiens ont programmé avec ce langage, pour leur recherche ou pour payer leurs études ainsi que de proposer des extensions. Un collègue ami d’Alain, Philippe Jorrand, Directeur de recherche émérite au CNRS, nous parle de son parcours. Pierre Paradinas.

    Photo : Alain Colemrauer

    Alain Colmerauer était un ancien de l’IMAG (Institut d’Informatique et de Mathématiques Appliquées de Grenoble), devenu une personnalité scientifique de premier plan par le rayonnement international de l’œuvre majeure de sa recherche, le langage PROLOG.

    Alain Colmerauer était un élève de la première promotion de l’ENSIMAG, diplômée en 1963. Il a débuté sa recherche au Laboratoire de Calcul de l’Université de Grenoble, l’ancêtre du LIG. Dans sa thèse, soutenue en 1967, il développait les bases théoriques d’une méthode d’analyse syntaxique. Puis, pendant son séjour de deux ans à l’Université de Montréal, c’est en imaginant une utilisation originale des grammaires à deux niveaux (les « W-grammaires »), qu’il a établi les bases embryonnaires de ce qui allait devenir PROLOG.

    De retour en France en 1970, il accomplit ensuite toute sa carrière à l’Université de Marseille, où il devient professeur. C’est là, au Groupe d’Intelligence Artificielle du campus de Luminy, qu’il forme avec détermination une petite équipe de jeunes doctorants, puis d’enseignants-chercheurs, pour développer la PROgrammation en LOGique. Sous sa direction, c’est ce petit groupe qui a élaboré les fondements théoriques de cette approche originale de la programmation, puis conçu et mis en œuvre les versions successives du langage qui allait connaître un succès international et être la source d’un courant de recherche fertile : PROLOG I, PROLOG II, PROLOG III où les contraintes linéaires venaient rejoindre la logique puis Prolog IV avec une théorie d’approximation plus aboutie, des contraintes sur les intervalles, et un solveur.

    Prolog III, manuel de référence, Prologia, Marseille, 1996

    Par ailleurs, le langage Prolog sera adopté par le projet d’ordinateur de 5ème génération développé par le MITI au Japon dont l’objectif était de créer une industrie et les technologies de l’intelligence artificielle à la fin des années 80. Une entreprise PrologIA, distribuera le langage dans ses différentes version.

    Alain Colmerauer a toujours été un esprit original. Il se défiait de tout ce qui peut ressembler à une pensée unique, et n’hésitait pas à exprimer des idées parfois iconoclastes, mais souvent fécondes. Il croyait à ce qu’il faisait, et sa ténacité lui a souvent été utile face à quelques difficultés institutionnelles et à l’incrédulité de collègues plus installés que lui dans les modes scientifiques. Pour ceux qui l’ont bien connu pendant de longues années, Alain était un ami solide.

    Alain Colmerauer est décédé à Marseille, le vendredi 12 mai 2017.

    Philippe Jorrand, DR émérite CNRS

    Pour aller plus loin :

  • Podcast : robot et société

    Quand les robots changent nos lois.

    L’utilisation des robots ne se limite plus à des espaces industriels contrôlés. Ils sont intégrés dans nos espaces quotidiens, et y interagissent de manière plus ou moins prédictible. Ce sont donc des objets auxquels les lois actuelles en matière de responsabilité, par exemple, ne sont plus complètement adaptées. Décryptage…

    Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

    Jean-Pierre Merlet est directeur de recherche Inria, responsable scientifique de l’équipe Hephaistos, et membre Fellow de l’IEEE. Ses recherches actuelles en robotique portent sur le développement de plate-formes robotisées destinées aux personnes âgées et handicapées, pour les aider à garder une certaine autonomie, et autres services à la personne. Il a aussi apporté des contributions majeures dans le domaine de la robotique de précision à hautes performances (robots parallèles) et en prospective scientifique liée à la robotique.
    Il est aussi un chercheur très engagé, tout particulièrement en ce qui concerne la défense d’une recherche publique de qualité, et les liens entre la recherche et les grands enjeux éthiques et environnementaux.

    Pour aller plus loin

    (*) on note bien (contrairement à des auteurs qui parlent sans aucune précaution de « droits des robots » en raisonnant sur des éléments littéraires de science-fiction et non sur les réalités technologiques actuelles ou prospectives) que le statut juridique des robots n’a aucun lien avec le fait de personnifier un robot (comme on personnifierait un nounours) ; donner une capacité juridique à un robot est à rapprocher de celle donnée à une personne morale (une association ou une structure privée).

  • Podcast : les robots

    Tout ce qu’on peut dire de la robotique.

    Ce qui est paradoxal, c’est que la robotique est en train de produire des objets programmables inouïs, mais tout à fait différents du fantasme usuel lié à la science-fiction du siècle dernier. Elle plonge le monde numérique au cœur même du monde réel, et ce, au delà des idées reçues…

    Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

    Pierre-Yves Oudeyer est directeur de recherche Inria et responsable scientifique de l’équipe FLOWERS*. Docteur en Intelligence Artificielle, plusieurs fois primé, il s’intéresse à la modélisation informatique et robotique de l’apprentissage et du développement sensori-moteur et social chez l’humain et les machines. Il étudie en particulier les mécanismes de curiosité, de  maturation, le rôle du corps dans le développement cognitif, et des interactions homme-robot permettant l’apprentissage par imitation.
    Il est aussi auteur du livre Aux sources de la parole: auto-organisation et évolution, et participe activement à la diffusion des sciences vers le grand public, au travers d’ émissions de radios/télé et d’ expositions sur les sciences et de l’écriture d’articles et de livres de vulgarisation, comme Mondes mosaïques Astres, villes, vivant et robots Jean Audouze , Georges Chapouthier , Denis Laming , Pierre-Yves Oudeyer, CNRS Edition, 2015 (en savoir plus).

    Pour aller plus loin

  • Binaire marche pour les sciences

    Galileo Galilei, dit Galilée : le combat de la science contre le pouvoir est-il uniquement à conjuguer au passé ? ©Wikipédia

    Pourquoi les citoyennes et citoyens, dont les scientifiques, organisent-ils une marche mondiale, le 22 avril, pour les Sciences ?

    L’origine d’une marche. Née aux Etats-Unis à la suite d’une conversation sur Reddit, l’initiative, devait être initialement limitée aux chercheurs américains, en première ligne face à la nouvelle administration Trump « qui menace d’entraver davantage la capacité des chercheurs à mener à bien leurs recherches et à diffuser leurs résultats ». Elle est en train de prendre une toute autre dimension. En effet, la marche pour les sciences est devenue un mouvement mondial. En France, Marche pour les sciences rassemble plus d’une dizaine d’initiatives citoyennes, soutenues par les plus grands instituts scientifiques français.
    Sources: communiqué du CNRS, communiqué InriaNumérama: pourquoi-les-scientifiques-organisent-une-marche-mondiale.

    Quel est l’enjeu ?

    Défendre la recherche scientifique, en particulier quand elle s’engage dans une démarche d’ouverture et de partage citoyen des enjeux et des résultats de la recherche : volonté de faire des données de la science des données ouvertes, de développer des paradigmes de sciences participatives, de faire de la vulgarisation scientifique une facette incontournable des métiers de la recherche, d’associer citoyennes et citoyens aux réflexions sur les enjeux de la recherche. Une telle démarche devient rapidement dérangeante quand le pouvoir veut verrouiller les discussions sur certains sujets.

    Et au delà ?

    Oui, il y a un « au delà » : il s’agit aussi de défendre l’esprit critique, le décodage de la vérité, le respect des lois naturelles et humaines (notre environnement, notre justice), la nécessité que chacune et chacun puisse se construire une vision éclairée des faits. Que notre regard ne se trumpe pas de direction : argumenter sur des « fake news », utiliser les chiffres sans fondement comme des arguments magiques, remettre en cause la justice, ce n’est pas un danger localisé ailleurs. Il est aussi bien de chez nous.

    Alors que ferez-vous le 22 avril ?   Nous, nous marcherons !

    Les éditeurs de Binaire.

  • Podcast : Intelligence-artificielle

    Enjeux et histoire de l’intelligence artificielle.

    Certaines personnalités (Bill Gates, Elon Musk, Stephen Hawking…) ont lancé un appel afin de mettre en garde contre les dangers de l’intelligence artificielle. Terminator et Skynet vont-ils détruire l’humanité ? Visiblement, la question ne se pose pas comme cela…

    Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

    Nicolas Rougier est chercheur à l’Inria au sein de l’équipe Mnemosyne et de l’Institut des maladies neurodégénératives à Bordeaux. Il travaille en neurosciences computationelles et cherche à comprendre le fonctionnement du cerveau au travers de modèles informatiques.

    Pour aller plus loin

     

  • Le processeur qui spéculait plus qu’un trader

    portraitNous retrouvons aujourd’hui, Arthur Pérais un des lauréats du prix de thèse Gilles Kahn 2016, décerné par la SiF et patronné par l’Académie des Sciences. Son travail a pour titre  « Increasing the Performance of Superscalar Processors through Value Prediction », il a été soutenu à l’Université de Rennes 1, et préparé dans l’équipe-projet Inria ALF de l’IRISA, sous la direction d’André Seznec. Arthur pour Binaire, nous explique comment on peut revisiter d’anciennes techniques (du milieu des années 90) pour les nouvelles générations de processeurs comme ceux de votre téléphone mobile pour augmenter les performances. Pierre Paradinas

    « Avec deux fois plus de cœurs dans le processeur, l’appareil est deux fois plus performant. » Cet argument de vente est souvent avancé pour vanter les capacités d’un smartphone ou d’un ordinateur.

    Le processeur est le cerveau de la machine, et chacun de ses cœurs a pour rôle de suivre une liste d’instructions : un programme (par exemple, un navigateur web ou un jeu vidéo). Pour accélérer leurs calculs, certains programmes peuvent être divisés en sous-programmes qui vont s’exécuter sur les différents cœurs du processeur en parallèle, tout comme il est possible de faire plusieurs crêpes à la fois quand on dispose de plusieurs crêpières.

    Cependant, si on veut faire une seule crêpe, avoir plusieurs crêpières est inutile. Ainsi, de nombreux programmes ne peuvent pas être divisés en sous-programmes parallèles car les calculs qu’ils effectuent ne s’y prêtent pas.. Dans ce cas, un seul cœur exécute tout le programme.

    Lors de ma thèse, j’ai donc travaillé à améliorer la performance d’un seul cœur grâce à la prédiction de valeurs. La prédiction de valeurs, c’est comme monter une étagère sans lire le manuel, en spéculant sur la position des pièces, des vis et chevilles. Par exemple, au lieu de passer 15 minutes à lire le manuel et 45 minutes à monter l’étagère, on peut gagner 15 minutes en passant directement au montage. La tâche achevée, il faut vérifier qu’on ne s’est pas trompé, mais cela n’empêche pas de commencer à ranger des livres dans l’étagère après 45 minutes, et non 60. Naturellement, si on a fait une erreur lors du montage, il faut tout recommencer.

    illustration-perais

    C’est comme ça que se comporte la prédiction de valeurs : on gagne peu lorsque l’on prédit bien, et on perd beaucoup lorsque l’on prédit mal. Heureusement, les calculs effectués par les programmes sont souvent redondants, et de nombreux résultats peuvent donc être prédits correctement.

    Pour ce faire, un prédicteur de valeurs est ajouté à chaque cœur. Il mémorise les derniers résultats produits par les différentes instructions, et tente d’identifier des motifs qui se répèteraient. Par exemple, une instruction qui dans le passé a produit 1, 2 puis 1 produira sans doute 2 lorsqu’elle sera exécutée à nouveau. Le résultat prédit est utilisé pour exécuter la prochaine instruction sans attendre le « vrai » résultat, ce qui accélère l’exécution du programme.

    Au cours de mon doctorat, j’ai développé des algorithmes de prédictions permettant d’identifier des motifs complexes dans les résultats produits, et j’ai montré comment les implanter dans un processeur de façon réaliste.

    Finalement, afin d’estimer le gain  de performance, j’ai utilisé un programme simulant un processeur moderne. Ce simulateur lit les instructions d’un autre programme (par exemple un navigateur), et l’exécute comme il serait exécuté sur une vraie puce, tout en comptant le temps nécessaire à l’exécution du programme. Par ce procédé, et suivant le programme accéléré, j’ai pu mesurer des gains de performance allant du négligeable jusqu’à plus de 30%, ce qui peut paraître peu mais est très encourageant dans ce domaine.

    Arthur Pérais

  • Petit algo deviendra grand

    jvJean Vuillemin Professeur à l’École Normale Supérieure, nous parle ici de multiplication égyptienne. Pourquoi ? Car cet algorithme, très ancien, est redevenu un outil majeur, sous le nom de produit binaire. Le lecteur intéressé par les détails historiques se reportera à la version disponible ici

    En 1703, Leibnitz publie son Explication de l’arithmétique binaire. Il n’utilise qu’une seule page pour donner la table des nombres binaires et décrire les 4 opérations +, −, ×, ÷ (addition, soustraction, multiplication et division). Les trois autres pages font une large place aux considérations historiques : « cette Arithmétique par 0 & 1 se trouve contenir le mystère des lignes d’un ancien Roi & Philosophe nommé Fohy, qu’on croit avoir vécu il y a plus de 4000 ans, et que les Chinois regardent comme le Fondateur de leur Empire et de leur Science ». Pouvait-il deviner que, un peu moins de trois siècles plus tard, des milliards de pucerons utiliseraient ce calcul ?

    Et on retrouve cet algorithme de la multiplication sur l’antique Papyrus de Rhind !

    L’égyptologue écossais Rhind achète à Louxor un Papyrus qui porte maintenant son nom et qui est conservé au British Museum. Ce Papyrus date des Hyksos (vers – 1800). Son auteur, le scribe Ahmès, indique reprendre des documents du Moyen Empire (vers – 2000).

    rhind_mathematical_papyrus-copy
    Détail de la première moitié du papyrus Rhind, original 199,5 × 32 cm, British Museum (EA 10058).

    Ce document contient une initiation à l’Art du Calcul, avec près d’une centaine d’exemples pratiques, explicites et instructifs. Faisons abstraction des premières lectures – allez voir l’article de Jean Vuillemin qui étudie le sujet en détail – et ignorons tout ce qui concerne les fractions et le texte illustratif. Le fragment de fond ainsi extrait contient une dizaine d’exemples de produits entiers avec un algorithme commun qui est la Multiplication égyptienne. Cet algorithme jusqu’à aujourd’hui tient une place unique dans l’Histoire du Calcul.

    L’approche décrite réduit la multiplication à une suite d’opérations primitives, exclusivement déterminée par les valeurs des opérandes entiers. Elle est donc indépendante du choix de la numération (base de représentation des nombres), modulo les trois opérations primitives que nous allons voir.

    Le carré de 12, en hiéroglyphe et en hiératique extrait de K. Sethe.

    Regardons comment ça marche !

    Un peu de patience et d’attention, vous verrez ce n’est pas dur… Calculons le carré de 12, donc 12 * 12 en base 10. Le point clé est que nous ne « savons pas » faire de multiplication. Ici, on a juste le droit de diviser et multiplier par deux, et faire des additions.

    On cherche avec cet algorithme à obtenir a*b (la multiplication de a par b). Pour cela, on effectue le calcul en 3 colonnes comme sur la figure ci-dessous, avec une ligne pour chaque étape (itération). On démarre la 1ère ligne avec la valeur de a et b de départ (ici 12 * 12).

    me-udepart

    On calcule une nouvelle ligne ainsi, dans la colonne de a en calculant la division entière par 2 de la dernière valeur (ici 12 divisé par 2 = 6). On passe à la ligne suivante dans la colonne b en dupliquant b, ce qui revient à le multiplier par 2 (ici 12*2 = 24). Pour la colonne c, si le résultat précédent de la colonne a est pair, on recopie la valeur précédente de la colonne c sinon (résultat impair) on fait la somme des colonnes précédentes b et c.

    me-1ere-etape     . . .    me-3eme-etape

    Et on obtient à la fin

    me-3eme-etape

    Autrement dit, on «bascule » de division par deux en multiplication par deux, la valeur du nombre a sur celui du nombre b.

    Mais à quoi bon faire ainsi ?

    Oui ! Pour quoi, me direz vous on ressort ce vieil algorithme…Eh bien parce que le Produit Binaire[1] de Leibnitz n’est rien d’autre que la Multiplication Égyptienne, en base 2. Ce petit algorithme, du rang de Curiosité Mathématique, va passer à celui d’Algorithme Fondamental avec les premiers ordinateurs, sous l’influence de Von Neumann et de bien d’autres.

    En effet, la particularité de cet algorithme, c’est qu’il est très rapide:  chaque division divise a par 2 (élimine un bit de a, diront les informaticiens), jusqu’à ce que a = 0.

    Plus précisément: le nombre de lignes du tableau est donc égal à la longueur de l’écriture binaire de l’opérande a, soit
 l = l2(a) = ⌈log2(a + 1)⌉. Le calcul de a*b nécessite l= l2(a) division et l−1 duplications; ce dernier nombre correspond au nombre de bits non nuls dans l’écriture binaire de a.

    Attendez ! En langage plus simple: vous prenez un nombre, disons 1024, divisons le par 2, jusqu’à trouver 0 (ici, 1024 → 512 → 256 → 128 → 64 → 32 → 16→ 8 →  4 →  2 → 1→ 0) on a fait 11 divisions alors que le nombre est un peu plus grand que 1000, bref on réduit très rapidement même un très grand nombre en le divisant successivement par deux (pour un milliard on ne fait qu’une trentaine de divisions : essayez :)). C’est pour cela que l’algorithme est très rapide (et oui c’est bien cela ce fameux logarithme que l’on apprend en maths).

    La bonne nouvelle est que pour les processeurs qui travaillent en base 2, l’addition est une opération simple et la duplication (la division par 2 d’un côté et multiplication par 2 de l’autre) n’est qu’un décalage des deux nombres.

    Plus précisément c’est un décalage vers les poids forts (à gauche) d’un bit, avec l’insertion d’un 0 en poids faible. La division est un décalage dans l’autre sens, et la parité c’est le bit de poids faible ainsi expulsé ! Le calcul des 3 opérations primitives devient alors simple et rapide. Pour vous en convaincre le même exemple en base 2 :

    me-4eme-etape-en-binaire
    La multiplication de 12 * 12 en binaire.

    c’est finalement encore plus simple en binaire, non ?

    Tout microprocesseur moderne calcule chacune de ces opérations en quelques nanosecondes. Par souci d’économie, la grande majorité des processeurs ne dispose pas de multiplicateur câblé. On les dote alors d’un multiplieur logiciel en compilant le code de ce petit algorithme. Ce que le matériel ne peut pas faire directement, le logiciel le compense. C’est ainsi, que chaque microseconde, des milliards de circuits de notre monde numérique calculent à l’aide de la Multiplication égyptienne en base 2.

    Jean Vuillemin (ENS, Paris) et Pierre Paradinas (Cnam, Paris).

    Pour aller plus loin:

    • Retrouver l’article complet de Jean sur ce lien;

    [1] Ici le mot binaire n’a rien à voir avec le titre du blog.

  • Les algorithmes en question

    La CNIL lance un vaste débat public sur les algorithmes. On s’en réjouit. Nous soutenons cette initiative et voulons nous mettre au service de ce débat.

    Parler des algorithmes, vraiment ?

    Mais, de quoi parle-t-on ? Voici ce qu’on a pu en dire :

    Cette définition, publiée par la CNIL, accumule les imprécisions*, montre combien tout se mélange dans nos esprits.

    Quand les algorithmes deviennent aussi importants dans nos vies, quand l’État s’en inquiète au point de vouloir les réguler, il faut faire attention à comprendre ce qu’on dit.

    La CNIL, a d’ailleurs corrigé sa définition suite aux nombres réations que sa publication a suscitées.

    (*) un algorithme n’est pas une formule mathématique, ce n’est pas une formule, et ce n’est pas des maths; des modèles statistiques, il y en a parfois, mais c’est aussi tant d’autres choses…

    Alors c’est quoi un algorithme ?

    Cela s’explique en quelques secondes à une ou un collégien-ne :

    et pour aller au delà de cette notion de base, la Société Informatique de France a proposé une définition de l’Informatique : Informatique – Quèsaco ?. Tandis qu’un livre arrive nous expliquer simplement ce que sont les algorithmes  Le temps des Algorithmes.

    Pour en avoir plus on peut profiter de l’interview des auteurs par Annabelle Laurent.

    Qui a intérêt à nous laisser dans l’ignorance ?

    Un article du monde laisse à penser que le débat sur ce que l’on fait aujourd’hui des algorithmes pourrait se faire sans ceux qui les créent et qui les comprennent, c’est-à-dire les informaticiennes et les informaticiens.

    On se retrouve du coup dans une démarche qui conforte ceux qui sont derrière les algorithmes pour faire du profit, dominer les autres, nous instrumentaliser au travers de nos données. Ceux qui  défendent leurs intérêts en la matière, à notre détriment.

    Le principe est de personnifier les algorithmes pour leur attribuer finalement la responsabilité de la façon dont ils sont utilisés. « Ce n’est pas moi, M’sieur, c’est mon algorithme.

    Pour cela il faut accepter l’idée que finalement les gens ne comprennent pas et ne comprendront jamais trop bien comment ça marche. Poser l’obscurantisme comme un préalable. Il faut donc en exclure les chercheur-e-s en science informatique ».

    Le débat est-il vraiment sur les algorithmes ?

    Heureusement, cet obscurantisme va prendre fin : les algorithmes s’apprennent désormais au lycée, et maintenant au collège et se découvrent même en primaire. Nos enfants* ne diront bientôt plus « les algorithmes vont me prendre mon job, me condamner à mort … ». Ils se tourneront non pas vers les algorithmes mais vers ceux qui utilisent les algorithmes et les dénonceront d’autant mieux qu’ils comprendront comment c’est fait.

    Que le débat commence.

    Toute l’équipe de Binaire.

    (*) Et les plus grands peuvent tout de même profiter de Binaire pour devenir des citoyennes et citoyens éclairés sur le sujet 🙂

  • Le temps de Gilles Dowek et Serge Abiteboul

    abitebouldowek-2Cher Serge,

    Ce vendredi 27 janvier parait ce livre qui vous tient tant à cœur à Gilles et toi:  « Le temps des algorithmes » aux éditions du Pommier. Tu ne voulais pas (par déontologie) en faire la pub sur ce blog dont tu es le fondateur, mais nous lisons régulièrement vos écrits et sommes intimement convaincus que cet ouvrage nous aidera à nous poser des questions fondamentales sur la place des algorithmes dans notre société.

     

    abitebouldowek-1
    Alors l’ensemble de l’équipe de Binaire (sauf toi !) avons décidé, comme pour toutes les autres productions de ce type, d’en faire très simplement l’annonce. En attendant, compte sur nous, pour en faire aussi la critique 🙂

    Amitiés.

    Pour accéder aux critiques du livre c’est ici : le-temps-des-algorithmes-le-cadeau

  • Un turbo dans l’algo

    Un nouvel « Entretien autour de l’informatique  ». Serge Abiteboul  et Christine Froidevaux interviewent Claude Berrou, un informaticien et électronicien, membre de l’Académie des sciences. Claude Berrou est Professeur à IMT Atlantique. Il est notamment connu pour ses travaux sur les turbocodes, très utilisés en téléphonie mobile. Sa recherche porte aujourd’hui sur les neurosciences informationnelles.

    Cet article est publié en collaboration avec TheConversation
    English version

    Claude Berrou, Page perso
    Claude Berrou, Page perso

    Binaire : Tu étais électronicien au départ, comment es-tu arrivé à l’informatique ?
    CB : Je suis un randonneur des sciences. Après une formation initiale à l’école qui s’appelle aujourd’hui Phelma, j’ai fait un peu de tout : électronique, traitement de signal, architecture de circuits. Puis je suis arrivé à l’informatique… par hasard, avec les codes correcteurs et la théorie de l’information.

    Binaire : Une question que nous adorons poser à Binaire, c’est quoi l’informatique pour toi ?
    CB : J’ai un aphorisme : l’informatique est à la science, ce que le langage naturel est à l’intelligence. Avant l’informatique, la science, c’étaient des équations, des formules et des théorèmes. L’informatique a permis de mettre en place des séquences d’opérations, des processus, des procédures, pour pouvoir traiter des problèmes complexes. Du coup, c’est presque synonyme de langage et c’est très comparable au langage naturel qui oblige à structurer. De même qu’on a un langage commun, l’informatique propose des langages compréhensibles par tous.

    Binaire : Tu as travaillé sur les codes correcteurs. Tu peux nous dire à quoi ça sert ?
    CB : Quand on transmet de l’information, on veut récupérer le message émis parfaitement. Même si on a beaucoup d’utilisateurs, et une bande passante limitée. Si le message est binaire, à cause du bruit et des interférences qui perturbent la ligne, certains 0 émis vont devenir des 1 reçus, des 1 devenir des 0. Plus le bruit est important par rapport au signal, plus fréquentes sont de telles erreurs. Le rapport signal sur bruit peut être dégradé, par exemple, par de mauvaises conditions météo ou par des perturbations causées par d’autres communications qui s’exécutent en même temps. Avec autant d’erreurs, la qualité est déplorable. Pour éviter cela, on code l’information à l’émission en ajoutant de la redondance. Le défi, c’est d’être capable de récupérer relativement bien le message sans avoir à mettre trop de redondance, sans trop faire grossir le message. Nous avons un peu le même problème avec le stockage dans les mémoires de masse. Des bits peuvent permuter, peut-être à cause de l’usure du disque. On introduit aussi de la redondance dans ces systèmes pour pouvoir récupérer l’information.

    Binaire : Tu nous parles de ta super invention, les turbocodes.
    CB : Les turbocodes sont nés grâce au Titanic, lorsqu’il a fallu assurer la transmission sans câbles de vidéos pour visualiser cette épave (des travaux d’Alain Glavieux). Je me suis amusé à essayer de diminuer l’effet du bruit dans les transmissions, et j’ai pensé qu’on pourrait introduire dans le décodage, pour le traitement d’erreurs, le principe de contre-réaction, une notion classique en électronique.

    Pour moi, l’interdisciplinarité est fondamentale ; l’innovation est souvent à l’interface des disciplines. Vous prenez une idée qui a prouvé qu’elle marchait quelque part dans les sciences, et vous essayez de l’adapter dans un tout autre contexte. L’idée à l’origine des turbocodes, c’est d’importer une technique d’électronique en informatique.

    Quand on veut réaliser un amplificateur avec un gain élevé, on en met 2 ou 3 en série. Mais ça donne des trucs instables. Pour stabiliser le montage, on met en œuvre un principe de contre-réaction : renvoyer vers l’entrée de l’amplificateur une fraction de sa sortie, avec le signe « – » , cela atténue les variations intempestives.

    Je suis parti d’un algorithme connu : l’algorithme de Viterbi. Il permet de corriger (s’il n’y a pas trop de bruit) les erreurs survenues lors d’une transmission à travers un canal bruité et peut donc être considéré comme un amplificateur de rapport signal sur bruit. Le décodeur de Viterbi connaît la loi algébrique qui a servi à construire la redondance du message codé et l’exploite dans un treillis (l’équivalent déterministe d’une chaîne de Markov) et délivre ainsi le message d’origine le plus probable. J’ai donc mis deux algorithmes de Viterbi en série. Et j’ai ensuite essayé d’implémenter la notion de contre-réaction dans le décodage. C’est délicat et je n’étais pas un expert du codage.

    Un problème, c’est que l’algorithme de Viterbi fait des choix binaires : le bit a été permuté ou pas. Nous l’avons adapté, avec un collègue, Patrick Adde, pour qu’il fournisse des décisions probabilistes, ce qui améliore nettement la performance du décodeur qui suit.

    Turbo, Lauri Rantala, Flikr
    Turbo, Lauri Rantala, Flickr

    Binaire : comment ça fonctionne ?
    CB : Comme je l’ai expliqué, pour protéger un message, on ajoute de la redondance. Le turbocode réalise le codage sur deux dimensions. Une bonne analogie est une grille de mots croisés avec les dimensions verticale et horizontale. Si les définitions étaient parfaites, une seule dimension suffirait. On pourrait reconstruire la grille, par exemple, juste avec les définitions horizontales. Mais comme on ne sait pas toujours à quoi correspondent les définitions et qu’il peut y avoir des ambiguïtés (les analogues du bruit, des effacements de bits, etc.), on donne aussi les définitions verticales.

    Le décodage ressemble un peu à ce que peut faire un cruciverbiste. Le décodeur travaille en ligne (il exploite les définitions horizontales), puis passe à la dimension verticale. Comme le cruciverbiste, le décodeur fait plusieurs passes pour reconstruire le message.

    Avec tout ça, les turbocodes sont efficaces.

    Binaire : On te croit. Des milliards d’objets utilisent cette technologie !
    CB : Oui. Toutes les données médias sur la 3G et la 4G sont protégées par les turbocodes.

    Claude Shannon, Wikipedia

    Binaire : Cela nous conduit à un autre Claude : Claude Shannon et la théorie de l’information ?
    CB : Oui avec cet algorithme, on est en plein dans la théorie de l’information. J’ai d’ailleurs contribué récemment à l’organisation du colloque de célébration du centième anniversaire de la naissance de Shannon à l’IHP, un colloque passionnant.

    Shannon a montré que toute transmission (ou stockage) idéale devait normalement se faire avec deux opérations fondamentales. D’abord, pour diminuer la taille du message, on le compresse pour lui enlever le maximum de redondance inutile. Ensuite, pour se protéger contre les erreurs, on lui ajoute de la redondance intelligente.

    Shannon a démontré les limites des codes correcteurs en 1948 ! Les turbocodes atteignent la limite théorique de Shannon, à quelques dixièmes de décibels près !

    ccn
    © Nicolas Rougier

    Binaire : Et maintenant. Tu as glissé vers les neurosciences… 
    CB : Ma recherche actuelle porte sur les neurosciences informationnelles. Récemment, vous avez interviewé Olivier Faugeras qui vous a parlé des neurosciences computationnelles, une approche assez différente.

    Mon point de départ, c’est encore l’information, cette fois dans le cerveau. Le cortex humain est assimilable à un graphe, avec des milliards de nœuds et des milliers de milliards d’arêtes. Il y a des modules spécifiques, et entre les modules, il y a des liens de communication. Je suis persuadé que l’information mentale, portée par le cortex, est binaire.

    Les théories classiques font l’hypothèse que l’information est stockée par les poids synaptiques, des poids sur les arêtes du graphe. Je fais une autre hypothèse. Pour moi, il y a trop de bruit dans le cerveau ; c’est trop fragile, inconstant, instable ; l’information ne peut pas être portée par des poids mais par des assemblées de nœuds. Ces nœuds forment une clique au sens géométrique du terme, c’est-à-dire qu’ils sont tous reliés deux à deux. Cela devient une information numérique.

    Binaire : C’est là que nous allons retrouver le codage et la redondance ? Pour éviter que l’information ne se perde dans le cerveau, il y a aussi des redondances ?
    CB : Oui. Pour l’école classique c’est-à-dire analogique, l’information est portée par les synapses. En ce cas, la redondance ne pourrait être assurée que par des répétitions : plusieurs arêtes porteraient la même information.

    Selon notre approche, l’information est codée dans les connexions d’une assemblée de nœuds. La redondance est présente de façon naturelle dans ce type de codage. Prenez une clique de 10 nœuds dans un graphe. Vous avez 45 connexions dans la clique. Le nombre de connexions est grand par rapport au nombre de nœuds. Je m’appuie sur la règle de Hebb (1949) : lorsqu’un neurone A envoie des spikes et qu’un neurone B s’active systématiquement, la liaison entre A et B va se renforcer si elle existe, et si elle n’existe pas elle va être créée. La clique étant redondante, cela va résonner, une liaison altérée va se renforcer : grâce à la règle de Hebb on a une reconstruction en cas de dégradation. Nous avons bâti toute une théorie autour de ça.

    Binaire : tu nous as largué. Pour faire simple, une clique porte un morceau d’information. Et le fait qu’il y ait tant de redondance dans la clique garantit la pérennité de l’information ?
    CB :  Oui. Et en plus, la clique peut être l’élément de base d’une mémoire associative. Je vais pouvoir retrouver l’information complète à partir de certaines valeurs du contenu. Et ça, c’est dû à la structure fortement redondante des cliques.

    Binaire : Votre travail consiste en quoi ?
    CB : J’ai mis en place une équipe pluridisciplinaire composée de neuropsychologues, neurolinguistes, informaticiens, etc. Nous essayons de concevoir un démonstrateur, une machine inspirée par le modèle du cerveau que nous imaginons, à l’échelle informationnelle. Dans un ordinateur classique, la mémoire est d’un côté et le processeur de l’autre. Dans notre machine, comme dans le cerveau, tout est imbriqué.

    Selon la théorie que nous développons (pas encore complètement publiée), l’information mentale s’appuie sur des petits bouts de connaissance qui sont stockés dans des cliques. Les cliques sont choisies au hasard. Mais quand c’est fait, elles sont définitives. D’un individu à un autre, ce ne sont pas les mêmes cliques qui portent la même information. J’aimerais arriver à faire émerger de l’intelligence artificielle avec ce modèle de machine.

    Binaire : Quelle est ta vision de l’intelligence artificielle ? 
    CB : Il y a en fait deux intelligences artificielles. Il y a d’abord celle qui s’intéresse aux sens, à la vision, à la reconnaissance de la parole par exemple. On commence à savoir faire cela avec le deep learning. Et puis, il y a celle qui nous permet d’imaginer et de créer, de savoir répondre à des questions inédites. Ça, on ne sait pas faire pour le moment. Pour moi, la seule façon d’avancer sur cette IA forte est de s’inspirer du cortex humain.

    Ce sujet me passionne. J’aimerais le voir progresser et continuer à faire longtemps de la recherche.

    Entretien recueilli par  Serge Abiteboul et Christine Froidevaux

    Voir aussi dans Binaire, Shannon, information et Sudoku

     

  • Mais pourquoi la bière et les couches ?

    Ce qui suit n’est pas un fait historique. C’est une parabole. Une parabole qui puise sa source dans des faits réels, qui a connu de nombreuses « améliorations »,  mais surtout qui permet d’expliquer tellement bien qu’il faut se méfier de ce que semble nous apprendre l’analyse des données. À la fois bluffant sur certains résultats et … sans aucun sens sur d’autres.

    L’exemple de corrélation.

    Voici certainement l’exemple le plus célèbre concernant les applications du data mining, et en particulier la découverte de corrélations fréquentes. Une chaine de supermarché a décidé de valoriser les données de ses ventes. Pour cela, ils ont analysé les contenus des « paniers » qui passent aux caisses. Leur objectif est de savoir quels articles se retrouvent souvent ensemble, dans les paniers. On appellera ça des « corrélations fréquentes » (ou encore des itemsets, ou encore des « règles d’association »). Mais alors, qu’auraient-ils découvert, qui rende cet exemple aussi amusant ?

    En fait, leur algorithme d’extraction de corrélations fréquentes aurait découvert que, dans un grand nombre de cas, les clients qui achètent de la bière et des gâteaux, achètent aussi… des couches culottes !

    Si j’aime cet exemple, c’est parce qu’il présente toutes les qualités pour illustrer l’extraction de corrélations fréquentes. En particulier, cette corrélation est surprenante. Imaginez ce qui peut se passer dans la tête d’un décideur qui découvre ce motif. Mettez vous à sa place un moment. Qu’en feriez vous ? A mon avis, la première chose que vous voudriez, c’est comprendre. Tout simplement pour savoir si vous avez affaire à une erreur ou bien à un phénomène explicable.

    Avez-vous entendu parler de cette histoire du père de famille qui, très énervé, a débarqué un jour dans un magasin de la chaîne « Target » aux USA ? Sa fille, adolescente, avait reçu des coupons de réduction pour des articles de puériculture et… La suite est racontée ici (in English).

    Et une possible explication.

    C’est justement cette explication qui rend l’exemple croustillant… Il y en a plusieurs, quelque peu « améliorées » au fil des années. Voici ma préférée, même si, et bien personne ne sait ce qu’il en est.

    Cette corrélation s’expliquerait par le comportement des jeunes parents, qui viennent d’avoir leur premier bébé. Dans cette nouvelle famille, la jeune maman reste plus souvent à la maison avec l’enfant, au moins les premiers jours. C’est donc le jeune papa qui, prenant son courage à deux mains, va affronter le magasin (et c’est parti pour l’aventure). Il va donc acheter les produits de première nécessité pour son foyer. Et, dans la tête d’un jeune papa, les produits de première nécessité ce sont : des couches pour le bébé… et de la bière et des gâteaux, parce qu’il y a un match à la télé ce soir ! (on n’est pas contre un peu d’aventure, mais bon… après il faut s’en remettre).

    Cela représente une niche (seul un petit nombre de clients achète les trois articles en même temps) mais l’association, au sein de cette niche, est tellement forte qu’on ne peut pas l’ignorer.

    Une métaphore pour la médiation scientifique.

    Ce qui fait le succès de cet exemple ? Plusieurs choses à mon avis :

    Premièrement, il parle des gens. C’est l’ambiguïté du data mining appliqué aux habitudes des personnes réelles. J’ai souvent constaté le succès des exemples utilisant nos habitudes, qu’il s’agisse de comportements d’achats dans les magasins, de clics sur les réseaux sociaux, de navigations sur nos smartphones, etc. D’un côté ça créée un réel pic d’attention et de curiosité dans les présentations qui utilisent ce genre d’exemples. D’un autre côté, ça fait un peu peur…

    Et puis, il y a l’étonnement. Et cette corrélation est pour le moins surprenante. Ce qui permet, à mon avis, de bien illustrer l’intérêt du data mining. C’est vrai, après tout… pourquoi irait-on torturer nos données et nos serveurs avec des algorithmes de data mining, si c’est pour découvrir quelque chose que l’on sait déjà. Alors oui, les corrélations du genre « coca – cacahuètes » sont sorties également. C’est ce qu’on appelle des motifs évidents. Il ne sont pas inutiles pour autant. Ils nous donnent confiance dans notre approche. Si je ne trouve pas ces motifs, alors je peux penser que mon algorithme n’est pas au point… Mais ce n’est pas pour ces motifs évidents du type « coca – cacahuètes » que je vais investir dans un logiciel de data mining. C’est bien pour « découvrir ». Découvrir de nouvelles corrélations, de nouveaux comportements (et là, pour le coup, bière+gateaux+couches, en général personne ne s’y attend).

    Enfin, Cette corrélation n’aurait pas été découverte sans algorithme de data mining. En tout cas, il y a peu de chances… Tout simplement parce qu’avec n articles en vente dans le magasin, le nombre de corrélations possibles (le nombre de sous-ensemble d’articles) est de 2ⁿ.

    De la métaphore au fait réel.

    Maintenant, faisons un peu le point sur une autre facette de cet exemple : sa légende. Qu’en est-il exactement ? Il y a plusieurs versions de cet exemple. Elles ont été un moment prises pour vérité.

    Mais il semble que les gâteaux ont été ajoutés à l’exemple plus tard, pour le rendre sexy. Et si on creuse un peu, on se rend compte que cet exemple, réduit au couple bière/couche, existait avant le data mining sous une forme différente.

    On peut trouver ici (http://www.dssresources.com/newsletters/66.php) une enquête détaillée de D. J. Power sur ce sujet. En résumé, on y comprend que Teradata, en 1992, a analysé les ventes des magasins Osco. L’histoire ne dit pas quels outils ont été mis en oeuvre, mais on peut noter que le plus célèbre des algorithmes d’extraction de corrélations fréquentes, à savoir aPriori [1] , a été publié en 1994 et que le premier article sur ce sujet [2] a été publié en 1993.

    Plus exactement, leur résultat mettait en évidence une corrélation entre bière et couches, de 17h à 19h. Sans précision sur l’age ou le genre des clients, ni sur les jours de la semaine concernés par ce comportement. Et puis, en fait de corrélation fréquente, il s’agissait plutôt d’un « pic ».

    Entre le mythe et les faits qui l’ont certainement inspiré… il y a probablement l’imagination de quelques chercheurs qui, conscients de la difficulté d’une présentation réussie, voulaient s’assurer d’un peu plus d’attention de la part de leur public.

    Je garde toujours cet exemple sous le coude, au cas où, car il est percutant, parlant, et d’une aide précieuse pour expliquer le data mining sans transpirer. Mais je dois avouer que depuis que je l’utilise, quand je vais dans un supermarché, je regarde discrètement et… je n’ai encore jamais vu de caddie contenant à la fois de la bière des gâteaux et des couches.

    Florent Masseglia.

    [1] Rakesh Agrawal and Ramakrishnan Srikant. 1994. Fast Algorithms for Mining Association Rules in Large Databases. In Proceedings of the 20th International Conference on Very Large Data Bases (VLDB ’94)

    [2] Rakesh Agrawal, Tomasz Imieliński, and Arun Swami. 1993. Mining association rules between sets of items in large databases. SIGMOD Rec. 22, 2 (June 1993), 207-216.

    Ref: http://www.florent-masseglia.info/biere-et-couches-un-exemple-mythique-du-data-mining

  • Ça y est : on va apprendre à inventer le numérique

    Les lycéennes et lycéens de toutes sections commencent à apprendre de l’informatique pour ne plus être de simples consommateurs mais devenir créateur du numérique : c’est l’enseignement de l’option « Informatique et Création Numérique, I.C.N. », de la seconde à la terminale pour toutes les sections.

    Comment aider les enseignants d’I.C.N ? Quels savoirs partager avec eux ? Quelles ressources sélectionner ? Quelles compétences leur transmettre pour qu’ils puissent assurer ce nouvel enseignement ?

    C’est sous la forme d’un MOOC social et coopératif, que quelques collègues Inria en binôme avec des professeur-e-s de lycée proposent un espace de formation, et un endroit de partage et d’entraide, où chacune et chacun construira son parcours selon ses besoins et ce qu’il sait déjà, un espace qui va évoluer avec le temps ; on le commence quand on veut et on y revient aussi longtemps qu’on en a besoin. Il est réalisé en partenariat avec Class’Code, qui y apporte tous les éléments de formation initiaux dont on peut avoir besoin.

    Des grains de culture scientifique pour découvrir le numérique et ses sciences dans le réel, lié au quotidien de ces jeunes. Commencer à apprendre l’informatique et ses fondements. S’outiller pour accompagner les initiatives de création et les projets scientifiques des élèves. L’ICN est une vraie formation par le faire à travers des projets.

    Si ce MOOC est principalement destiné aux enseignants de lycée qui enseignent l’ICN, il n’y a besoin d’aucun prérequis en informatique et on y parle aussi des enjeux sociétaux liés au numérique, il intéresse aussi les citoyennes et citoyens qui veulent être éclairé-e-s sur ces sujets.

    Bon, c’est un projet fou ce MOOC : tant mieux, nos enfants le méritent bien.

    Pour toute l’équipe du MOOC, Sylvie Boldo.

  • Pourquoi Dider est un bon géant selon Éva

    Incroyable le nombre de prix qui sont décernés en Sciences ! Et encore l’informatique en a relativement peu : le Prix Turing (que l’on peut considérer comme le « Nobel d’Informatique»), le Prix Milner, le Prix Gödel, le Prix Gilles Kahn (pour les doctorants), etc. J’aime beaucoup un prix qui n’a pas de prix, le prix Serge Hocquenghem *. Cette année, Mathieu Blossier** et Didier Roy ont été récompensés par ce prix avec Éva Corot.

    eva-prix-hocquenghem Éva Corot ? C’est elle qui du haut de ses 10 ans a proposé de rendre « le sourire aux rues de Paris » en développant le projet d’un robot (équipé d’un mécanisme imprimé en 3D) qui dessine à la craie de couleur sur le sol. Au-delà du buzz, c’est sur son «Blog fait par les enfants pour les enfants» qu’il faut aller découvrir ce que robotique créative et programmation ludique veut dire. On y parle d’un « bon gros géant qui met des rêves dans la tête des enfants».

    didier-prix-hocquenghem1Vous savez quoi ? Je crois bien que ce bon géant là, c’est Didier. Didier Roy est un professeur de mathématiques qui s’est mis au service des autres professionnels de l’éducation pour créer des ressources qui aident à mieux enseigner et aimer les mathématiques, l’informatique et la robotique. Offrir aux enfants une seconde chance de réussir, c’est son but à lui.

    Thymio : un robot (software et hardware libre et ouvert) créé à l’EPFL qui a permis à la fois à Éva de rendre les rues de Paris moins tristes et à Didier d’aider à initier au sciences du numérique. ©aseba

     

    En participant à des travaux qui mettent l’apprentissage algorithmique au service des logiciels didactiques, Didier est devenu chercheur en informatique et science de l’éducation à 57 ans ! Dans le monde de l’enseignement, avec l’initiation au code, quasiment tout le monde en France connait ses travaux, parfois sans même savoir qu’il en est l’auteur. Il est le créateur d’Inirobot ainsi que de multiples ressources pédagogiques libres et gratuites, pour que les enseignants encore en formation sur ces sujets, puissent faire connaître la pensée informatique, s’initier à la démarche de recherche… bref accompagnent nos enfants dans la maîtrise du numérique. On le retrouve sur Class’Code pour former à ces activités.

    Et nous ? Qu’allons-nous créer d’inouï, de rigolo, d’utile ou de joli avec le numérique ?

    Thierry Viéville.

    (*) Serge Hocquenghem est un  pionnier en France de la géométrie interactive qui permet aux enfants d’apprendre les objets mathématiques en les manipulant, comme des objets du quotidien. Il a lui aussi conçu des outils didactiques comme Geoplan-Geospace, sur des bases mathématiques rigoureuses.

    (**) Mathieu Blossier a été récompensé cette année par le prix Serge Hocquenghem pour ses superbes travaux de mathématiques interactives. Ce prix piloté par l’Association des Professeurs de Mathématiques de l’Enseignement Public, il l’a partagé avec Didier, et Éva aussi.

  • Podcastscience : Informatique et Ethique

    Puyo (Podcast science)

    Informatique, responsabilité, travail, intelligence artificielle… Podcast science  a reçu un éditeur de Binaire, Serge Abiteboul, et un ami, Gilles Dowek, pour aborder tous ces sujets, avec un objectif: essayer d’imaginer ce que peut être notre avenir !

    Le podcast sur Soundcloud

    Ça dure deux heures et demi, pour bien prendre le temps de raconter, d’expliquer, bref d’approfondir le sujet. Pour qui est vraiment passionné par le sujet, ou … en a assez de l’information saucissonnée en rondelles superficielles.

    Thierry Viéville, Inria et Binaire

  • À Bordeaux, la science a décoiffé

    À Bordeaux, le 31 mai dernier, le CNRS et la CPU (Conférence des Présidents d’Université) organisaient la première édition d’un forum sur les Nouvelles Initiatives en Médiation Scientifique (NIMS). C’est-à-dire, en substance, comment passer de la vulgarisation à la papa, articles rédigés-relus-corrigés-relus-corrigés, à un truc qui … décoiffe ? Et ma foi, ce fut une journée tout-à-fait décoiffante, qui a d’ailleurs réussi à se hisser dans le Top3 des tendances France sur twitter. Alors, qu’a-t-on fait, ce jour là, à Bordeaux ?

    On a jalousé le Canada, où le congrès annuel de l’ACFAS (une sorte de fête de la science en plus majestueux) a fêté cette année sa… 84e édition ! On a pleuré avec sa productrice la disparition de la seule émission scientifique pour les jeunes à la télé, « On n’est pas que des cobayes » sur France 5. On a ri devant certaines vidéos des youtubeurs scientifiques, et découvert leurs petits secrets. On s’est étonné devant la puissance de twitter, devenu un outil irremplaçable pour la recherche.

    Q46
    Crédit photo : Aton-Num (c) archeovision, archeotransfert

    Mais le plus impressionnant, selon des critères tout-à-fait subjectifs, c’étaient sans doute les expériences scientifiques purement destinées à la vulgarisation. Par exemple, « le théâtre des négociations », une sorte d’expérience mi politique mi sociologique, est une pièce de théâtre collaborative donnée aux Amandiers de Nanterre (forcément) qui consistait à rejouer la COP21 avec six mois d’avance et des négociations aussi réalistes que possible. Dans un style différent, des nanoscientifiques organisent NanoCar Race, une course de voitures un peu spéciales. Les véhicules doivent être composées d’exactement une molécule (oui, oui, une seule), avoir des roues et pouvoir être guidées ! Les films en ligne donnent la mesure de la difficulté, à la fois de concourir, et d’organiser un tel exploit sportif, non pardon, scientifique.

    Autel-Sanctuaire
    Crédit photo : Aton-Num (c) archeovision, archeotransfert

    Enfin, Aton-num est une exposition numérique, qui nous emmène en Égypte au XIVe siècle avant JC. Un dispositif immersif plonge le visiteur dans le temple d’Aton, une tablette tactile lui propose les documents de travail des chercheurs sur l’époque, et il pourra même rencontrer le couple Akhenaton-Nerfertiti sous la forme d’un hologramme. Mais le dispositif autour d’Aton-num permet aussi aux visiteurs du site web de participer à la recherche sur l’époque, en assemblant les puzzles (dont certains n’ont pas encore été résolus) constitués par les milliers de fragments de parois du temple d’Aton, ou en retranscrivant des notes issues des fouilles.

    20160531_183836
    Et la journée s’est achevée en beauté par la finale nationale du célèbre concours Ma Thèse en 180 secondes. Bref, quand la vulgarisation devient médiation scientifique, il s’en passe, des choses. Suivez les liens, allez voir les expositions, ou consultez les vidéos de la journée ici !

    Charlotte Truchet (@chtruchet)

  • Vers une théorie de l’intelligence

    Fabriquer de l’intelligence est un défi que l’informatique veut relever. Quand elle réussit, c’est toujours de façon limitée et en évitant d’aborder de front l’intelligence humaine, qui reste mystérieuse. Jean-Paul Delahaye nous en reparle sur Interstices et nous repartageons ce texte ici.. Joanna Jongwane.

    Les machines égalent, voire surpassent les humains dans certaines tâches qui réclament de l’intelligence. C’est le cas des échecs, des dames anglaises… © Thomas Söllner – Fotolia.

    Une première version de l’article d’Interstices que nous reprenons ici est parue dans le dossier n°87 Les robots en quête d’humanité de la revue Pour la Science, numéro d’avril/juin 2015.

    L’idée qu’il existe plusieurs types d’intelligences séduit, car elle évite à chacun de se trouver en un point précis d’une échelle absolue et parce que chacun espère bien exceller dans l’une des formes d’intelligence dont la liste tend à s’allonger. Cette pluralité d’intelligences a été proposée par le psychologue américain Howard Gardner : dans son livre Frame of Mind, de 1983, il énumère huit types d’intelligence. Très critiquée, par exemple par Perry Klein, de l’Université d’Ontario, qui la considère tautologique et non réfutable, cette théorie est à l’opposé d’une autre voie de recherche affirmant qu’il n’existe qu’une sorte d’intelligence à concevoir mathématiquement avec l’aide de l’informatique et de la théorie du calcul.

    Dames, échecs, go, voitures…

    Évoquons d’abord l’intelligence des machines et la discipline informatique nommée « intelligence artificielle ». Il faut l’admettre, aujourd’hui, les machines réussissent des prouesses qu’autrefois tout le monde aurait qualifiées d’intelligentes. Nous ne reviendrons pas sur la victoire définitive de l’ordinateur sur les meilleurs joueurs d’échecs, consacrée en 1997 par la défaite de Garry Kasparov (champion du monde) face à l’ordinateur Deep Blue, unanimement saluée comme un événement majeur de l’histoire de l’humanité.

    À cette époque, pour se consoler peut-être, certains ont remarqué que les meilleurs programmes pour jouer au jeu de go étaient d’une affligeante médiocrité. Or, depuis quelques années, des progrès spectaculaires ont été accomplis. En mars 2013, le programme Crazy Stone de Rémi Coulom, de l’Université de Lille, a battu le joueur professionnel japonais Yoshio Ishida qui, au début de la partie, avait laissé un avantage de quatre pierres au programme. En mars 2016, le programme AlphaGo a battu Lee Sedol considéré comme le meilleur joueur de Go. Des idées assez différentes de celles utilisées pour les échecs ont été nécessaires pour cette victoire de la machine, mais pas plus que pour les échecs on ne peut dire que l’ordinateur joue comme un humain. La victoire de AlphaGo est un succès remarquable de l’Intelligence Artificielle qui prouve d’ailleurs qu’elle avance régulièrement.

    Le succès de l’intelligence artificielle au jeu de dames anglaises est absolu. Depuis 1994, aucun humain n’a battu le programme canadien Chinook et, depuis 2007, on sait que le programme joue une stratégie optimale, impossible à améliorer. Pour le jeu d’échecs, on sait qu’il existe aussi des stratégies optimales, mais leur calcul semble hors d’atteinte pour plusieurs décennies encore.

    L’intelligence des machines ne se limite plus aux problèmes bien clairs de nature mathématique ou se ramenant à l’exploration d’un grand nombre de combinaisons. Cependant, les chercheurs en intelligence artificielle ont découvert, même avec les jeux de plateau cités, combien il est difficile d’imiter le fonctionnement intellectuel humain : aux jeux de dames, d’échecs ou de go et bien d’autres, les programmes ont des capacités équivalentes aux meilleurs humains, mais ils fonctionnent différemment. Cela ne doit pas nous interdire d’affirmer que nous avons mis un peu d’intelligence dans les machines : ce ne serait pas fair-play, face à une tâche donnée, d’obliger les machines à nous affronter en imitant servilement nos méthodes et modes de raisonnement.

    Le cas des véhicules autonomes est remarquable aussi de ce point de vue. Il illustre d’une autre façon que lorsque l’on conçoit des systèmes nous imitant à peu près pour les résultats, on le fait en utilisant des techniques le plus souvent totalement étrangères à celles mises en œuvre en nous par la nature, et que d’ailleurs nous ne comprenons que très partiellement : ainsi, pour le jeu d’échecs, personne ne sait décrire les algorithmes qui déterminent le jeu des champions.

    La conduite de véhicules motorisés demande aux êtres humains des capacités qui vont bien au-delà de la simple mémorisation d’une quantité massive d’informations et de l’exploitation d’algorithmes traitant rapidement et systématiquement des données symboliques telles que des positions de pions sur un damier. Nul ne doute que pour conduire comme nous des véhicules motorisés, l’ordinateur doit analyser des images variées et changeantes : où est le bord de cette rue jonchée de feuilles d’arbres ? Quelle est la nature de cette zone noire à 50 mètres au centre de la chaussée, un trou ou une tache d’huile ? Etc.

    Conduire une voiture avec nos méthodes nécessiterait la mise au point de techniques d’analyse d’images bien plus subtiles que celles que nous savons programmer aujourd’hui. Aussi, les systèmes de pilotage automatisé, tels que ceux de la firme Google, « conduisent » différemment des humains. Ces Google cars exploitent en continu un système GPS de géolocalisation très précis et des « cartes » indiquant de façon bien plus détaillée que toutes les cartes habituelles, y compris celles de Google maps, la forme et le dessin des chaussées, la signalisation routière et tous les éléments importants de l’environnement. Les voitures Google exploitent aussi des radars embarqués, des lidars (light detection and ranging, des systèmes optiques créant une image numérique en trois dimensions de l’espace autour de la voiture) et des capteurs sur les roues.

    Ayant déjà parcouru plusieurs centaines de milliers de kilomètres sans accident, ces voitures sont un succès de l’intelligence artificielle, et ce même si elles sont incapables de réagir à des signes ou injonctions d’un policier au centre d’un carrefour, et qu’elles s’arrêtent parfois brusquement lorsque des travaux sont en cours sur leur chemin. Par prudence sans doute, les modèles destinés au public présentés en mai 2014 roulent à 40 kilomètres par heure au plus.

    Avec ces machines, on est loin de la méthode de conduite d’un être humain. Grâce à sa capacité à extraire de l’information des images et son intelligence générale, le conducteur humain sait piloter sur un trajet jamais emprunté, sans carte, sans radar, sans lidar, sans capteur sur les roues et il n’est pas paralysé par un obstacle inopiné !

    Les questions évoquées jusqu’ici n’exigent pas la compréhension du langage écrit ou parlé. Pourtant, contrairement aux annonces de ceux qui considéraient le langage comme une source de difficultés insurmontables pour les machines, des succès remarquables ont été obtenus dans des tâches exigeant une bonne maîtrise des langues naturelles.

    L’utilisation des robots-journalistes inquiète, car elle est devenue courante dans certaines rédactions, telles que celles du Los Angeles Times, de Forbes ou de Associated Press. Pour l’instant, ces automates-journalistes se limitent à convertir des résultats (sportifs ou économiques, par exemple) en courts articles.

    Il n’empêche que, parfois, on leur doit d’utiles traitements. Ainsi, le 17 mars 2014, un tremblement de terre de magnitude 4,7 se produisit à 6h25 au large de la Californie. Trois minutes après, un petit article d’une vingtaine de lignes était automatiquement publié sur le site du Los Angeles Times, donnant des informations sur l’événement : lieu de l’épicentre, magnitude, heure, comparaison avec d’autres secousses récentes. L’article exploitait des données brutes fournies par le US-Geological Survey Earthquake Notification Service et résultait d’un algorithme dû à Ken Schwencke, un journaliste programmeur. D’après lui, ces méthodes ne conduiraient à la suppression d’aucun emploi, mais rendraient au contraire le travail des journalistes plus intéressant. Il est vrai que ces programmes sont pour l’instant confinés à la rédaction d’articles brefs exploitant des données factuelles faciles à traduire en petits textes, qu’un humain ne rédigerait sans doute pas mieux.

    Un autre exemple inattendu de rédaction automatique d’articles concerne les encyclopédies Wikipedia en suédois et en filipino, l’une des deux langues officielles aux Philippines (l’autre est l’anglais). Le programme Lsjbot mis au point par Sverker Johansson a en effet créé plus de deux millions d’articles de l’encyclopédie collaborative et est capable d’en produire 10 000 par jour. Ces pages engendrées automatiquement concernent des animaux ou des villes et proviennent de la traduction, dans le format imposé par Wikipedia, d’informations disponibles dans des bases de données déjà informatisées.

    L’exploit a été salué, mais aussi critiqué. Pour se justifier, S. Johansson indique que ces pages peu créatives sont utiles et fait remarquer que le choix des articles de l’encyclopédie Wikipedia est biaisé : il reflète essentiellement les intérêts des jeunes blancs, de sexe masculin et amateurs de technologies. Ainsi, le Wikipedia suédois comporte 150 articles sur les personnages du Seigneur des Anneaux et seulement une dizaine sur des personnes réelles liées à la guerre du Vietnam : « Est-ce vraiment le bon équilibre ? », demande-t-il.

    S. Johansson projette de créer une page par espèce animale recensée, ce qui ne semble pas stupide. Pour lui, ces méthodes doivent être généralisées, mais il pense que Wikipedia a besoin aussi de rédacteurs qui écrivent de façon plus littéraire que Lsjbot et soient capables d’exprimer des sentiments, « ce que ce programme ne sera jamais capable de faire ».

    Beaucoup plus complexe et méritant mieux l’utilisation de l’expression « intelligence artificielle » est le succès du programme Watson d’IBM au jeu télévisé Jeopardy ! (voir l’encadré).

    Watson, le programme conçu par IBM a gagné au jeu Jeopardy ! contre deux
    champions humains. © IBM / Sony Pictures.

    La mise au point de programmes résolvant les mots-croisés aussi bien que les meilleurs humains confirme que l’intelligence artificielle réussit à développer des systèmes aux étonnantes performances linguistiques et oblige à reconnaître qu’il faut cesser de considérer que le langage est réservé aux humains. Malgré ces succès, on est loin de la perfection : pour s’en rendre compte, il suffit de se livrer à un petit jeu avec le système de traduction automatique en ligne de Google. Une phrase en français est traduite en anglais, puis retraduite en français. Parfois cela fonctionne bien, on retrouve la phrase initiale ou une phrase équivalente, mais dans certains cas, le résultat est catastrophique.

    Passer le test de Turing

    Nous sommes très loin aujourd’hui de la mise au point de dispositifs informatiques susceptibles de passer le « test de Turing » conçu en 1950. Alan Turing voulait éviter de discuter de la nature de l’intelligence et, plutôt que d’en rechercher une définition, proposait de considérer qu’on aura réussi à mettre au point des machines intelligentes lorsque leur conversation sera indiscernable de celle des humains.

    Pour tester cette indiscernabilité, il suggérait de faire dialoguer par écrit avec la machine une série de juges qui ne sauraient pas s’ils mènent leurs échanges avec un humain ou une machine tentant de se faire passer pour tel. Lorsque les juges ne pourront plus faire mieux que répondre au hasard pour indiquer qu’ils ont eu affaire à un humain ou une machine, le test sera passé. Concrètement, faire passer le test de Turing à un système informatique S consiste à réunir un grand nombre de juges, à les faire dialoguer aussi longtemps qu’ils le souhaitent avec des interlocuteurs choisis pour être une fois sur deux un humain et une fois sur deux le système S ; les experts indiquent, quand ils le souhaitent, s’ils pensent avoir échangé avec un humain ou une machine. Si l’ensemble des experts ne fait pas mieux que le hasard, donc se trompe dans 50 % des cas ou plus, alors le système S a passé le test de Turing.

    Turing, optimiste, pronostiqua qu’on obtiendrait une réussite partielle au test en l’an 2000, les experts dialoguant cinq minutes et prenant la machine pour un humain dans 30 % des cas au moins. Turing avait, en gros, vu juste : depuis quelques années, la version partielle du test a été passée, sans qu’on puisse prévoir quand sera passé le test complet, sur lequel Turing restait muet.

    Le test partiel a, par exemple, été passé le 6 septembre 2011 à Guwahati, en Inde, par le programme Cleverbot créé par l’informaticien britannique Rollo Carpenter. Quelque 30 juges dialoguèrent pendant quatre minutes avec un interlocuteur inconnu qui était dans la moitié des cas un humain et dans l’autre moitié des cas le programme Cleverbot. Les juges et les membres de l’assistance (1 334 votes) ont considéré le programme comme humain dans 59,3 % des cas. Notons que les humains ne furent considérés comme tels que par 63,3 % des votes.

    Plus récemment, le 9 juin 2014 à la Royal Society de Londres, un test organisé à l’occasion du soixantième anniversaire de la mort de Turing permit à un programme nommé Eugene Goostman de duper 10 des 30 juges réunis (33 % d’erreur). Victimes de la présentation biaisée que donnèrent les organisateurs de ce succès, somme toute assez modeste, de nombreux articles de presse dans le monde entier parlèrent d’un événement historique, comme si le test complet d’indiscernabilité homme-machine avait été réussi. Ce n’était pas du tout le cas, puisque le test avait d’ailleurs encore été affaibli : l’humain que le système informatique simulait était censé n’avoir que 13 ans et ne pas écrire convenablement l’anglais (car d’origine ukrainienne !).

    Le test de Turing n’est pas passé

    Non, le test de Turing n’a pas été passé, et il n’est sans doute pas près de l’être. Il n’est d’ailleurs pas certain que les tests partiels fassent avancer vers la réussite au test complet. En effet, les méthodes utilisées pour tromper brièvement les juges sont fondées sur le stockage d’une multitude de réponses préenregistrées (correspondant à des questions qu’on sait que les juges posent), associées à quelques systèmes d’analyse grammaticale pour formuler des phrases reprenant les termes des questions des juges et donnant l’illusion d’une certaine compréhension. Quand ces systèmes ne savent plus quoi faire, ils ne répondent pas et posent une question. À un journaliste qui lui demandait comment il se sentait après sa victoire, le programme Eugene Goostman de juin 2014 répondit : « Quelle question stupide vous posez, pouvez-vous me dire qui vous êtes ? »

    Ainsi, l’intelligence artificielle réussit aujourd’hui assez brillamment à égaler l’humain pour des tâches spécialisées (y compris celles exigeant une certaine maîtrise du langage), ce qui parfois étonne et doit être reconnu comme des succès d’une discipline qui avance régulièrement. Cependant, elle le fait sans vraiment améliorer la compréhension qu’on a de l’intelligence humaine, qu’elle ne copie quasiment jamais ; cela a en particulier comme conséquence qu’elle n’est pas sur le point de proposer des systèmes disposant vraiment d’une intelligence générale, chose nécessaire pour passer le difficile test de Turing qui reste hors de portée aujourd’hui (si on ne le confond pas avec ses versions partielles !).

    Vers l’intelligence générale

    Ces tentatives éclairent les recherches tentant de saisir ce qu’est une intelligence générale. Ces travaux sont parfois abstraits, voire mathématiques, mais n’est-ce pas le meilleur moyen d’accéder à une notion absolue, indépendante de l’homme ?

    Quand on tente de formuler une définition générale de l’intelligence, vient assez naturellement à l’esprit l’idée qu’être intelligent, c’est repérer des régularités, des structures dans les données dont on dispose, quelle qu’en soit leur nature, ce qui permet de s’y adapter et de tirer le maximum d’avantages de la situation évolutive dans laquelle on se trouve. L’identification des régularités, on le sait par ailleurs, permet de compresser des données et de prédire avec succès les données suivantes qu’on recevra.

    Intelligence, compression et prédiction sont liées. Si, par exemple, on vous communique les données 4, 6, 9, 10, 14, 15, 21, 22, 25, 26 et que vous en reconnaissez la structure, vous pourrez les compresser en « les dix premiers produits de deux nombres premiers » et deviner ce qui va venir : 33, 34, 35, 38, 39, 46, 49, 51, 55, 57…

    Ce lien entre intelligence, compression et prédiction a été exprimé de façon formelle par l’informaticien américain Ray Solomonoff vers 1965. Du principe du rasoir d’Ockham Pluralitas non est ponenda sine necessitate (les multiples ne doivent pas être utilisés sans nécessité), il proposait une version moderne : « Entre toutes les explications compatibles avec les observations, la plus concise, ou encore la mieux compressée, est la plus probable. »

    Si l’on dispose d’une mesure de concision permettant de comparer les théories, cette dernière version devient un critère mathématique. La théorie algorithmique de l’information de Kolmogorov, qui propose de mesurer la complexité (et donc la simplicité) de tout objet numérique (une théorie le devient une fois entièrement décrite) par la taille du plus court programme qui l’engendre, donne cette mesure de concision et rend donc possible la mathématisation complète du principe de parcimonie d’Ockham.

    L’aboutissement de cette voie de réflexion et de mathématisation a été la théorie générale de l’intelligence développée par l’informaticien allemand Marcus Hutter, dont le livre Universal Artificial Intelligence, publié en 2005, est devenu une référence. En utilisant la notion mathématique de concision, une notion mathématisée d’environnement (ce qui produit les données desquelles un système intelligent doit tenter de tirer quelque chose) et le principe mathématisé d’Ockham de Solomonoff, M. Hutter définit une mesure mathématique universelle d’intelligence. Elle est obtenue comme la réussite moyenne d’une stratégie dans l’ensemble des environnements envisageables.

    Cette dernière notion (dont nous ne formulons pas ici la version définitive avec tous ses détails techniques) est trop abstraite pour être utilisable directement dans des applications. Cependant, elle permet le développement mathématique d’une théorie de l’intelligence et fournit des pistes pour comparer sur une même base abstraite, non anthropocentrée et objective, toutes sortes d’intelligences. Contrairement à l’idée de H. Gardner, cette voie de recherche soutient que l’intelligence est unique, qu’on peut dépasser le côté arbitraire des tests d’intelligence habituels pour classer sur une même échelle tous les êtres vivants ou mécaniques susceptibles d’avoir un peu d’intelligence.

    Intelligence et compression

    © photology1971 – Fotolia

    Malgré la difficulté à mettre en œuvre pratiquement la théorie (par exemple pour concevoir de meilleurs tests d’intelligence ou des tests s’appliquant aux humains comme aux dispositifs informatiques), on a sans doute franchi un pas important avec cette théorisation complète. Conscients de son importance pour la réussite du projet de l’intelligence artificielle, les chercheurs ont maintenant créé un domaine de recherche particulier sur ce thème de « l’intelligence artificielle générale » qui dispose de sa propre revue spécialisée, le Journal of General Artificial Intelligence (en accès libre).

    Dans le but sans doute d’éviter à la discipline de se satisfaire du développement de sa partie mathématique, un concours informatique a été créé par M. Hutter en 2006. Il est fondé sur l’idée que plus on peut compresser, plus on est intelligent (voir l’encadré).

    La nouvelle discipline aidera peut-être les chercheurs à réaliser cette intelligence générale qui manque tant à nos machines actuelles et les oblige à n’aborder que des tâches spécialisées, le plus souvent en contournant les difficultés qu’il y aurait à employer les mêmes méthodes que les humains, qui eux disposent — au moins de façon rudimentaire ! — de cette intelligence générale.

    Jean-Paul Delahaye, Professeur émérite d’informatique à l’Université des Sciences et Technologies de Lille

    Pour aller plus loin :

    • B. GOERTZEL, Artificial general intelligence : Concept, state of the art, and future prospects, in J. of Artificial General Intelligence, vol. 5(1), pp. 1-48, 2014.
    • G. TESAURO et al., Analysis of Watson’s strategies for playing Jeopardy !, 2014.
    • D. DOWE et J. HERNÀNDEZ-ORALLO, How universal can an intelligence test be, in Adaptive Behavior, vol. 22(1), pp. 51-69, 2014.
    • Le concours de compression de Marcus Hutter