RENCONTRE AVEC L'ALTER ALGO
On a tous en tête des souvenirs scolaires au cours desquels a eu lieu la rencontre avec l'alter algo, à travers des jeux de programmation, de la séquence la plus élémentaire en complétant une série de gommettes colorées composée de 2,3,4… éléments, aux jouets programmables de type Tortue ou encore Bee-Bot. "Une recette", écrivent S.Abiteboul et G.Dowek "est un algorithme et elle nous fournit une première définition de ce concept : un algorithme est un procédé qui permet de résoudre un problème sans avoir besoin d'inventer une solution à chaque fois"(1). Puis les auteurs entrouvrent la porte donnant sur les utilisations multiples des algorithmes : "Les algorithmes sont devenus des ingrédients essentiels de nos vies professionnelles, de nos interactions sociales, de notre médecine, de notre industrie, de nos transports, de notre commerce, etc. Ils transforment les sciences exactes et les sciences humaines et contribuent ainsi à enrichir nos connaissances. Ils permettent à la technique de repousser sans cesse les limites du possible. Certains algorithmes, tels le système d'exploitation d'un téléphone, un système de gestion de bases de données ou un moteur de recherche, sont des objets gigantesques, auxquels des milliers de personnes contribuent. Ils sont parfois comparés à des cathédrales, tant ils tiennent de la même ambition, de la même déraison".
Les algorithmes sont à la base des programmes d'apprentissage informatiques. Y.Le Cun nous parle des nouveaux algorithmes qui donnent accès aux apprentissages profonds développés pour l'intelligence artificielle: "Ce qui a véritablement fait marcher tout cela, ce sont des puissances de calcul considérable, la disponibilité de grands corpus de données numériques, et le développement de nouveaux algorithmes dans les années 1980 : les réseaux neuronaux artificiels multicouche et la rétropropagation du gradient de l’erreur. Ce sont des algorithmes inspirés (mais de loin) du fonctionnement des neurones biologiques"(2).
"La grande surprise c'est que les réseaux de neurones [artificiels] sont capables de généraliser particulièrement bien et avec précision"(3), déclare S.Mallat. De la généralisation à la conceptualisation, le pas à franchir serait-il si grand ? C'est avec cette question en tête que nous nous proposons de "rencontrer" plus encore l'alter algo.Y.Le Cun traite de l'apprentissage supervisé ou Machine Learning. Nous rapportons ses propos -presque mot pour mot-: "Après quelques milliers ou millions d'exemples validés de reconnaissance d'images, à partir d'algorithmes d'apprentissage la machine a ajusté toutes les configurations qui font que les objets seront correctement classifiés... Ce processus nécessite des références multiples, le Big Data, et des processeurs extrêmement puissants… Dans les méthodes d'apprentissage profond -Deep Learning- on a remplacé les étapes utilisées jusque-là par une suite de modules composant la même machine. Tous ces modules sont entraînables simultanément ou séquentiellement, de manière à ce que la machine entière soit entraînable… Les algorithmes de recherche d'apprentissage utilisés alors sont en fait plus efficaces que les ingénieurs humains pour concevoir des systèmes de reconnaissance d'images… Les techniques de Deep Learning que l'on utilise maintenant sont un peu inspirées des neurosciences… Il y a des systèmes d'apprentissage profond qui sont des réseaux de neurones artificiels… un peu inspirés de la biologie, mais ne qui collent pas de très près à la biologie. Ils reposent sur l'idée d'une hiérarchie dans le traitement de l'information comme si le monde était compositionnel… Au fur et à mesure que l'on monte dans la hiérarchie, les motifs sont assemblés pour former des parties d'objets, puis des objets. On utilise ainsi des couches multiples, le terme profond –Deep- vient du nombre de couches utilisées… Il y a certains processus que l'on ne comprend pas et que l'on ne sait pas faire pour pouvoir construire des machines plus intelligentes : le mode d'apprentissage non supervisé. Sur quels principes est basé l'apprentissage non supervisé, on ne le sait pas… les solutions envisagées ne fonctionnent pas aussi bien que celles utilisées par les systèmes biologiques, qui peuvent par exemple découvrir de façon autonome que le monde est tridimensionnel ou encore qu'un objet peut passer devant un autre et le cacher, mais l'objet qui est derrière existe toujours, etc"(4).
On comparera au niveau de la complexité de fonctionnement l'avancée des "modules entraînables simultanément ou séquentiellement" décrits par Y.Le Cun et le fonctionnement cérébral dont parlent G.M.Edelman et G.Tononi : "Du fait de la nature dynamique et parallèle de la réentrée et parce que c’est un processus sélectif de haut niveau, il n’est pas facile de trouver une métaphore qui rende bien compte de toutes ses propriétés. Essayons cependant. Imaginez un étrange quatuor à cordes dont les musiciens réagiraient en improvisant aux idées et aux signaux qui leur sont propres ainsi qu’à ceux qui sont issus de l’environnement. Puisqu’il n’y a pas de partition, chaque musicien produirait ses airs caractéristiques. Au début, il n’y aurait pas de coordination entre eux. Imaginez maintenant que les corps des musiciens soient connectés entre eux par une myriade de fils très fins, de sorte que leurs actions et leurs mouvements soient très rapidement exprimés dans un sens et dans l’autre par des signaux changeant la tension dans les fils, laquelle réagirait instantanément aux actions de chaque musicien. Les signaux connectant instantanément les quatre musiciens susciteraient la corrélation de leurs sons et donneraient ainsi des sons nouveaux, plus cohérents, plus intégrés, qui résulteraient des efforts sinon indépendants de chaque musicien. Ce processus corrélatif affecterait aussi l’action suivante de chaque musicien, et, par ce moyen, le processus se répèterait pour donner de nouveaux airs, encore plus corrélés. Aucun chef d’orchestre ne donnerait des instructions au groupe ni ne le coordonnerait. Chaque musicien conserverait son style et son rôle. Et cependant, ses productions tendraient à être plus intégrées et plus coordonnées. Cela donnerait lieu à une sorte de musique mutuellement cohérente qu’aucun d’entre eux jouant seul ne pourrait produire simplement en contribuant aux sons de l’ensemble"(5).
Y.Le Cun nous fait approcher la différence de fonctionnement entre le cerveau et la machine : "Une machine ne saura pas répondre à une question plus complexe, par exemple : «Antoine prend le planeur, le lance du balcon, puis va le chercher. Où est parti Antoine?». Répondre à cette question requiert du sens commun : le fait que le planeur est un jouet, qu'il finira par atterrir dans la rue ou le jardin, que pour aller le chercher Antoine devra descendre des étages, etc. Nous devinons tout cela grâce à notre expérience du monde qui nous entoure". Dans un apprentissage supervisé "on entraîne la machine à reconnaître l'image d'une voiture ou celle d'une table en lui montrant des milliers d'images et en la corrigeant systématiquement lorsqu'elle fait une erreur. Les animaux et les humains ne fonctionnent pas comme cela: nous découvrons le monde qui nous entoure de façon non supervisée. Aujourd'hui, l'apprentissage non supervisé reste un défi scientifique"(6). Bien sûr on ne peut s'empêcher de s'interroger sur les capacités respectives de l'humain et de la machine, l'une ne finira-t-elle pas par dépasser l'autre comme nous le décrivent des scénarios de science-fiction ? Y.Le Cun apporte des précisions sur trois points essentiels : -les neurones artificiels : "C'est un abus de langage que de parler de neurones ! De la même façon qu'on parle d'aile pour un avion mais aussi pour un oiseau, le neurone artificiel est un modèle extrêmement simplifié de la réalité biologique"(7); -le sens commun : "Les humains, comme les animaux, apprennent à partir de très peu d'exemples, ce qui est un mystère pour les ordinateurs. Mon hypothèse, c'est que nous établissons rapidement des modèles prédictifs du monde… aucun humain n'apprend comme le font les machines, à partir d'un calcul mathématique se basant sur des millions d'exemples !" ; -la singularité technologique : "Il existe à l’heure actuelle deux types de machines intelligentes. Celles qui ne sont pas autonomes. Elles jouent aux échecs, conduiront votre voiture, scanneront vos radios... Demain, on peut imaginer des machines autonomes mais pas particulièrement intelligentes. Comme l’est une souris. Or, la souris est une «machine» plus intelligente que la plus avancée dont on dispose à l’heure actuelle. A la fin de ma carrière, je serai content d’avoir fabriqué une machine qui aurait l’intelligence générale d’un rat. Allez, soyons un peu plus ambitieux : disons un chat"(8). A la question les ordinateurs seront-ils plus intelligents que les humains, Y.Le Cun répond : "D'une certaine manière oui, mais seulement pour des tâches très spécialisées… on est encore très loin de pouvoir construire des machines généralement intelligentes, c'est-à-dire qui sont intelligentes dans tous les domaines où les humains peuvent acquérir de la compétence".
Mais le fond du problème se réduit-il à redouter que la machine prenne le pouvoir ? Nous citons encore Y.Le Cun : "De plus en plus d'entreprises ont des masses gigantesques de données à exploiter, et il y a encore beaucoup d'opérations manuelles pour les trier, les nettoyer, les indexer. Savoir quelles caractéristiques sont vraiment utiles pour prendre la bonne décision nécessite encore beaucoup de travail. C'est ce que font les data scientists, qui conçoivent des «extracteurs de caractéristiques». Or le Deep Learning peut permettre de le faire automatiquement: c'est ce qu'ont montré les réseaux neuronaux dans la reconnaissance d'image automatique, en produisant des algorithmes qui se sont montrés meilleurs que ceux conçus par des ingénieurs humains pour construire des systèmes de reconnaissance"(6). Y.Le Cun expose les différents domaines dans lesquels est utilisée aujourd'hui l'intelligence artificielle : "Les opportunités sont telles que l’IA, particulièrement l’apprentissage profond, est vue comme des technologies d’importance stratégique pour l’avenir. Les progrès en vision par ordinateur ouvrent la voie aux voitures sans chauffeur, et à des systèmes automatisés d’analyse d’imagerie médicale. D’ores et déjà, certaines voitures haut de gamme utilisent le système de vision de la compagnie israélienne MobilEye qui utilise un réseau convolutif pour l’assistance à la conduite. Des systèmes d’analyse d’images médicales détectent des mélanomes et autres tumeurs de manière plus fiable que des radiologues expérimentés. Chez Facebook, Google et Microsoft, des systèmes de reconnaissance d’image permettent la recherche et l’organisation des photos et le filtrage d’images violentes ou pornographiques. Depuis plusieurs années déjà, tous les moteurs de reconnaissance vocale sur smartphone utilisent l’apprentissage profond. Des efforts considérables de R&D sont consacrés au traitement du langage naturel : la compréhension de texte, les systèmes de question-réponse, les systèmes de dialogue pour les agents virtuels, et la traduction automatique. Dans ce domaine, la révolution de l’apprentissage profond a été annoncée, mais n’est pas encore achevée. Néanmoins, on assiste à des progrès rapides. Dans la dernière compétition internationale de traduction automatique, le gagnant utilisait un réseau récurrent"(9).
.
(1)Le temps des algorithmes. S.Abiteboul et G.Dowek
(5)Comment la matière devient conscience. G.M.Edelman et G.Tononi
