L’intelligence artificielle est un domaine sans fin et en perpétuelle évolution, né de la quête éternelle de l’homme de « jouer à Dieu », comme le décrivait Pamela McCorduck. Aujourd’hui, elle est devenue tellement omniprésente dans nos vies que beaucoup évoquent une révolution. Dans son dernier livre intitulé Quand la machine apprend, le directeur français de la recherche fondamentale chez Facebook, Yann Le Cun, nous immerge notamment dans les méandres des systèmes d’intelligence artificielle. Il nous relate l’opposition de deux courants majeurs de recherche : le courant logique et le courant neuronal qui s’associent pour donner vie aux innovations les plus spectaculaires.
L’intelligence artificielle classique : des machines basées sur la logique
Après la naissance de l’intelligence artificielle en 1956, une partie des scientifiques ne conçoivent de machines intelligentes que basées sur la logique. Ils élaborent des systèmes fondés sur l’exploration arborescente et des systèmes experts. Ces derniers sont capables d’étudier la concordance de faits vrais avec des règles préétablies pour en déduire d’autres faits.
Ce système d’intelligence artificielle, baptisé depuis GOFAI pour Good Old-Fashioned Artificial Intelligence (« bonne vieille intelligence artificielle) a d’ailleurs concentré les recherches dans les années 1970-1980.
Le système expert MYCIN, destiné à identifier des bactéries causant des infections graves telles que l’appendicite ou la méningite en est une bonne illustration. Il s’agissait d’un moteur d’inférence doté de règles permettant d’établir un diagnostic puis de proposer un antibiotique et une posologie avec un certain degré de confiance. Son élaboration demandait alors aux ingénieurs de comprendre le raisonnement de l’expert – le médecin – et de retranscrire les règles dans une base de connaissances.
Malgré une bonne fiabilité, ces systèmes informatiques fondés sur la logique se sont avérés trop compliqués à développer et n’ont pas dépassé le stade expérimental. Néanmoins, ils font toujours référence et une partie des chercheurs continue à travailler sur ces sujets. Une autre, à laquelle appartient Yann Le Cun, se consacre à un autre pan de l’IA. Totalement différent, il est tourné vers « l’apprentissage-machine » et participe à son expansion fulgurante.
Le courant neuronal et les pionniers de l’apprentissage profond
Dès les années 1950, certains chercheurs soutiennent en effet que la logique ne suffira pas à rendre des systèmes informatiques capables d’effectuer des tâches réservées à l’homme. Selon eux, il faut explorer directement le support des enchaînements logiques du raisonnement humain. L’étude du fonctionnement du cerveau s’impose alors au cœur des recherches en IA. Les systèmes informatiques doivent être capables de s’autoprogrammer en s’inspirant de ses mécanismes d’apprentissage.
C’est cette intuition, déjà évoquée par Alan Turing, qui donne progressivement naissance au courant neuronal, par opposition au courant logique décrit précédemment. On entraîne la machine à effectuer une tâche plutôt que de la programmer directement.
Depuis, la recherche scientifique s’applique à reconstruire des réseaux de neurones artificiels dont les connexions évoluent au fil de l’apprentissage. La machine est d’abord entraînée à reconnaître une image qu’on lui présente plusieurs milliers de fois. Elle la capte et formule ensuite une réponse de sortie. Pendant cette phase, ses paramètres internes sont ajustés à chaque mauvaise réponse. A son issue, son système neuronal interne est capable de s’autoprogrammer et même de reconnaitre une image inconnue !
De telles capacités ont de quoi nous donner le vertige. Avec l’apprentissage profond, les performances affichées par la machine sur des tâches spécifiques sont inégalables. Néanmoins, l’homme peut encore se targuer d’être bien supérieur aux systèmes intégrant de tels procédés sur de nombreux domaines. Ces derniers n’ont par exemple aucune idée des actions qu’ils reproduisent et demeurent dénués d’un quelconque sens commun. Enfin, la logique lui est toujours inconnue.
Vers une réconciliation des deux courants
Yann Le Cun pose ainsi comme principal défi pour l’avenir de l’IA de réconcilier logique et apprentissage. Pour l’heure, les systèmes fondés sur l’intelligence artificielle combinent bien souvent apprentissage-machine, GOFAI et informatique classique.
Les véhicules électriques de Tesla disponibles dans le commerce en sont un excellent exemple et préfigurent les véhicules complètement autonomes qui verront le jour d’ici peu. Les chercheurs utilisent une architecture de « réseaux convolutifs » de neurones pour constituer leur système de reconnaissance visuelle. Celui-ci est capable d’analyser les objets et indices présents sur la route. Une fois que la voiture a « vu », la prise de décision est gouvernée par un système de planification de la trajectoire proche des systèmes à base de règles qu’on attribue au champ de la GOFAI.
Ce mélange d’ancien et de moderne qui rassemble la communauté scientifique donne donc lieu aux réalisations les plus ambitieuses. Dès à présent, le régulateur de vitesse est capable de mettre la voiture en conduite autonome sur l’autoroute puis assiste le conducteur dans toutes ses manœuvres. La combinaison de l’apprentissage machine et de la logique réussit progressivement à imiter le comportement humain, de la perception à l’action. De quoi nous laisser rêveur, ou songeur...
A propos de StoryShaper :
StoryShaper est une start-up innovante qui accompagne ses clients dans la définition de leur stratégie digitale et le développement de solutions d’automatisation sur-mesure.
Sources : StoryShaper, Yann Le Cun, Quand la machine apprend, 2019