« Je ne crois pas qu’il y ait jamais eu une année avec autant de hype (battage médiatique, ndlr) autour d’une technologie. » Devant l’amphithéâtre Poincaré de l’Ecole Polytechnique, plein à craquer, Michael Jordan veut remettre d’emblée les pendules à l’heure. Premier orateur des deux jours de la conférence AI, Science et Society qui s’est tenue les 6 et 7 février, le chercheur, pionnier du machine learning, s'est livré à une attaque en règle des fantasmes autour de l’intelligence artificielle.
Le terme d’IA, a-t-il rappelé, est né au fameux atelier de Darthmouth en 1956, pour désigner l’objectif - le rêve - des participants : une entité rivalisant avec l’intelligence humaine. Mais « ce n’est pas cet événement qui a déclenché la vague de développements technologiques qui nous a emmenés là où nous sommes aujourd’hui », assène-t-il. Ce ne sont pas des chercheurs en IA mais plutôt «des statisticiens, des théoriciens du contrôle et du traitement du signal et des spécialistes de la recherche exploratoire», qui ont développé le machine learning, l’apprentissage automatique à partir de données.
« Le rêve fiévreux de la Silicon Valley »
« Personne ne parlait d’intelligence ni d’agent, il s’agissait juste de technologies qui fonctionnaient, largement utilisées par les entreprises dès le début des années 2000, et qui ont eu un énorme impact sur le monde », témoigne-t-il. Avant d’enchaîner : « Et puis vinrent les LLMs (les grands modèles de langage, ndlr). Oh mon Dieu ! C’est le même genre d’architecture, mais en plus gros et nourri des textes d’internet. Et ça paraît humain. Donc l'expression "IA" revient et avec elle toute la hype et l’hystérie. Maudite expression ! Si l’on avait continué à utiliser "machine learning", les débats auraient été bien plus sereins.»
Pour le chercheur, « le rêve fiévreux de la Silicon Valley d’une superintelligence qui aurait réponse à tout est absurde ». Pire, alors que selon lui, nous vivons actuellement « l’émergence d’un fantastique nouveau domaine d’ingénierie, comme cela a été le cas avec la chimie dans les années 1940-1950, ce vieux rêve d’IA freine le domaine. »
« Toujours coincés dans le paradoxe de Moravec »
Michaël Jordan et d’autres orateurs tels Bernhard Schölkopf, de l’ETH Zürich ont pris un malin plaisir à montrer des exemples des erreurs grossières que peuvent faire les LLMs. De quoi largement relativiser leurs prétentions à l’intelligence, comme l’a fait Yann Le Cun, chief AI scientist de Meta : « Certes si l’on entraîne un LLM sur le droit, il passera l’examen du barreau. Mais c’est trompeur : on n’a toujours pas de robots domestiques ni de voitures complètement autonomes alors qu’un enfant de 10 ans peut débarrasser la table sans apprentissage et un jeune de 17 ans conduire après 20 heures de cours...»
Pour le co-lauréat du Prix Turing 2019, « nous sommes toujours coincés dans le paradoxe de Moravec : les choses qui sont faciles pour les humains sont difficiles pour l’IA et vice-versa.» A l’en croire, il ne faut pas compter sur les LLM pour s'approcher de l’intelligence humaine, un but qu’il estime indispensable étant donné que « dans un futur proche toutes nos interactions avec le monde numérique se feront via des assistants IA». Yann Le Cun en est persuadé : « On n’atteindra jamais une intelligence proche de l’humain en n’entraînant les modèles que sur du texte», a-t-il avancé, enjoignant même les jeunes chercheurs intéressés par l’IA proche de l’humain «à ne pas travailler sur les LLMs » !



