Les technologies d’intelligence artificielle font l'objet de beaucoup de fantasmes. Depuis le lancement de ChatGPT, les technologies génératives font la une des médias et sont au cœur de débats passionnés. Yann Le Cun, un ponte de l’IA, souhaite «injecter de la rationalité dans les débats». De passage à Paris le 18 avril, celui qui mène la recherche fondamentale de Meta dans l’IA a partagé son point de vue sur l’état d’avancement de cette technologie auprès de L'Usine Nouvelle.
Des LLM autorégressifs aux IA pilotables
«Les modèles actuels, comme ChatGPT, peuvent être une aide à l’écriture mais en aucun cas une source d’information», rappelle le lauréat du prix Turing en 2019 pour ses recherches dans l'apprentissage profond (deep learning). Ces systèmes dits autorégressifs sont entraînés à prédire le mot suivant sans se soucier de la véracité de l’information. Une raison qui explique qu'ils ne peuvent pas encore créer des textes trop longs, car la probabilité qu’ils se trompent se renforce au fil de l’écriture. De plus, ces technologies d’IA «ne sont pas pilotables, ajoute Yann Le Cun. Il n’est pas possible de leur demander de faire une réponse appropriée pour un enfant de 13 ans.»
«Les LLM [Large Language Model] autorégressifs auront à mon avis une durée de vie très courte», prédit l’auteur de "Quand la machine apprend" aux éditions Odile Jacob. La prochaine révolution selon lui ? Les IA dites pilotables. Ces systèmes, qui devraient voir le jour d’ici cinq ans, seront capables de produire des textes longs et clairs en planifiant des séquences d’actions. Pour obtenir des systèmes capables de raisonnement et de planification selon des objectifs fixés, il faut qu’ils puissent apprendre le fonctionnement du monde. Mais la perception sensorielle, le sens commun, n’est pas quelque chose d’évident à inculquer à des systèmes d’IA, rappelle Yann Le Cun. Cela ne s’apprend pas avec la lecture de textes. Un des axes de recherche est de trouver comment faire en sorte que les machines apprennent les modèles du monde par l’observation.
En robotique, le paradoxe de Moravec est l’idée selon laquelle les taches les plus faciles pour les humains sont les plus complexes pour les robots, et inversement. Il trouve un exemple avec ce besoin d’apprendre aux IA à percevoir leur environnement. Une compétence nécessaire pour que les modèles planifient des actions en prenant en compte leur impact sur le monde qui les entoure. Il faut aussi que ces systèmes hiérarchisent les actions, ajoute le spécialiste. «Dans le futur, les machines auront des émotions dues à l’existence de ces objectifs», ajoute Yann Le Cun. Mais «les machines ne seront pas dominantes par accident», tempère le chercheur qui cherche à balayer certaines craintes sur ce sujet. «Le désir de domination est spécifique aux espèces sociales, balaie-t-il. Sur ce sujet Yann Le Cun évoque le problème de l’alignement : si les systèmes d’IA sont pilotables, il est possible de spécifier des contraintes alignées avec les valeurs humaines. Reste à définir ces valeurs, qui varient selon les cultures.
Partager la recherche
Il déplore que certains acteurs, comme OpenAI, ne partagent plus leurs recherches auprès de la communauté scientifique. «Le domaine va progresser moins vite», glisse-t-il. L’entreprise américaine derrière ChatGPT se concentre désormais sur le lancement et la commercialisation de produits. Le chercheur parle «d’un revirement mal vu» dans le secteur, même si la nécessité de monétiser des produits est compréhensible. L’open innovation est essentielle au développement du domaine. «Comme ces LLM sont des infrastructures nécessaires, les plateformes ouvertes seront gagnantes», prédit Yann Le Cun. Meta partage par exemple son LLM LLaMA auprès des chercheurs qui en font la demande. Mais ces modèles de langage soulèvent de nombreuses questions juridiques puisqu’ils sont entraînés très largement sur des données provenant du Web… sans se soucier des droits d’auteurs. Un point qu’il faudra rapidement régler pour faciliter leur déploiement.
Le rapprochement d’OpenAI et Microsoft est aussi un mariage de raison : le premier a besoin de l’infrastructure de calcul du second. Car l'entraînement de ces modèles est extrêmement coûteux. Le laboratoire de recherche de Meta FAIR a notamment déboursé un budget «de l’ordre du milliard de dollars» pour mettre au point un nouveau centre de calcul avec 16 000 GPU (processeurs graphiques) de nouvelle génération, souligne le directeur scientifique. La maison-mère de Facebook a généré la structure tridimensionnelle de centaines de millions de protéines. Budget du projet ? 25 millions de dollars par an. Des coûts importants qui expliquent le rapprochement avec des entreprises privées aux moyens plus conséquents.
«Comme l’entraînement coûte cher, il faut que les ressources soient communes», plaide Yann Le Cun. A ses yeux, le gouvernement français et l’UE devraient promouvoir l’existence de plateformes open source s’ils veulent favoriser les technologies d’IA. Une façon aussi de pousser l’émergence d’un écosystème au-delà des LLM avec des start-up proposant solutions et outils pour industrialiser l’IA. Yann Le Cun pousse sa réflexion jusqu’à anticiper l’émergence d’assistants virtuels au détriment des moteurs de recherche. Des systèmes d'aides de plus en plus personnalisés qui pourront, dans une quinzaine d’année, être par exemple intégrés dans des lunettes de réalité augmentée. Qui pourraient, elles, remplacer les smartphones.


