L’Agence de programmes Numérique pilotée par l’Inria a été créée en début d’année. Comment sa feuille de route s’articulera-t-elle avec la vôtre ?
Les feuilles de route seront alignées, c’est tout le sens d’une agence de programmes confiée à un opérateur de recherche. L’Agence, c’est l’Inria au service d’une dynamique collective. On travaille pour tout l’écosystème français du numérique : universités, organismes de recherche et entreprises. La dimension écosystème est cruciale. Ce qui fait la force d’un pays dans le numérique, ce n’est pas d’avoir une bonne recherche, ni de bons entrepreneurs, ni un bon capital-risque. C’est d’avoir un écosystème. C’est une faiblesse de la recherche française que d’avoir du mal à faire écosystème. L’Agence doit changer la donne et permettre d’articuler recherche, formation, entreprises innovantes et politique publique. À l’Inria, nous y travaillons. Depuis quatre ans, nous avons ainsi créé des équipes-projets communes avec des entreprises, comme Naval Group, Airbus, EDF, Criteo...
Quels seront les grands axes de votre feuille de route ?
Notre feuille de route, ce sont les programmes thématiques prioritaires que nous sommes en train de construire avec l’Agence. Il y en a quatre dans le cœur du numérique : l’intelligence artificielle, la cybersécurité, le cloud et le quantique. Et quatre davantage aux interfaces : santé, environnement, univers immersifs et éducation. Nous aurons aussi des programmes transverses, l’Agence lancera le premier d’ici peu. Baptisé Programme Inria Quadrant, il sera très ouvert en termes de sujets et visera des recherches à risque, des ruptures, avec une ingénierie de projet différente de celle des agences de financement. Il n’y aura pas de lourds dossiers, avec derrière un financement pour quatre ans ou rien, mais une entrée dans le programme avec une proposition légère, puis des jalons pour décider de poursuivre ou non. Il faut de nouveaux formats de ce type pour favoriser et stimuler la créativité.
Quelle est l’importance de l’IA à l’Inria ?
L’IA touche quasiment toutes nos équipes-projets, et c’est le sujet de recherche principal pour plus du tiers d’entre elles. Ce domaine a connu une forte expansion ces dernières années, représentant environ un tiers de nos recrutements. Dans l’IA générative, nous comptons une trentaine d’équipes, actives dans les différentes approches, dont les grands modèles de langage (LLM) à base d’architecture Transformer ne sont qu’une déclinaison. Notre équipe-projet Almanach spécialiste du traitement automatisé du langage a créé et entraîné, fin 2019, le premier grand modèle monolingue en français, CamemBERT. En 2020 et 2021, plusieurs modèles de type GPT ont été entraînés en français, dont Pagnol, développé par la start-up LightOn. Alors pourquoi tout cela n’a-t-il pas débouché sur un ChatGPT ? Précisément parce qu’on n’a pas assez travaillé en écosystème !
L’IA mérite-t-elle vraiment toute l’attention qui lui est portée ?
L’IA est en train de changer en profondeur toutes les disciplines. Il n’y a pas remplacement, mais hybridation de méthodes.
Je ne vais pas minorer l’importance de l’IA, c’est une lame de fond qui est en train de changer en profondeur toutes les disciplines. Il y a un exemple que j’aime beaucoup : Deepmind a montré, en novembre 2023, que l’IA permettait de faire, en quelques minutes sur un ordinateur pas très puissant, des prévisions météo qui prennent des heures à un supercalculateur avec la simulation classique. On comprend bien qu’il s’agit d’un bouleversement. Mais si vous regardez de plus près ce qu’ils ont fait, vous voyez que, malgré les grandes quantités de mesures météo existantes, il a fallu compléter ces données par des résultats de simulation classique. Il n’y a pas remplacement, mais hybridation de méthodes. C’est de cette façon que l’IA s’immisce dans tous les domaines, comme avec l’IA de confiance, qui utilise l’IA symbolique, à base de règles et de connaissances. Autre exemple marquant : fin 2023, une équipe de Deepmind, avec un chercheur de l’Inria, Omar Fawzi, a utilisé des modèles génératifs pour créer de nouveaux algorithmes d’optimisation combinatoire… On est vraiment dans une transformation de la façon de faire de la science.
Parmi les réalisations emblématiques de l’Inria en IA, lesquelles citeriez-vous ?
Nous sommes fiers du logiciel grand public
Pl@ntNet, développé avec le Cirad, l’Inrae et l’IRD, qui permet d’identifier grâce à l’IA des plantes à partir de photos et compte aujourd’hui plus de 25 millions d’utilisateurs. Nos équipes, le plus souvent en lien avec les universités, ont obtenu des prix prestigieux avec, par exemple, des méthodes d’analyse mathématique d’algorithmes d’IA ou des algorithmes autosupervisés qui apprennent des représentations de données sans utiliser d’annotations et qui, en peu de temps, ont eu un impact considérable en vision par ordinateur.
L’an dernier, une équipe de l’Inria a produit un algorithme appelé Gaussian Splatting pour la reconstruction d’une scène 3D à partir de photos qui a battu à plate couture la méthode dominante depuis 2019, appelée NeRF et développée par Google. Cet algorithme a eu un succès phénoménal, des dizaines d’entreprises l’ont déjà adopté. Enfin, Scikit-learn est une superbe réussite : développé depuis plus de dix ans, c’est l’une des bibliothèques open source d’IA les plus utilisées au monde. Dans le monde académique, c’est la seule au coude-à-coude avec celles de Google et de Meta.
Bruno Levy Jean-Frédéric Gerbeau est persuadé qu'il reste une place pour la recherche publique à côté des géants de la tech. À condition d’avoir une stratégie de différenciation. (Photo : Bruno Levy)
Scikit-learn ne traite pas le deep learning, les réseaux de neurones profonds qui sont les plus en vogue. Pourquoi ?
Scikit-learn n’inclut pas le deep learning mais peut s’interfacer avec les outils dédiés. Ceux de Google et de Meta répondent déjà aux besoins des utilisateurs, à quoi bon créer un outil de plus, qui ne bénéficiera pas de la force de ces grands groupes ? Pour Scikit-learn, il a été décidé de se positionner sur du machine learning capable de traiter l’énorme quantité de problèmes et d’applications qui sont inaccessibles au deep learning parce qu’il n’y a pas assez de données, ou que celles-ci sont sales, mal fichues... C’est la clé de son succès. Et c’est pour aller plus loin que nous accompagnons le lancement de la start-up Probabl, dirigée par l’entrepreneur Yann Lechelle. C’est un autre exemple de ce que signifie travailler en écosystème.
La recherche publique peut-elle rivaliser avec Meta ou Google ?
Construisons un numérique à l’empreinte environnementale maîtrisée. Sans parler de low tech, il s’agit de développer une technologie plus maligne, une smart tech.
Les grands acteurs de la tech ont des labos au tout meilleur niveau académique, notamment en IA. C’est une nouveauté dans le paysage de la recherche depuis une dizaine d’années. Reste-t-il une place pour la recherche publique ? Oui, à condition d’avoir une stratégie de différenciation. Il faut certes continuer à investir en puissance de calcul et en talents pour pouvoir travailler, comme le fait la France depuis 2018, mais c’est inutile de faire la course avec des entreprises dont les résultats nets dépassent le budget de l’enseignement supérieur et de la recherche ! Positionnons-nous plutôt sur la recherche sur les fondements de l’IA, cruciale tant les grands modèles sont mal compris et mal maîtrisés. Construisons un numérique à l’empreinte environnementale mieux maîtrisée. L’approche « brute-force » de l’IA des grands acteurs de la tech est incompatible avec un tel objectif. La limite en puissance de calcul de la recherche publique peut stimuler des approches plus frugales, avec une consommation de calcul adaptée à l’usage visé. Sans parler de low tech, il s’agit de développer une technologie plus maligne, une smart tech.
Encore faut-il que les géants de la tech ne récupèrent pas tous vos chercheurs...
Cette fuite a existé, mais elle a ralenti. On a même des scientifiques des géants de la tech qui nous contactent pour revenir. Entre 2019 et 2023, nous avons recruté deux fois plus de permanents que les cinq années précédentes, soit 205 personnes, dont 40 % d’étrangers. On a des gens au top niveau mondial, qui auraient pu aller chez les Gafam ! La recherche publique attire donc. Nous avons une carte à jouer en termes d’attractivité, avec des sujets porteurs de sens. En matière d’environnement d’abord, avec l’atténuation de l’empreinte environnementale du numérique, mais aussi l’anticipation des évolutions et l’adaptation au changement climatique grâce au numérique.
La smart tech, plus frugale, est cruciale pour l’edge, le calcul en bordure de réseau, ou l’embarqué, qui sont des sujets majeurs pour l’industrie et qui posent des questions scientifiques ardues. Par ailleurs, la recherche publique est bien placée pour travailler sur la santé et l’éducation en tant qu’acteur de confiance, qui ne cherchera pas à capter les données sensibles à son profit. Nous avons un Défi Inria sur l’apprentissage fédéré, qui laisse les données chez leur propriétaire sans les centraliser. Cela intéresse particulièrement les hôpitaux.
Hors IA, quelles évolutions marquent vos programmes thématiques ?
Le programme quantique bénéficie d’une dynamique exceptionnelle. L’Inria comptait trois équipes-projets – une dizaine de permanents – dans ce domaine il y a quatre ans. Depuis, nous en avons créé cinq autres et recruté une quinzaine de scientifiques, ce qui donne, avec les doctorants et post-doctorants, une force considérable pour une telle thématique. Nous travaillons sur l’algorithmie quantique, sur les outils de génie logiciel dont on aura besoin si l’ordinateur quantique existe un jour, sur la communication quantique et, avec notre équipe Quantic, sur un bit quantique d’un type original repris par la start-up Alice & Bob. En cybersécurité, l’Inria est à la pointe dans la cryptologie et les chercheurs et enseignants-chercheurs d’équipes-projets se sont récemment distingués dans la compétition mondiale sur le cryptage post-quantique organisée par le Nist américain. Nous cherchons aussi à développer la dimension supervision et la sécurité réactive de la cybersécurité et à sécuriser les grands modèles d’IA, un enjeu majeur. Côté cloud, on travaille beaucoup à réduire la consommation des datacenters, notamment avec OVH Cloud et Qarnot Computing. En simulation, plusieurs équipes travaillent depuis vingt ans sur la modélisation du système cardiovasculaire – la start-up InHeart en est issue. Avec Dassault Systèmes et sept instituts hospitalo-universitaires, nous cherchons maintenant à créer une filière industrielle française de jumeaux numériques d’autres organes au sein du projet MediTwin.
Piloter la recherche quand le numérique évolue si vite ne doit pas être simple...
Le numérique évolue effectivement très vite, et la distinction entre science et application n’y est pas vraiment opérante. Les décompositions linéaires de type TRL ne sont pas adaptées : on peut passer brutalement de 1 à 9 sur l’échelle TRL, ou inversement. Il est important de piloter des choix stratégiques au niveau national, mais il est tout aussi important de créer un environnement souple, avec une organisation agile comme le sont nos équipes-projets qui se reconfigurent régulièrement, pour s’appuyer sur la créativité des chercheurs, ingénieurs et entrepreneurs et la stimuler.
Regardons en arrière : en 2002, le terme d’IA était considéré comme « has been » et les réseaux de neurones comme un truc poussiéreux. En 2012, ces réseaux de neurones dans leur version deep learning ont fait décoller l’IA et, en 2022, ChatGPT a explosé, avec une architecture de réseaux de neurones inventée par Google en 2018... Cela pousse à l’humilité. Je pense que personne ne peut prédire à dix ans dans le numérique. En revanche, rétrospectivement, on constate qu’il y avait en 2002 comme en 2012 des équipes-projets de l’Inria qui travaillaient déjà sur les sujets qui allaient exploser dix ou vingt ans plus tard. Je suis confiant dans le fait que c’est encore le cas aujourd’hui. Plutôt que de prétendre imaginer un futur imprévisible, il faut miser sur la qualité et la diversité de notre écosystème académique et d’innovation, en ayant un socle solide et de niveau mondial dans les disciplines du numérique, l’informatique et les mathématiques appliquées. C’est ce qui fait la force de l’institut dans un paysage en constante évolution.
Propos recueillis par Manuel Moragues
Pro-écosystème
Dans son bureau surplombant les baraquements de l’ancien QG européen de l’Otan à Rocquencourt (Yvelines) – siège de l’Inria depuis sa création en 1967 –, Jean-Frédéric Gerbeau détaille avec autant d’aise les résultats scientifiques de l’institut que ses grandes orientations. Ce docteur en mathématiques appliquées est entré à l’Inria en 1999. Il y mènera des recherches en modélisation mathématique et en simulation multiphysique, en particulier pour étudier les flux d’air et de sang dans le corps avec sa propre équipe-projet. Après cinq ans à la direction déléguée du centre de Rocquencourt, il devient en 2018 le directeur général délégué à la science de l’Inria auprès du nouveau PDG, Bruno Sportisse. Il est ainsi l’un des principaux acteurs d’une stratégie axée sur l’innovation et les collaborations avec le secteur privé, à laquelle s’oppose une partie des chercheurs de l’Inria. Reconduit avec le reste de la direction en août 2023, il reste convaincu que « c’est la dimension écosystème qui fait la force d’un pays dans le numérique ».



