Cloud, puissance de calcul, base de données et main d’œuvre qualifiée sont essentiels pour développer des grands modèles de langage (LLM). La techno derrière l’intelligence artificielle (IA) générative. Et certains acteurs, comme Amazon, Google et Microsoft, sont présents sur toute cette chaîne de valeur. L’autorité de la concurrence française a rendu un rapport fin juin sur le fonctionnement concurrentiel de l’IA générative après avoir collecté le point de vue d’une quarantaine d’acteurs et d’une dizaine d’associations d’acteurs.
Elle explique s’être tout particulièrement intéressée aux stratégies mises en place par les grands acteurs du numérique. Surtout que ces entreprises commencent à proposer des outils d’IA génératives comme Microsoft avec son outil de recherche Bing ou sa suite bureautique Microsoft 365. France Digitale alertait déjà en avril dernier sur le risque que quelques acteurs, positionnés sur l’ensemble de la chaîne de valeur, accaparent ce marché.
Surveiller les pratiques d’auto-préférence
Amazon, Google et Microsoft disposent toutes les trois de leurs propres cloud (AWS, Google Cloud et Microsoft Azure). Des services essentiels pour accéder à la puissance de calcul nécessaire pour développer des LLM ou au système de diffusion des modèles d’IA générative auprès des clients. Il est possible pour des entreprises concurrentes sur la partie LLM d’accéder à ces plateformes cloud. Mais cela n’est pas sans risque. Les fournisseurs de cloud n’hésitent pas à verrouiller le marché via la délivrance de crédits cloud ou en freinant la migration d’un cloud vers l’autre.
Les pratiques d’auto-préférence de la part de ces acteurs verticalement intégrés doivent aussi être surveillées. Les géants du numérique ont l’habitude de pousser leurs propres outils sur leurs plateformes plus connues afin de s’accaparer un autre marché : comme Google Maps sur le moteur de recherche Google. Il faut donc s’assurer que certains LLM, par exemple développés par les start-up dans lesquelles les géants du numérique ont investis, ne sont pas privilégiés au détriment des autres. Un point d’autant plus essentiel que les investissements et partenariats, comme ceux de Microsoft dans OpenAI ou d’AWS dans Anthropic, souffrent d’un manque de transparence.
Des barrières à l’entrée conséquentes
Cela n'empêche pas certains de se lancer dans le développement de LLM. Mais les barrières à l’entrée vont en décourager plus d’un. À commencer par les financements conséquents. Dans ce secteur, les investissements ont été multipliés par près de six entre 2022 et 2023, selon l’autorité de la concurrence, passant de 4 milliards de dollars levés en 2022 à plus de 22 milliards de dollars levés en 2023. Le besoin d’accès à des supercalculateurs est l’une des raisons de ces investissements conséquents. À ce sujet, l’autorité de la concurrence souligne que l’investissement dans des supercalculateurs publics peut limiter cette barrière. Il est possible de laisser l’accès à ces supercalculateurs à la recherche publique ou même privée en échange d’un paiement éventuel.
L’accès à la donnée est aussi essentiel. Les bases de données actuelles sont largement constituées grâce à des informations collectées sur Internet. Doit-on s’inquiéter d’un tarissement des données accessibles publiquement ? Est-ce que si de grandes entreprises du numérique se réservent l’exclusivité de l’accès aux données des créateurs de contenu est une pratique anticoncurrentielle ? Ou si elles leur versent des rémunérations peu réplicables ? Au-delà, de ces considérations matérielles, le sujet des talents peut aussi être un frein. L’accès à une main d’œuvre qualifiée est essentiel pour développer des LLM. Pourtant, certaines entreprises n’hésitent à passer des accords des non-débauchage, jugés comme pouvant être illégaux. Ces freins n'empêchent pas, pour l'instant, le bouillonnement de l'écosystème parisien.



