Une start-up française de cybersécurité qui a su séduire le géant américain de l’intelligence artificielle. C’est le fait d’arme de Mithril Security, lauréate de la bourse cybersécurité d’OpenAI. L'entreprise américaine a lancé à l'été 2023 ce programme de financement d’un million de dollars visant à «renforcer les capacités en cybersécurité» de son offre. Car après avoir séduit le grand public avec son agent conversationnel ChatGPT, OpenAI veut maintenant vendre sa version payante aux entreprises. Ce qui nécessite de leur garantir la confidentialité des données envoyées à l'outil.
C'est là qu'intervient Mithril Security. «Notre logiciel permet de sécuriser et d’isoler hermétiquement les données dans une 'enclave', grâce à une clé cryptographique conçue spécialement pour l’IA. Cela garantit aux utilisateurs que les administrateurs des modèles d'IA n'ont pas accès à leurs données», explique Raphaël Millet, directeur des opérations et cofondateur de Mithril Security. La solution vise aussi à garantir la sécurité des données en cas de cyberattaque.
Des fuites de données retentissantes
La spécificité de la solution proposée par Mithril security, qui explique que la start-up ait été parmi les premiers lauréats de cette bourse ? Sa compatibilité avec les GPU, ces cartes graphiques qui permettent à l’IA ses performances actuelles. Le soutien financier d’OpenAI, s’il reste relativement modeste, devrait permettre à la pépite française de poursuivre son développement, tout en lui offrant une visibilité bienvenue. En parallèle, la start-up spécialiste de la sécurisation des données privées collabore avec l’Institut américain Future of Life sur la gouvernance des intelligences artificielles au travers du projet AIGovTool.
Si le sujet préoccupe tous les acteurs de la tech, il est particulièrement crucial pour OpenAI, qui a connu en la matière quelques déboires et doit désormais retrouver la confiance des utilisateurs. Lors du lancement à l'automne 2022 de la version gratuite de ChatGPT, des cas de fuites de données sont apparus, quand des employés d'entreprises se sont empressés de recourir à l'outil pour résoudre tout type de problèmes, de l’envoi d’emails à la réalisation de présentations en passant par la création de code ou l’analyse d’états financiers.
Participer à créer un standard d’IA confidentielle
L’un des cas le plus connu est celui de Samsung. Quand les employés du géant coréen se sont mis à utiliser massivement l’application de discussion, plusieurs fuites de données ultra sensibles ont eu lieu, notamment dans le domaine des semi-conducteurs. En effet, tout ce qui est transmis à ChatGPT, dans sa version gratuite, est transformé en donnée d’apprentissage, afin d’améliorer continuellement les performances de l’intelligence artificielle. Revers de la médaille, ce qui est communiqué à ChatGPT peut potentiellement être partagé avec d’autres utilisateurs, les modèles d’IA ayant pour principal objectif «d’apprendre par cœur» les données qui leur sont soumises à l’entraînement.
Pour se prémunir contre ces risques et mieux maîtriser leurs données, notamment dans des secteurs sensibles comme la finance ou la santé, des entreprises cherchent à développer leur propre modèle d'intelligence artificielle. Alors que cette problématique de confiance et de gouvernance des modèles est au cœur de la production législative liée à l'IA cette année tant en Europe qu’aux Etats-Unis, Mithril Security espère bien, à terme, participer à créer un standard d’IA confidentielle.



