Bioproduction : « L'expertise humaine est un précieux outil pour évaluer la fiabilité d'un modèle », rappelle Édouard Nicoud (Ypso-Facto)

Ypso-Facto a mis en place une méthodologie basée sur les données expérimentales, la simulation prédictive et l'expertise humaine pour relever les grands défis du développement des (bio)procédés. Édouard Nicoud, co-CEO chez Ypso-Facto, nous présente la démarche innovante de son entreprise qui a fait ses preuves dans les étapes de chromatographie et s'attaque désormais à la culture cellulaire.

Réservé aux abonnés
Edouard Nicoud, co-CEO chez Ypso-Facto.
Edouard Nicoud, co-CEO d'Ypso-Facto.

Industrie Pharma : Le nom de l'entreprise Ypso-Facto est un acronyme pour « Your Process Secured and Optimized », pouvez-vous nous expliquer ce que vous entendez par sécuriser et optimiser un procédé ?

Édouard Nicoud : Un procédé est quelque chose de complexe qui a une vie. Dans un premier temps, il faut le développer, souvent en partant d'une idée sur le papier. Sécuriser, c'est pouvoir garantir une viabilité minimale du procédé avant même de monter des laboratoires et des usines pour le mettre en place, tout en respectant des critères de qualité tels que la pureté. C'est aussi dans la phase de développement que la démarche d'optimisation commence.

En effet, l'approche design of expriment utilisée pour quadriller le champ de possibles afin de valider un procédé est très chronophage et requiert une grande quantité de ressources. En optimisant le nombre d'expériences à réaliser, il est possible de réduire le temps de développement. Ensuite, lorsque le procédé existe, il peut être intéressant d'améliorer sa performance en économisant les ressources consommées. Enfin, quand il est en production, il peut arriver que tout ne se passe pas comme prévu. Dans ce cas, il faut pouvoir réagir.

Dans l'industrie pharmaceutique, notamment, la plupart des procédés tournent depuis des dizaines d'années sans que personne n'ose y toucher. On voit aussi une perte des connaissances qui est problématique car il peut arriver qu'il faille modifier malgré tout le procédé, et à ce moment-là, la théorie peut être indispensable.

Vos indices
Indices & cotations
Tous les indices

Pour répondre à ces enjeux, vous proposez une approche basée sur la simulation prédictive destinée principalement aux procédés de bioproduction. Comment sont construits les modèles que vous utilisez ?

E. N. : Pour faire de la simulation prédictive, nous nous appuyons sur des modèles mécanistiques. Au départ, nous construisons des modèles généraux sur la base de grands principes fondamentaux, comme par exemple le principe de conservation de lamasse de Lavoisier. Puis nous y incluons des éléments spécifiques aux procédés que nous souhaitons simuler. Ensuite, nous calibrons les modèles en fonction des besoins des clients.

Tout l'enjeu est alors de trouver le niveau de description adapté au besoin. Un modèle trop compliqué, c'est de la perte de temps. Par ailleurs, il faut adapter la complexité des équations aux outils dont on dispose pour les résoudre. Trouver le juste milieu est tout un art. Au sein d'Ypso-Facto, nous avons développé une suite logicielle qui permet de décrire n'importe quel type de procédé puis de le décomposer en opérations unitaires.

Et pour certaines de ces opérations, nous avons mis au point des outils plus poussés. C'est le cas, par exemple, de l'application Ypso-Ionic dédiée à la conception des procédés de chromatographie. Et en 2025, nous allons sortir une application dédiée aux étapes de culture cellulaire pour répondre à la demande de nos clients.

Ypso Facto - SImulation procedesYpso Facto
Ypso Facto - SImulation procedes Ypso Facto - SImulation procedes

Description d’un procédé chromatographique dans l’interface graphique d’Ypso-Ionic.

Les modèles mécanistiques que vous développez s'opposent-ils aux modèles statistiques utilisés dans l'intelligence artificielle ?

E. N. : En effet, nous pensons que l'approche statistique utilisée en intelligence artificielle n'est pas adaptée à la simulation des procédés car elle n'intègre pas les principes physiques et chimiques fondamentaux. Au lieu de ça, les modèles statistiques cherchent à établir aveuglément des corrélations entre des données quitte à enfreindre certains grands principes.

Or toute la nature ne peut pas être décrite avec des formes mathématiques de base comme les polynômes. Nous savons que la nature est parfois plus complexe, et nous en tenons compte dans nos modèles. Cette année, nous allons publier un article avec Sanofi dans lequel nous mettons en défaut l'approche statistique dans la simulation.

Malgré tout, il y a un point commun entre ces deux approches : la nécessité d'avoir une base de données solide pour alimenter les modèles.

E. N. : Tout à fait. Les données jouent un rôle clé dans la construction de modèles fiables, mais leur pertinence est essentielle. De nombreuses mesures sont aisément disponibles, comme l'évolution du pH au cours du temps, mais elles ne suffisent pas toujours pour alimenter nos modèles avec précision.

Ce dont nous avons réellement besoin, c'est d'informations détaillées sur les espèces chimiques en présence et leurs concentrations. Ces analyses existent, mais les clients sont souvent frileux à l'idée de les utiliser. Notre approche repose sur un équilibre : minimiser le nombre d'expériences tout en maximisant leur valeur, afin de mieux comprendre le procédé et d'aboutir à un modèle robuste et prédictif.

Justement, quelles sont les autres garanties de la fiabilité d'un modèle ?

E. N. : Il existe de multiples publications qui attestent de la fiabilité de nos modèles. Pour la quantifier, nous comparons simplement les données expérimentales à celles issues de la modélisation. Et pour cela, nous nous appuyons sur une des sources d'informations indispensables dans notre approche : l'expertise humaine.

Au fur et à mesure des années passées à travailler sur un procédé, les personnes accumulent de l'expérience et une intuition qui complémente avantageusement l'approche logicielle. Cette expertise humaine est un précieux outil pour évaluer la fiabilité d'un modèle. Car lorsque les données expérimentales ne coïncident pas avec les résultats du modèle, la différence peut être due à un capteur défaillant, une sonde mal étalonnée, une pompe d'alimentation qui dysfonctionne…

Pour trouver d'où vient l'erreur, il faut être capable de donner un sens à tout cela, et seul l'humain est doté de cette capacité de raisonnement. Cela étant dit, l'homme ne peut pas tout. D'où l'intérêt de notre approche qui consiste à combiner trois sources d'informations (la simulation prédictive, les données expérimentales et l'expertise humaine) qui s'auto-alimentent mutuellement.

Dans un procédé de bioproduction, par exemple, la simulation prédictive qui permet de comprendre ce qu'il se passe dans le bioréacteur est un outil précieux pour améliorer la compréhension des experts.

Pensez-vous que votre approche puisse révolutionner la bioproduction ?

E. N. : Nous en sommes convaincus ! Nous sommes persuadés d'avoir trouvé un outil adapté pour répondre aux différents enjeux de la bioproduction. À nous maintenant de montrer l'intérêt de cette approche sur des cas concrets. Nous devons également tout mettre en place pour accompagner au mieux les industriels qui souhaiteraient adopter notre démarche.

Au départ, nous avions pour ambition de donner accès à ces outils au plus grand nombre d'ingénieurs. Mais nous nous sommes rendus compte que la phase de calibration du modèle reste un travail d'experts. C'est pourquoi nous avons développé une méthodologie de calibration du modèle, et nous proposons des offres supports adaptées pour les accompagner. La révolution se fera, mais peut-être plus lentement que ce que nous avions espéré.

Réduire le temps de développement d'un procédé avec GSK

Classe prometteuse de produits pharmaceutiques, les oligonucléotides sont généralement produits par synthèse en phase solide, puis purifiés par chromatographie par échange d'ions ou en phase inverse. Dans des travaux publiés en avril 2024 en collaboration GSK, AstraZeneca et Johnson & Jonhson, Ypso-Facto a développé un modèle mécanistique de pointe pour décrire la purification de ces molécules d'intérêt par chromatographie d'échange d'ions.

Ypso Facto - Oligonucleotides

Rendu d’une simulation de purification d’oligonucléotides dans Ypso-Ionic (système multi-column).

 

Le modèle est basé sur la description thermodynamique de grosses molécules chargées, qui comprend à la fois la chimie de la solution et le mécanisme d'échange d'ions avec le milieu chromatographique. Il permet ainsi de prédire avec précision la rétention des molécules en fonction de leur longueur de séquence, de leur état de charge et de leur force d'interaction avec la résine. Grâce à une description des phénomènes physiques et chimiques sous-jacents, le modèle possède également des capacités hautement prédictives en dehors des plages de paramètres étudiées expérimentalement.

Sur le développement d'un procédé par GSK, l'utilisation du modèle a permis de réduire de 75 % le nombre d'expériences à réaliser par rapport à une approche classique de design of experiment. « Nous avons également acquis une compréhension approfondie du processus, de la résolution de problèmes, de l'espace de conception associé, l'identification des tendances, et la préconception de la chromatographie multicolonne », souligne Chris McKayPrincipal Process Engineer chez GSK.

 

Économiser des ressources avec PolyPeptide

Deux à trois tonnes de solvants sont nécessaires pour produire un kilogramme de peptides.

Les chiffres parlent d'eux-mêmes : pour répondre aux enjeux environnementaux actuels, les chimistes doivent réduire cette consommation. Le groupe Polypeptide est allé chercher une solution auprès de l'entreprise Ypso-Facto. Les deux partenaires ont développé un outil de simulation qui combine un modèle de réaction, un modèle de transfert de masse et des modèles d'adsorption qui décrivent la distribution des espèces entre les phases liquide et solide, et son influence sur les différentes vitesses de réaction.

Simulation de procedes - Ypso Facto

Exploration par simulation du "design space" d'un procédé chromatographique.

 

Cela permet de simuler les étapes successives de déprotection, lavage, activation des acides aminés, couplage sur la résine et acétylation. Les évolutions de concentrations des espèces en fonction du temps en phase liquide et phase solide sont calculées et peuvent être comparées aux données expérimentales.

Il est ainsi possible de déterminer les meilleures conditions pour minimiser les impuretés critiques tout en conservant une conversion maximale de la résine. L'outil permet d'identifier des conditions de travail pour lesquelles la consommation de solvants lors des étapes de lavage est réduite par rapport aux pratiques courantes.

« Au cours de notre coopération avec Ypso-Facto, nous avons réussi à réduire de 57 % l'utilisation de solvants pour le lavage des résines », explique Olivier Ludemann-Hombourger, Directeur Global-Innovation & Technologie chez PolyPeptide Laboratories.

 

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.