Newsroom

Pharmas et Big Data : les défis des « preuves en vie réelle »

Compte-rendu du séminaire industriel data science des Mastères Spécialisés Big Data et IA de Télécom Paris du jeudi 4 mars 2021 avec Claire Brullé Wohlhueter (Sanofi) et Bernard Hamelin (consultant pour Sanofi).

Créé en France en 1973, Sanofi est aujourd’hui un leader de la santé en France et dans le monde, implanté dans une centaine de pays, intervenant dans le domaine de la santé, notamment au travers de la mise au point de médicaments (diabète, maladies rares, oncologie, pharmacologie grand public) et de vaccins (voir l’actualité liée à la Covid-19).

L’entreprise emploie plus de 100 000 personnes dont un quart en France, et réalise un chiffre d’affaire d’environ 35 milliards d’euros. Elle ambitionne de développer son activité liée à la prévention en matière de santé, notamment dans le domaine de la thérapie génique.

La preuve (d’efficacité) en vie réelle

De façon traditionnelle, mais également du fait des exigences des autorités régulatrices du secteur, la mise au point de traitements et de vaccins suit un processus strict de collecte et d’analyse de données destiné à s’assurer de façon fiable de l’efficacité des produits développés. Cette garantie est notamment apportée par l’approche statistique classique (essais randomisés, tests d’hypothèses, intervalles de confiance, etc.). Les données utilisées sont structurées et collectées au fil des différentes phases de tests cliniques, mais une fois le médicament mis sur le marché, il peut être intéressant de suivre l’efficacité des traitements dans la vie réelle, en dehors des conditions maîtrisées des essais cliniques.

A cette fin, la collecte et l’analyse de données liées à l’utilisation, l’efficacité, où les effets liés à un médicament (ou vaccin) mis sur le marché sont devenues un enjeu fort pour augmenter l’efficacité des produits, réduire les effets secondaires constatés, personnaliser les traitements et, in fine, baisser le coût des soins pour la collectivité. Ces données peuvent être structurées (ex. analyses des laboratoires) ou non (ex. annotations libres dans les dossiers médicaux, billets de blogs, etc.) et peuvent potentiellement représenter un volume très important. Sanofi estime en effet que les données issues des tests conduits avant mise sur le marché ne représentent que 1% des données potentiellement utiles à l’analyse.

Pour tirer parti de ces informations, Sanofi a développé une série d’outils associant base de connaissances, machine learning et deep learning. Ces outils mettent par exemple en lumière des « patterns » dans le parcours de soin des patients, permettant ainsi de mieux comprendre les évènements conduisant à la prise de tel ou tel traitement ; mais également d’analyser les interactions possibles entre traitements, ou entre un traitement et une situation particulière (ex. bilan sanguin). Ils peuvent aussi, à l’échelle d’un patient, proposer plusieurs traitements personnalisés, avec mise en lumière de plusieurs critères permettant à ce dernier de choisir le plus adapté (efficacité escomptée, risques d’effets secondaires, coût, etc.). Enfin, le partenariat avec la société Doctor Evidence a permis la réalisation d’une solution de suivi en temps réel des publications liées à la Covid-19 afin d’identifier et de découvrir des preuves à analyser.

Pour conclure, Sanofi n’a pas pour but de remplacer les essais cliniques classiques par des méthodes de machine learning mais plutôt de venir renforcer et compléter les résultats de ces essais en analysant les données issues de la vie réelle. Le volume de ces données étant beaucoup plus important que celui des données cliniques, l’utilisation de méthodes d’apprentissage automatique est ainsi aujourd’hui essentielle pour Sanofi.

Compte-rendu rédigé par David Carteau, Jordan Van Eetveldt et Hippolyte Henry, étudiants du Mastère Spécialisé Intelligence Artificielle promotion 2020-2021.

Illustration : photo de pressfoto – Freepik.com