Santé numérique : quand la recherche monte en puissance

Jumeaux numériques, essais cliniques simulés, plateformes de services, intelligence artificielle... Le temps des grandes accélérations en santé numérique est lancé. 60 millions d’euros ont été alloués à un Programme et équipement prioritaire de recherche (PEPR) dédié à la santé numérique, co-piloté par l’Inserm et l’Institut national de recherche en informatique et en automatique (Inria). Avec, à la clé, un renforcement du leadership français, en particulier dans les domaines cardiovasculaire et neurologique, ainsi que la modélisation des données observationnelles et interventionnelles multimodales, via l’intelligence artificielle

Un article à retrouver dans le Rapport d’activité 2021 de l’Institut

« Le programme de recherche sur la santé et le numérique est une opportunité incroyable pour l’Inserm et Inria de croiser leurs expertises et de monter rapidement en compétences dans les sept années à venir », s’enthousiasme Franck Lethimonnier, directeur de l’institut thématique Technologies pour la santé à l’Inserm. Annoncé à l’automne 2021, ce PEPR, qui s’inscrit dans la stratégie nationale d’investissement France 2030, sera piloté par les deux acteurs de la recherche en santé et numérique en France. « Cela constitue une occasion unique de nous positionner en tant que leaders sur les domaines de recherche dans lesquels nous bénéficions aujourd’hui d’atouts indéniables : le traitement des maladies cardiovasculaires et les pathologies neurologiques. »

L’adhésion des patients et des praticiens, un préalable indispensable

Plus spécifiquement, le plan s’articule autour de quatre volets : deux programmes méthodologiques, qui visent à améliorer la surveillance et la gestion des données hétérogènes, et deux programmes applicatifs – l’un dans le domaine cardiovasculaire et le second en neurologie. Des appels à contributions auprès de la communauté scientifique nationale ont été lancés afin d’identifier des axes de recherche précis, pour initier des projets financés sur trois ou quatre ans, des appels d’offres ou des manifestations d’intérêt.

« Le plan est ambitieux. Pour réussir, nous devons avant tout obtenir l’adhésion des patients et des praticiens à cet effort de recherche sans précédent en santé numérique, qui implique notamment l’exploitation de données personnelles de santé, c’est-à-dire des données sensibles », explique Lotfi Senhadji, directeur du Laboratoire de traitement du signal et de l’image de l’université de Rennes 1 et référent Inserm du programme. D’un côté, il s’agit d’informer les contributeurs de la finalité des recherches (préalablement définie avec les praticiens), des méthodes d’exploitation des données qui seront mises en œuvre, et du devenir de ces données. De l’autre, l’enjeu consiste à fournir les garanties incontournables sur la sécurisation des flux de données, l’intégrité de celles-ci et la traçabilité des actions déployées en se conformant strictement à la réglementation en vigueur. Pour Franck Lethimonnier, ce programme arrive à point nommé.

La santé numérique bénéficie à la fois de l’essor des technologies numériques et d’une accumulation massive de données collectées par les praticiens via le Système national des données de santé, les cohortes, les objets connectés et les réseaux sociaux.

🔎 Pour en savoir plus sur les Big data en santé, consulter notre dossier

Différentes échelles spatiales et temporelles à observer

« Quelle que soit la technologie que l’on porte, qu’elle soit biologique, fondamentale ou biomédicale, il existe déjà une vaste panoplie d’outils capables de capter de l’information numérique et des banques de données disponibles à toutes les échelles. »

C’est-à-dire de l’échelle spatiale la plus basse, celle de l’ADN, puis de la cellule, de l’organe, jusqu’à l’échelle spatiale la plus haute : le suivi de populations. Mais il s’agit également de prendre en compte des échelles de temps différentes. De l’ordre de quelques millisecondes, dans le cas de la dépolarisation d’un neurone excité ou des battements d’un cœur, au suivi des patients malades ou sains sur 10, 20 ou 30 ans.

Reste à développer des outils technologiques qui auront la capacité d’observer ces différentes échelles simultanément, et avec la vitesse et la cadence dont bénéficient les outils d’échographie actuels. L’objectif ? Appréhender des évolutions physiques, physiologiques ou comportementales, dans une logique de diagnostic et de prévention.

« Pour reprendre une métaphore bien connue, nous avons pour ambition, grâce à ce programme prioritaire de recherche, de passer de l’ère de la météorologie, locale, à celle de la climatologie, globale », confie Franck Lethimonnier.

Traduire des modèles numériques en biomarqueurs

La solution viendra probablement de la combinaison d’outils d’intelligence artificielle, qui permettront d’élaborer des modèles de connaissances multi-échelles. C’est là qu’entrent en jeu les méthodes d’apprentissage de l’intelligence artificielle, comme le machine learning, dans lequel des algorithmes absorbent des ensembles de données massives à partir d’hypothèses, pour apprendre à reconnaître les signes cliniques d’une maladie par exemple ; ou le deep learning – l’apprentissage profond –, où les algorithmes travaillent sur des situations non résolues pour identifier de nouvelles relations de cause à effet. Ces modèles numériques seront ensuite traduits en biomarqueurs et en outils d’aide au diagnostic et à la décision en temps réel, dans le cadre du choix d’un parcours de soins, ou pendant un acte chirurgical.

Première étape : qualifier et améliorer la qualité des données collectées. « Un nombre important de données collectées, environ 80 % dans les dossiers patients, sont non structurées et transmises sous forme de comptes rendus textuels, précise Marie-Christine Jaulent, directrice du Laboratoire d’informatique médicale et d’ingénierie des connaissances en e‑santé (Limics) à l’Inserm. Or, ces textes ne sont pas directement exploitables par des algorithmes et nécessitent un codage sémantique des informations pertinentes présentes dans le texte. »

La standardisation pour favoriser l’interopérabilité des bases de données

Un effort de standardisation de ces codes a ainsi été engagé depuis de nombreuses années au niveau national et international. Il a abouti à la création de modèles pour les données structurées (on peut citer le standard FHIR pour Fast healthcare interoperability resources, ou le modèle OMOP pour Observational medical outcomes partnership) et des terminologies et ontologies permettant de décrire le sens des codes que l’on associe aux données. Cette étape de standardisation est essentielle au partage et à la réutilisation des données pour la recherche. Elle permet l’interopérabilité entre les différentes bases de données, ce qui conduit in fine à de nouvelles découvertes, grâce aux algorithmes d’intelligence artificielle.

Des modèles de traitement automatique des langues sont développés en France pour valoriser au mieux les données déjà collectées. Par exemple, le projet Epifractal, porté par l’AP-HP en partenariat avec l’Inserm, via le Limics, combine les données pseudo-anonymisées de l’entrepôt de données de l’AP-HP des patients atteints d’ostéoporose – âge, sexe, date de la fracture, antécédents de fracture notamment – et de l’Assurance maladie pour évaluer le taux de survenue de nouvelles fractures de faibles traumatismes. Ce projet a permis le développement d’un algorithme d’apprentissage, capable de repérer automatiquement des éléments significatifs dans les comptes rendus des urgences et d’orthopédie. Le praticien bénéficie ainsi d’un outil d’assistance au diagnostic rapide et fiable.

D’autres projets de traitement automatique des textes concernent le suivi des populations. Par exemple, à des fins de prévention des risques suicidaires chez les jeunes, ou de surveillance des mésusages des médicaments et de l’apparition d’effets indésirables – à travers l’observation fine des échanges sur les réseaux sociaux. Téléexpertise et télémédecine, une nouvelle donne pour le parcours de soins

Enfin, une révolution dans le parcours de soins point à l’horizon. Avec l’essor de la téléexpertise, qui permet aux patients d’être suivis depuis chez eux via l’usage d’équipements connectés capables de générer des alertes sur des niveaux de risques particuliers. Ou celui de la télémédecine, pour un accès direct à un médecin depuis une plateforme de services. Avec une réserve éthique évidente : l’inégalité de l’accès au soin entre les patients des villes et ceux des régions reculées, ou même entre les praticiens qui disposent des dernières technologies et ceux qui n’y ont pas été formés ou n’en disposent pas. Des discussions sont en cours au sein du Comité d’éthique de l’Inserm, sur ces questions, et bien d’autres.


Des jumeaux numériques pour anticiper les risques ?

Les représentations virtuelles multi-échelles du fonctionnement du corps humain pourraient ouvrir la voie à la création de modèles numériques sur mesure, ou jumeaux numériques, qui combineront plusieurs fonctions dont les praticiens pourront faire varier les paramètres. Les applications en santé sont, en théorie, nombreuses. Ces jumeaux permettraient, par exemple, d’ajuster les réglages d’un stimulateur cardiaque aux données du patient avant son implantation in vivo. « On peut imaginer un modèle numérique du cœur, complété par des simulations qui traduisent les mécanismes autonomiques de régulation de la fonction cardiaque, ou du système circulatoire. Le jumeau numérique ainsi obtenu serait alors couplé à un jumeau numérique du stimulateur cardiaque afin d’en affiner les réglages virtuellement, explique Lotfi Senhadji. Nous pourrions alors observer les réponses du coeur virtuel et corriger les paramètres du stimulateur cardiaque en amont, pour minimiser les ajustements qui devront être réalisés sur le patient après implantation. » Dans le domaine de la pharmacovigilance, des tests de toxicité du principe actif d’un médicament pourraient également être conduits sur des jumeaux numériques à différents dosages ; pour identifier les limites à ne pas dépasser pour un produit ou une combinaison de produits, par exemple. Le but ? Concentrer les tests in vivo sur des dosages « intermédiaires », et limiter le recours à l’expérimentation animale dans le cadre d’essais précliniques.


À lire aussi

Data Tron par Shervinafshar CC-BY-SA 3.0 via Wikimedia Commons