Intelligence artificielle : faut-il en avoir peur ?

Entre les craintes de voir un jour des machines contrôler nos vies et l’espoir d’une médecine davantage prédictive et personnalisée, que faut-il penser de l’essor actuel de l’intelligence artificielle dans le domaine de la santé ? Cédric Villani, mathématicien, député de l’Essonne, et vice-président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, Gilles Wainrib, directeur scientifique de la société Owkin, et Peter Ford Dominey, chercheur en neurosciences computationnelles et robotique à l’institut Cellule souche et cerveau (unité 1208 Inserm) donnent leur opinion.

Un article à retrouver dans Inserm, le magazine n°40

Ce qui fait débat

Des machines autonomes nous contrôleront-elles un jour ? Utiliseront-elles nos données pour nous exclure de la société ou renforcer une élite ? Ces peurs classiques des romans d’anticipation prennent une acuité nouvelle avec l’essor de l’intelligence artificielle. Les machines ont désormais des capacités d’« apprentissage profond » : elles peuvent tirer des points communs ou des règles statistiques d’une immense quantité de données (big data). Elles reconnaissent ainsi une image ou un son, orientent un véhicule ou une personne, identifient un risque militaire – intelligence signifie « renseignement » en anglais. Faut-il s’en inquiéter ? Elles pourraient aussi rendre la médecine plus prédictive et personnalisée : c’est le pari du Plan pour l’intelligence artificielle lancé en mars 2018 par le gouvernement et inspiré par le récent rapport de Cédric Villani qui en démontre l’intérêt national. Les accords public-privé – tel celui de la start-up Owkin avec l’Inserm – mèneront à ces connaissances nouvelles si la confidentialité des données est préservée. Mais les machines pensent-elles lorsqu’elles calculent et sont-elles responsables ? 

L’avis de Cédric Villani

L’intelligence artificielle suscite de multiples craintes. Certaines relèvent à ce jour de la science-fiction, comme la prise de pouvoir des machines sur l’humanité. D’autres sont plus fondées. On s’inquiète ainsi de l’importance donnée aux algorithmes dans l’attribution de bourses scolaires, de crédits bancaires ou encore d’emplois aux États-Unis. 

Il y a donc un travail d’éducation à faire pour défendre la responsabilité humaine, éviter que des algorithmes surestimés ne renforcent des discriminations, et définir le meilleur partage des tâches entre humains et machines. L’intelligence artificielle, enfin, aggravera-t-elle l’impact négatif de l’économie numérique sur l’emploi mondial ou fera-t-elle partie de la solution ? Nous l’ignorons encore. 

Mais, à l’inverse, l’intelligence artificielle devient une des clés de compréhension de notre monde, désormais constitué d’une variété de données par lesquelles nous pouvons avoir prise sur l’avenir. Dans ce contexte, il serait très inquiétant que la France laisse à des acteurs étrangers le soin de lui dicter les solutions et stratégies technologiques dont elle a besoin. 

En recherche médicale, cet enjeu de souveraineté nationale passe par un renforcement des moyens de la recherche publique et des partenariats avec le secteur privé, dont les projets peuvent être d’intérêt public. Il implique aussi un regroupement large et ouvert des bases de données médicales. 

Paradoxalement, les Européens sont à la fois les plus inquiets de ce qui peut advenir de leurs données personnelles et les mieux protégés. Désormais, le non-respect du consentement libre et éclairé est assorti de sanctions majeures. Dans une Europe efficace, démocratique et moderne, ce n’est pas la peur qui donnera du sens à l’intelligence artificielle. 

L’avis de Gilles Wainrib

L’intelligence artificielle est une source d’espoir sans précédent, en particulier dans le domaine de la recherche médicale. L’apprentissage profond, ou deep learning, permet d’analyser de nouveau et de croiser une masse de données hétérogènes déjà accumulée par les laboratoires de recherche médicale et les grandes cohortes que les Investissements d’avenir avaient financées : images d’anatomo-pathologie, coupes tissulaires et cellulaires, données cliniques, biostatistiques, génomiques… 

Notre start-up Owkin va ainsi collaborer avec l’Inserm pour mieux comprendre l’apparition et l’évolution des pathologies, découvrir de nouvelles cibles thérapeutiques ou prévoir les réponses aux traitements, notamment en immunothérapie. Pour préserver au mieux la confidentialité des données, nous développons une approche d’apprentissage « fédéré », qui permet d’entraîner des algorithmes sur des données décentralisées qui ne sortent jamais des sites où elles sont produites. 

On peut en effet installer des machines haute performance dans un site – comme un hôpital – pour qu’elles apprennent à analyser ses données, puis prolonger leur apprentissage dans un second site si le premier n’a pas assez de données. Ainsi, la recherche médicale avance de façon collaborative, pour les patients, et dans le plus strict respect de leurs données personnelles. 

L’avis de Peter Ford Dominey

Dès les années 1950, les principes des neurosciences ont permis de développer des réseaux neuronaux artificiels capables de résoudre des problèmes complexes. Cela a conduit plus récemment, avec la puissance du calcul informatique, à des avancées majeures en apprentissage profond. 

Grâce à l’étude du développement cognitif humain, les algorithmes ont en même temps fait de nouveaux progrès : les robots peuvent apprendre à coopérer avec nous, par exemple pour assembler un meuble. Avec ces modèles robotiques, on peut tester des hypothèses neurologiques et mieux comprendre, notamment, le développement cognitif chez l’enfant ou les fonctions cérébrales impliquées dans le langage. 

Ces études révèlent aussi une autre forme d’intelligence, narrative : cette capacité à comprendre le comportement humain en termes d’histoires est le véhicule de la transmission des valeurs et des normes dans la culture humaine. Elle est absente des systèmes d’intelligence artificielle mais cette recherche émergente, comme celles sur la conscience humaine, pourrait être très fructueuse – par exemple pour améliorer la coopération des machines ou étudier les troubles autistiques. 

Notre période est propice au progrès continu de l’intelligence artificielle, étayé par les neurosciences et les sciences sociales. Il s’agit cependant d’un outil à manier avec précaution. Les algorithmes de négociation automatique ont contribué aux accidents boursiers récemment subis par les États-Unis. 

Tous les niveaux de la société ont une responsabilité : les dirigeants doivent être vigilants, comme avec toute technologie puissante, tel le nucléaire, et les citoyens, chercheurs compris, devraient s’informer sur l’intelligence artificielle et son impact pour influencer son utilisation dans le processus démocratique. Je suis optimiste mais nous devons rester lucides et vigilants.