Alors que ChatGPT et ses multiples possibilités agitent l’actualité, l’Organisation mondiale de la santé (OMS) appelle à la prudence. Tout en reconnaissant les avantages liés à l’utilisation de l’IA dans le domaine de la santé, y compris de ces grands modèles de langages (large language model, LLM), comme ChatGPT, qui « imitent la compréhension, le traitement et la production de communications humaines », cette dernière met en garde quant à l’adoption précipitée de ces outils qui sont encore en phase d’expérimentation. Dans un communiqué du 16 mai, cette dernière rappelle que des garde-fous sont nécessaires pour assurer « une utilisation sûre et responsable de l’intelligence artificielle dans le domaine de la santé ».
Le respect de « valeurs clés » pour une IA éthique
L’OMS ne cache pas son enthousiasme face à l’utilisation expérimentale de ces outils pour répondre aux besoins de santé des populations. Elle préconise cependant une « utilisation appropriée des technologies » « pour aider les professionnels de la santé, les patients, les chercheurs et les scientifiques ». Elle revendique le respect de « valeurs clés » qui sont la transparence, l’inclusion, la participation du public, la supervision par des experts et l’évaluation rigoureuse.
Des dangers identifiés
L’OMS pointe également les risques liés à une IA non testée, estimant « préoccupant » « que le principe de précaution exercé habituellement à toute nouvelle technologie ne s’applique pas de manière systématique dans le cas des grands modèles de langage ». Le risque de données biaisées voire incorrectes existe et apparaît selon elle particulièrement dangereux notamment dans le domaine de la santé. À l’heure de la désinformation, l’Organisation redoute également que ces outils, utilisées de façon malveillante, puissent créer et diffuser de fausses informations « très convaincantes sous forme de contenu textuel, audio et vidéo ».
En outre, elle assure que la protection des données sources n’est pas pour l’heure garantie.
L’adoption précipitée des LLM, « pourrait entraîner des erreurs de la part des personnels de santé, nuire aux patients, saper la confiance dans l’intelligence artificielle et ainsi compromettre (ou retarder) les avantages et les utilisations potentiels à long terme de ces technologies dans le monde entier », signale l’Organisation mondiale.
Surveiller pour protéger les patients
Une « surveillance rigoureuse » est alors nécessaire pour que les technologies soient utilisées de manière « sûre, efficace et responsable ».
Tout en s’engageant à exploiter les nouvelles technologies, y compris l’IA et la santé numérique en vue d’améliorer la santé humaine, l’OMS recommande aux responsables de l’élaboration des politiques « d’assurer la sécurité et la protection des patients pendant que les entreprises spécialisées dans les technologies s’emploient à commercialiser les grands modèles de langage ».
À travers cette communication, l’OMS réaffirme ainsi « combien il est important d’appliquer les principes d’éthique et d’assurer une gouvernance appropriée, tels qu’énoncés dans le document intitulé : WHO guidance on the ethics and governance of AI for health (en anglais), dans le cadre de la conception, de l’élaboration et de l’introduction de l’IA pour la santé. ».