Numéro 598 - septembre 2020dossier

sécurité

Pour une IA de confiance en santé

Les enjeux éthiques des intelligences artificielles sont aujourd’hui âprement discutés à l’échelle internationale : au sein de l’Organisation mondiale de la santé(1), à l’Unesco(2), à la Commission européenne(3), dans le monde des technologies et dans celui des sciences humaines et sociales. Ce travail international se traduit en France par l’adoption d’une initiative législative au sein du projet de loi bioéthique (art. 11), inspirée par un rapport du Comité consultatif national d’éthique, visant à établir le principe d’une garantie humaine des intelligences artificielles. L’auteur propose ici des axes opérationnels pour avancer effectivement vers une IA de confiance en santé.

Dans les travaux sur les enjeux éthiques, la notion d’intelligence artificielle se prête mal à une définition unique. Elle gagne à être déclinée au pluriel  tant elle correspond à des réalités mathématiques potentiellement différentes(4) et à des risques potentiellement divers. L’environnement juridique dans lequel se situent les IA est lui-même divers : certaines IA sont des éléments d’aide à la décision intégrés à des dispositifs médicaux (DM), d’autres se situent en dehors de ce cadre juridique, le seul moyen pourtant de faire reconnaître la valeur santé d’une solution digitale. Conjuguer l’IA au pluriel De plus en plus d’études ont montré que les intelligences artificielles ont un potentiel considérable pour transformer la santé. Il est frappant de constater que ces études peuvent se situer dans un cadre correspondant aux critères habituels de l’evidence based medicine (EBM), mais ce n’est pas systématique. On peut notamment remarquer que les IA qui améliorent les capacités diagnostiques, en utilisant notamment l’analyse d’images, obéissent à des critères compatibles avec les critères de l’EBM. Elles concernent ...

Vous pouvez lire la suite en vous identifiant ou en créant votre profil si vous ne l’avez pas encore fait.