Duke AI Health : Construire de meilleurs garde-fous pour la médecine algorithmique
Date publiée:Ces dernières années, l’utilisation des outils d’intelligence artificielle pour les applications de soins de santé, notamment le diagnostic, la prédiction des risques, l’aide à la décision clinique et la gestion des ressources, a suscité un intérêt croissant. Capables de découvrir des modèles cachés dans les énormes quantités de données résidant dans les dossiers de santé électroniques (DSE) des patients et les bases de données administratives, ces outils algorithmiques se diffusent dans le monde des soins aux patients. Souvent, les applications de l’IA en santé s’accompagnent de garanties quant à leur potentiel à rendre la pratique médicale meilleure, plus sûre et plus équitable.
La réalité s’avère cependant plus complexe.
« L'IA pour les soins de santé traverse une sorte de période de « Far West » », déclare Michael Pencina, PhD, directeur de Duke AI Health et vice-doyen pour la science des données. « De nombreux hôpitaux et systèmes de santé se sont lancés seuls, ont construit ou acheté des systèmes et les exploitent sur leurs propres données, parfois avec peu de surveillance. »
L'enthousiasme suscité par l'application des outils d'IA à certains des problèmes les plus épineux des soins de santé contribue à favoriser l'adoption de technologies qui, jusqu'à relativement récemment, n'avaient pas fait l'objet d'un examen aussi rigoureux que celui habituellement appliqué aux médicaments et aux dispositifs médicaux. Et pour un nombre croissant de praticiens et de systèmes de santé, les inquiétudes grandissent quant au fait que certains de ces outils – dont beaucoup sont conçus comme une « boîte noire » impénétrable systèmes – pourraient ne pas fonctionner comme ils le devraient.
Ces préoccupations ont récemment pris conscience du grand public lorsque des chercheurs de l'Université du Michigan étudié les performances d'un outil algorithmique conçu pour alerter le personnel clinique de la présence possible d’un sepsis, une condition médicale grave. Les chercheurs ont réalisé que l’outil fonctionnait moins bien que prévu dans le monde réel des soins aux patients, signalant des cas de sepsis inexistants et manquant des cas réels. Poussés par cet exemple et d’autres exemples d’algorithmes erronés, les experts sont de plus en plus préoccupés par le risque de dysfonctionnement des outils d’IA qui compromettent la qualité et la sécurité ou renforcent les inégalités existantes.
La nécessité d’une surveillance algorithmique
Bien qu'il existe de nombreuses raisons pour lesquelles les performances d'un système d'IA peuvent diminuer, nombre d'entre elles peuvent être attribuées aux décisions prises lors de la phase de conception du système et, plus important encore, aux différences entre les données utilisées pour entraîner le système et les types de données utilisées par le système. rencontres une fois appliqué en clinique. Pour cette raison, les outils algorithmiques doivent être soigneusement validés lors de leur création, examinés de près tout au long de leur cycle de vie et surveillés en permanence après leur déploiement.
« Il est devenu tout à fait clair que la situation actuelle doit changer », déclare Pencina, qui note qu'une vague d'intérêt pour l'établissement de meilleures pratiques partagées et d'approches communes pour réglementer les outils de santé par l'IA se développe depuis un certain temps.
En effet, chez Duke, cette préoccupation s’est traduite par la création d’un système de gouvernance et de surveillance des outils d’IA. Surnommé le Supervision de l’aide à la décision clinique basée sur des algorithmes (ABCDS) Comité et coprésidé par Pencina et par Eric Poon, MD, directeur de l'information sur la santé de Duke Health, ABCDS Oversight représente une collaboration enjambant à la fois l'Université Duke et le système de santé de l'Université Duke.
« La surveillance ABCDS nous permet de garantir que la qualité et l'équité sont intégrées à tous les outils algorithmiques développés ou utilisés chez Duke Health », explique Poon. « Nous avons développé une approche qui rassemble des experts de tous les domaines pertinents : IA, pratique clinique spécialisée, informatique, réglementation, etc. Ces experts offrent leur contribution et leurs conseils dès les premières étapes du développement du modèle. L’idée est de garantir que les outils démontrent leur impact sur l’objectif clé consistant à améliorer la façon dont nous prodiguons les soins aux patients.
Contribuer à une vision d’ensemble
Compte tenu de l'adoption précoce par Duke d'approches rigoureuses en matière de surveillance algorithmique, il n'est pas surprenant de le voir jouer un rôle dans un nouveau consortium national, le Coalition pour l'IA en santé (CHAI), qui rassemble des experts du monde universitaire, de l'industrie et des agences de réglementation pour discuter des questions urgentes liées à l'utilisation éthique et équitable des outils d'IA pour la santé et les soins de santé. Les principaux enjeux sont la nécessité d’harmoniser plusieurs recommandations concurrentes en matière de normes de reporting et de garantir que la justice et l’équité soient intégrées dès le départ aux systèmes d’IA en santé.
Il s’agit de considérations d’une importance cruciale, car les utilisateurs finaux, les patients et les consommateurs pourraient ne pas faire confiance aux systèmes d’IA si les normes et directives communes ne sont pas clairement comprises – ou pire, si elles sont totalement absentes. La transparence et la fiabilité sont essentielles pour garantir que les pratiques d’IA en santé peuvent être appliquées efficacement pour améliorer les soins prodigués aux patients et aux communautés mal desservis et sous-représentés qui sont les plus touchés par les inégalités.
« Il est inspirant de voir la communauté de l'IA et de la science des données se réunir pour harmoniser les normes et les rapports pour une IA en santé de haute qualité, équitable et digne de confiance. Pour évaluer ces systèmes d'IA et accroître leur crédibilité, des experts des systèmes de santé universitaires, des organisations de soins de santé et des partenaires industriels relient également les points entre les scientifiques des données, les décideurs politiques et la communauté plus large de ceux qui développent et utilisent l'IA dans les soins de santé », déclare ABCDS Oversight. La directrice Nicoleta J. Economou-Zavlanos, PhD, qui codirige également les efforts de CHAI. « Nous bénéficions également des connaissances de ceux qui sont directement touchés par ces technologies d'IA. CHAI s’engage à donner à toutes les parties prenantes une place à la table et une voix dans le débat sur la manière de gouverner ces outils incroyablement puissants.
La Coalition for Health AI cherche à créer «lignes directrices et garde-fous» qui permettra le développement de systèmes d’IA en santé « crédibles, équitables et transparents ». Une première étape vers cet objectif est un cadre, obtenu grâce à des discussions et un consensus entre les partenaires et les parties prenantes, y compris les utilisateurs finaux et les patients. Le cadre définira les préceptes, normes et critères clés qui seront utilisés par ceux qui développent, déploient et utilisent des systèmes d'IA dans le domaine de la santé pour surveiller et évaluer leurs performances tout au long du cycle de vie d'une application donnée.
L’un des objectifs immédiats de CHAI est d’établir des normes qui donneront lieu à des systèmes d’IA en santé capables de fournir des soins de haute qualité, d’accroître la crédibilité auprès des utilisateurs et de répondre aux besoins en matière de soins de santé. Suite à un annonce initiale de la formation et de l'intention du groupe, CHAI a passé les derniers mois convoquer une série de réunions virtuelles, axé sur les thèmes de la testabilité, de l'utilisabilité, de la sécurité, de la transparence, de la fiabilité et du suivi pour explorer différents domaines d'intérêt de l'IA en santé à travers des cas d'utilisation illustratifs.
Ces réunions ont abouti à une réunion hybride en personne/virtuelle (avec le soutien du Partenariat sur l'IA et le financement de la Fondation Gordon et Betty Moore) qui a préparé le terrain pour la création d'un ensemble de lignes directrices et de recommandations. Chaque réunion a été accompagnée d'un papier de « lecture » capturer les présentations et les discussions des réunions. Plus récemment, la Coalition a publié un Projet de modèle pour des conseils et une assurance de mise en œuvre d'une IA digne de confiance pour les soins de santé et est solliciter des commentaires et des réactions du public.
"Ce qui est vraiment passionnant avec CHAI, c'est qu'il représente une opportunité pour les parties prenantes de se réunir et de construire un consensus autour d'un cadre qui garantira que l'IA soit utilisée de manière réellement bénéfique à tous les niveaux", déclare Andrew Olson, député provincial de Duke AI Health. .
Dans un article de blog récemment partagé sur le site CHAI, le coprésident Michael Pencina a souligné le « ferme engagement de la Coalition à faire de l'équité la pierre angulaire du cadre éthique que nous essayons de construire pour l'IA dans les soins de santé ». Pencina a en outre noté que la capacité de dialoguer de manière significative avec toutes les parties prenantes touchées par l’IA en santé était essentielle pour renforcer la confiance dans ces outils.
Outre Duke AI Health, la liste croissante de partenaires de CHAI comprend l'Université de Stanford, l'UC San Francisco, l'Université Johns Hopkins, l'UC Berkeley, la Mayo Clinic, MITRE Health, Change Healthcare, Microsoft Corporation, SAS et Google, entre autres. Des observateurs de la Food and Drug Administration des États-Unis, qui exerce une surveillance réglementaire des applications d’IA en santé qui répondent à certains critères, ainsi que des National Institutes of Health et du Bureau du coordonnateur national des technologies de l’information sur la santé, étaient également présents aux récentes réunions de la CHAI.
Alors que le travail du CHAI et de ses partenaires se poursuit, des efforts complémentaires sont également en cours au niveau fédéral, avec la publication par la FDA d'un conseils finaux concernant les logiciels d'aide à la décision clinique et un Plan pour une déclaration des droits de l’IA publié par le Bureau de la politique scientifique et technologique de la Maison Blanche.
« Nous vivons un moment véritablement passionnant dans le domaine de l’IA en santé. Il existe un énorme potentiel pour que chacun – patients, cliniciens et systèmes de santé – puisse bénéficier de ces capacités », note Pencina. « Mais », ajoute-t-il, « nous devons nous assurer que chacun puisse bénéficier de ces avantages, et la clé pour y parvenir est de garantir que les outils que nous créons apportent des améliorations significatives aux soins aux patients. »
Source originale de l’article : Santé de Duke AI