Duke AI Health: construcción de mejores barreras para la medicina algorítmica

Fecha de publicación:

En los últimos años se ha observado un interés creciente en el uso de herramientas de inteligencia artificial para aplicaciones sanitarias, incluidos el diagnóstico, la predicción de riesgos, el apoyo a las decisiones clínicas y la gestión de recursos. Capaces de encontrar patrones ocultos dentro de las enormes cantidades de datos que residen en los registros médicos electrónicos (EHR) de los pacientes y en las bases de datos administrativas, estas herramientas algorítmicas se están difundiendo por todo el mundo de la atención al paciente. A menudo, las aplicaciones de IA en salud van acompañadas de garantías de su potencial para hacer que la práctica médica sea mejor, más segura y más justa.

La realidad, sin embargo, ha resultado ser más compleja.

"La IA para la atención sanitaria está atravesando una especie de período del 'Salvaje Oeste'", afirma el director de salud de IA de Duke y vicedecano de ciencia de datos, Michael Pencina, PhD. "Muchos hospitales y sistemas de salud se han ido por su cuenta y han construido o comprado sistemas y los están ejecutando con sus propios datos, a veces con poca supervisión".

El entusiasmo por aplicar herramientas de IA a algunos de los problemas más desconcertantes de la atención sanitaria está ayudando a impulsar la adopción de tecnologías que, hasta hace relativamente poco tiempo, no habían pasado por el tipo de escrutinio riguroso que se aplica habitualmente a los medicamentos y dispositivos médicos. Y para un número cada vez mayor de profesionales y sistemas de salud, aumenta la preocupación de que algunas de estas herramientas, muchas de las cuales están diseñadas como “caja negra” inescrutable sistemas – podrían no estar funcionando como deberían.

Estas preocupaciones recientemente adquirieron una mayor conciencia pública cuando investigadores de la Universidad de Michigan investigó el rendimiento de una herramienta algorítmica diseñado para alertar al personal clínico sobre la posible presencia de sepsis, una afección médica grave. Los investigadores se dieron cuenta de que la herramienta estaba funcionando peor de lo esperado en el mundo real de la atención al paciente, señalando casos inexistentes de sepsis y omitiendo casos reales. Impulsados por este y otros ejemplos de algoritmos erróneos, los expertos están cada vez más preocupados por la posibilidad de que el mal funcionamiento de las herramientas de IA comprometa la calidad y la seguridad o refuerce las desigualdades existentes.

La necesidad de una supervisión algorítmica

Aunque existen numerosas razones por las que el rendimiento de un sistema de IA puede disminuir, muchas se remontan a decisiones tomadas durante la fase de diseño del sistema y, lo que es más importante, a las diferencias entre los datos utilizados para entrenar el sistema y los tipos de datos que utiliza. encuentros una vez aplicado en la clínica. Por esta razón, las herramientas algorítmicas deben validarse cuidadosamente durante su creación, examinarse de cerca a lo largo de sus ciclos de vida y monitorearse continuamente después de su implementación.

“Ha quedado bastante claro que la situación actual tiene que cambiar”, dice Pencina, quien señala que desde hace algún tiempo se ha estado generando una oleada de interés en establecer mejores prácticas compartidas y enfoques comunes para regular las herramientas de atención médica de IA.

De hecho, en Duke esa preocupación se ha traducido en la creación de un sistema de gobernanza y supervisión de las herramientas de IA. Apodado el Supervisión del soporte de decisiones clínicas basado en algoritmos (ABCDS) Comité y copresidido por Pencina y por el Director de Información de Salud de Duke Health, Eric Poon, MD, ABCDS Oversight representa una colaboración que abarca tanto la Universidad de Duke como el Sistema de Salud de la Universidad de Duke.

"ABCDS Oversight nos permite garantizar que la calidad y la equidad estén integradas en todas las herramientas algorítmicas desarrolladas o utilizadas en Duke Health", dice Poon. “Hemos desarrollado un enfoque que reúne a expertos de todos los dominios relevantes: IA, práctica de especialidad clínica, TI, reglamentación y más. Esos expertos ofrecen aportaciones y orientación en las primeras etapas del desarrollo del modelo. La idea es garantizar que las herramientas demuestren impacto en el objetivo clave de mejorar la forma en que brindamos atención al paciente”.

Contribuyendo al panorama más amplio

Dada la temprana adopción por parte de Duke de enfoques rigurosos para la supervisión algorítmica, no sorprende verlo asumir un papel en un nuevo consorcio nacional, el Coalición para la Salud AI (CHAI), es decir, convocar a expertos del mundo académico, la industria y las agencias reguladoras para debatir cuestiones urgentes relacionadas con el uso ético y equitativo de las herramientas de IA para la salud y la asistencia sanitaria. La principal de ellas es la necesidad de armonizar múltiples recomendaciones en competencia para los estándares de presentación de informes y garantizar que la justicia y la equidad se integren en los sistemas de IA en salud desde cero.

Estas son consideraciones de vital importancia, porque los usuarios finales, los pacientes y los consumidores podrían no confiar en los sistemas de IA si no se comprenden claramente los estándares y directrices compartidos o, peor aún, si faltan por completo. La transparencia y la confiabilidad son clave para garantizar que las prácticas de IA en salud se puedan aplicar de manera efectiva para mejorar la atención a los pacientes y comunidades desatendidos y subrepresentados que son los más afectados por la inequidad.

“Es inspirador ver a la comunidad de IA y ciencia de datos unirse para armonizar estándares e informes para una IA de salud de alta calidad, justa y confiable. Para evaluar estos sistemas de IA y aumentar su credibilidad, expertos de sistemas de salud académicos, organizaciones de atención médica y socios de la industria también están conectando los puntos entre los científicos de datos, los formuladores de políticas y la comunidad más amplia de quienes desarrollan y utilizan la IA en la atención médica”, dice ABCDS Oversight. Directora Nicoleta J. Economou-Zavlanos, PhD, quien también codirige los esfuerzos de CHAI. “También nos estamos beneficiando de los conocimientos de quienes se ven directamente afectados por estas tecnologías de IA. CHAI se compromete a brindar a todas las partes interesadas un asiento en la mesa y una voz en el debate sobre cómo gobernar estas herramientas increíblemente poderosas”.

La Coalición por la Salud AI busca crear “directrices y barandillas”que permitirá el desarrollo de sistemas de IA en salud que sean “creíbles, justos y transparentes”. Un primer paso hacia este objetivo es un marco al que se llegue a través de la discusión y el consenso entre socios y partes interesadas, incluidos los usuarios finales y los pacientes. El marco definirá preceptos, estándares y criterios clave que utilizarán quienes desarrollen, implementen y utilicen sistemas de inteligencia artificial en la atención médica para monitorear y evaluar su desempeño a lo largo del ciclo de vida de una aplicación determinada.

Uno de los objetivos inmediatos de CHAI es establecer estándares que darán como resultado sistemas de inteligencia artificial para la salud que puedan impulsar una atención de alta calidad, aumentar la credibilidad entre los usuarios y satisfacer las necesidades de atención médica. Siguiendo un anuncio inicial de la formación y la intención del grupo, CHAI ha pasado los últimos meses convocar una serie de reuniones virtuales, se centró en los temas de capacidad de prueba, usabilidad, seguridad, transparencia, confiabilidad y monitoreo para explorar diferentes áreas de interés en la IA sanitaria a través de casos de uso ilustrativos.

Estas reuniones culminaron en una reunión híbrida presencial/virtual (con el apoyo de la Asociación sobre IA y financiación de la Fundación Gordon y Betty Moore) que sentó las bases para la creación de un conjunto de directrices y recomendaciones. Cada reunión ha estado acompañada de un papel de “lectura” capturar presentaciones y debates de reuniones. Más recientemente, la Coalición ha publicado un Borrador de plan para una guía y garantía de implementación confiable de IA para la atención médica y es Solicitar comentarios y retroalimentación del público..

"Lo realmente emocionante de CHAI es que representa una oportunidad para que las partes interesadas se reúnan y generen consenso en torno a un marco que garantice que la IA se utilice de maneras que sean realmente beneficiosas en todos los niveles", dice el director asociado de Duke AI Health, Andrew Olson, MPP. .

en un publicación de blog compartida recientemente en el sitio web de CHAI, el copresidente Michael Pencina subrayó el "fuerte compromiso de la Coalición para hacer de la equidad la piedra angular del marco ético que estamos tratando de construir para la IA en la atención médica". Pencina señaló además que la capacidad de interactuar significativamente con todas las partes interesadas afectadas por la IA sanitaria era esencial para fomentar la confianza en dichas herramientas.

Además de Duke AI Health, la creciente lista de socios de CHAI incluye la Universidad de Stanford, UC San Francisco, la Universidad Johns Hopkins, UC Berkeley, Mayo Clinic, MITRE Health, Change Healthcare, Microsoft Corporation, SAS y Google, entre otros. En las recientes reuniones de CHAI también estuvieron presentes observadores de la Administración de Alimentos y Medicamentos de EE. UU., que ejerce la supervisión regulatoria de las aplicaciones de IA sanitaria que cumplen ciertos criterios, y de los Institutos Nacionales de Salud y la Oficina del Coordinador Nacional de Tecnología de la Información Sanitaria.

A medida que continúa el trabajo de CHAI y sus socios, también se están llevando a cabo esfuerzos complementarios a nivel federal, con la publicación por parte de la FDA de un orientación final sobre software de apoyo a la decisión clínica y un Anteproyecto para una Declaración de Derechos de la IA publicado por la Oficina de Política Científica y Tecnológica de la Casa Blanca.

“Estamos en un momento realmente emocionante en la IA sanitaria. Existe un enorme potencial para que todos (pacientes, médicos y sistemas de salud) se beneficien de estas capacidades”, señala Pencina. "Pero", añade, "necesitamos asegurarnos de que todos puedan compartir esos beneficios, y la clave para hacerlo es garantizar que las herramientas que creamos brinden mejoras significativas para la atención al paciente".

Fuente del artículo original: Salud de la IA de Duke