Duke AI Health: Parempien suojakaiteiden rakentaminen algoritmiselle lääketieteelle

Julkaisupäivä:

Viime vuosina kiinnostus tekoälytyökalujen käyttöön terveydenhuollon sovelluksissa on lisääntynyt, mukaan lukien diagnoosit, riskien ennustaminen, kliinisen päätöksenteon tuki ja resurssien hallinta. Nämä algoritmiset työkalut, jotka pystyvät löytämään piilotettuja malleja potilaiden sähköisten terveyskertomusten (EHR) ja hallinnollisten tietokantojen valtavasta datamäärästä, leviävät ympäri potilashoidon maailmaa. Usein terveydenhuollon tekoälysovelluksiin liittyy takeita niiden mahdollisuuksista tehdä lääketieteellisistä toimista parempia, turvallisempia ja oikeudenmukaisempia.

Todellisuus on kuitenkin osoittautunut monimutkaisemmaksi.

"Terveydenhuollon tekoäly käy läpi eräänlaista "villin lännen" aikaa", sanoo Duke AI Health Director ja datatieteen varadekaani Michael Pencina, PhD. "Monet sairaalat ja terveydenhuoltojärjestelmät ovat lopettaneet toimintansa itsenäisesti ja rakentaneet tai ostaneet järjestelmiä ja käyttävät niitä omilla tiedoillaan, joskus vähäisellä valvonnalla."

Innostus tekoälytyökalujen soveltamisesta joihinkin terveydenhuollon kiusallisimpiin ongelmiin auttaa ottamaan käyttöön tekniikoita, jotka eivät vielä suhteellisen äskettäin olleet läpikäyneet lääkkeisiin ja lääkinnällisiin laitteisiin rutiininomaisesti sovellettua tiukkaa tarkastelua. Ja yhä useammat lääkärit ja terveydenhuoltojärjestelmät ovat huolissaan siitä, että jotkut näistä työkaluista – joista monet on suunniteltu käsittämätön "musta laatikko" järjestelmät – eivät ehkä toimi niin kuin pitäisi.

Nämä huolenaiheet tulivat äskettäin laajemman yleisön tietoisuuteen, kun Michiganin yliopiston tutkijat tutki algoritmisen työkalun suorituskykyä suunniteltu varoittamaan kliinistä henkilökuntaa mahdollisesta sepsiksen esiintymisestä, joka on vakava sairaus. Tutkijat ymmärsivät, että työkalu toimi odotettua huonommin todellisessa potilashoidon maailmassa, ja se merkitsi olemattomia sepsistapauksia ja puuttuvia todellisia tapauksia. Tämän ja muiden virheellisten algoritmien esimerkkien johdosta asiantuntijat ovat tulleet yhä enemmän huolestuneiksi siitä, että tekoälytyökalut voivat heikentää laatua ja turvallisuutta tai vahvistaa olemassa olevaa epätasa-arvoa.

Algoritmisen valvonnan tarve

Vaikka tekoälyjärjestelmän suorituskyvyn heikkenemiseen on monia syitä, monet niistä voidaan jäljittää järjestelmän suunnitteluvaiheessa tehtyihin päätöksiin ja kriittisintä eroihin järjestelmän kouluttamiseen käytetyn datan ja järjestelmän datan välillä. kohtaamista, kun sitä sovelletaan klinikalla. Tästä syystä algoritmiset työkalut on validoitava huolellisesti niiden luomisen aikana, niitä on tarkasteltava tarkasti koko niiden elinkaaren ajan ja niitä on seurattava jatkuvasti käyttöönoton jälkeen.

"On tullut aivan selväksi, että nykyisen tilanteen on muututtava", Pencina sanoo, ja toteaa, että kiinnostusta jaettujen parhaiden käytäntöjen ja yhteisten lähestymistapojen luomiseen tekoälyn terveydenhuollon työkalujen säätelyyn on syntynyt jo jonkin aikaa.

Itse asiassa Dukessa tämä huoli on johtanut tekoälytyökalujen hallinto- ja valvontajärjestelmän luomiseen. Kutsuttu Algorithm-Based Clinical Decision Support (ABCDS) -valvonta Komitea, jonka puheenjohtajina ovat Pencina ja Duke Health Chief Health Information Officer Eric Poon, MD, ABCDS Oversight edustaa yhteistyötä, joka kattaa sekä Duke Universityn että Duke University Health Systemin.

"ABCDS Oversightin avulla voimme varmistaa, että laatu ja tasapuolisuus sisältyvät kaikkiin Duke Healthin kehittämiin tai käyttämiin algoritmityökaluihin", Poon sanoo. ”Olemme kehittäneet lähestymistapaa, joka kokoaa koolle asiantuntijat kaikilta asiaankuuluvilta alueilta – tekoälystä, kliinisestä erikoiskäytännöstä, IT:stä, sääntelystä ja muista. Nämä asiantuntijat antavat panoksensa ja opastusta mallinkehityksen alkuvaiheessa. Ajatuksena on varmistaa, että työkaluilla on vaikutusta keskeiseen tavoitteeseen parantaa tapaamme tarjota potilaiden hoitoa."

Osallistuminen isompaan kuvaan

Ottaen huomioon, että Duke omaksui varhaisessa vaiheessa tiukat lähestymistavat algoritmiseen valvontaan, ei ole yllättävää nähdä sen ottavan roolin uudessa kansallisessa konsortiossa, Coalition for Health AI (CHAI), joka kutsuu koolle asiantuntijoita korkeakouluista, teollisuudesta ja sääntelyvirastoista selvittämään kiireellisiä kysymyksiä, jotka liittyvät tekoälytyökalujen eettiseen ja tasapuoliseen käyttöön terveydenhuollossa ja terveydenhuollossa. Tärkein näistä on tarve yhdenmukaistaa useita kilpailevia raportointistandardeja koskevia suosituksia ja varmistaa, että oikeudenmukaisuus ja tasapuolisuus sisällytetään terveydenhuollon tekoälyjärjestelmiin alusta alkaen.

Nämä ovat erittäin tärkeitä näkökohtia, koska loppukäyttäjät, potilaat ja kuluttajat eivät ehkä luota tekoälyjärjestelmiin, jos yhteisiä standardeja ja ohjeita ei ymmärretä selvästi – tai mikä pahempaa, ne puuttuvat kokonaan. Avoimuus ja luotettavuus ovat avainasemassa sen varmistamiseksi, että terveydenhuollon tekoälykäytäntöjä voidaan soveltaa tehokkaasti parantamaan alipalveluttujen ja aliedustettujen potilaiden ja yhteisöjen, joihin eriarvoisuus vaikuttaa eniten, hoitoa.

"On innostavaa nähdä tekoäly ja datatiedeyhteisö yhdessä yhdenmukaistaakseen standardeja ja raportointia korkealaatuisen, oikeudenmukaisen ja luotettavan terveysteknisen tekoälyn saavuttamiseksi. Arvioidakseen näitä tekoälyjärjestelmiä ja lisätäkseen niiden uskottavuutta akateemisten terveydenhuoltojärjestelmien, terveydenhuoltoorganisaatioiden ja alan kumppaneiden asiantuntijat yhdistävät myös datatieteilijöitä, poliittisia päättäjiä ja laajempaa tekoälyä terveydenhuollossa kehittävien ja käyttävien yhteisöä", ABCDS Oversight sanoo. Ohjaaja Nicoleta J. Economou-Zavlanos, PhD, joka on myös yksi CHAI:n toiminnan johtajista. "Hyödymme myös niiden näkemyksistä, joihin nämä tekoälytekniikat vaikuttavat suoraan. CHAI on sitoutunut antamaan kaikille sidosryhmille paikan pöydän ääressä ja äänen keskusteluun siitä, kuinka näitä uskomattoman tehokkaita työkaluja ohjataan."

Coalition for Health AI pyrkii luomaanohjeet ja suojakaiteet", joka mahdollistaa "uskottavien, oikeudenmukaisten ja läpinäkyvien" terveydenhuoltojärjestelmien kehittämisen. Ensimmäinen askel kohti tätä tavoitetta on puitteet, jotka saavutetaan keskustelun ja yhteisymmärryksen kautta kumppaneiden ja sidosryhmien, mukaan lukien loppukäyttäjät ja potilaat, kesken. Viitekehys määrittelee keskeiset ohjeet, standardit ja kriteerit, joita käyttävät ne, jotka kehittävät, ottavat käyttöön ja käyttävät tekoälyjärjestelmiä terveydenhuollossa seuratakseen ja arvioidakseen suorituskykyään tietyn sovelluksen elinkaaren ajan.

Yksi CHAI:n välittömistä tavoitteista on asettaa standardeja, jotka johtavat terveydenhuollon tekoälyjärjestelmiin, jotka voivat edistää korkealaatuista hoitoa, lisätä uskottavuutta käyttäjien keskuudessa ja vastata terveydenhuollon tarpeisiin. Seuraa an ensimmäinen ilmoitus ryhmän muodostamisesta ja tarkoituksesta CHAI on käyttänyt viimeiset muutamat kuukaudet kutsuu koolle sarjan virtuaalisia kokouksia, joka keskittyi testattavuuden, käytettävyyden, turvallisuuden, läpinäkyvyyden, luotettavuuden ja seurannan teemoihin tutkiakseen erilaisia terveysteknisen tekoälyn kiinnostavia alueita havainnollisten käyttötapausten avulla.

Nämä tapaamiset huipentuivat henkilökohtaiseen/virtuaaliseen hybridikokoukseen (Tekoälyyhteistyön tuella ja Gordon and Betty Moore -säätiön rahoituksella), joka loi pohjan ohjeiden ja suositusten luomiselle. Jokaiseen tapaamiseen on liittynyt a "luettava" paperi kokousesitelmien ja keskustelujen tallentaminen. Viimeksi koalitio on julkaissut a Luonnos luotettavien tekoälyn käyttöönottoohjeiden ja -takuiden luomiseksi terveydenhuollossa ja on pyytää yleisöltä kommentteja ja palautetta.

"CHAI:ssa on todella jännittävää, että se tarjoaa sidosryhmille tilaisuuden koolle ja rakentaa konsensusta sellaisen kehyksen ympärille, joka varmistaa, että tekoälyä käytetään tavoilla, jotka ovat aidosti hyödyllisiä kaikilla tasoilla", sanoo Duke AI:n terveydenhuollon apulaisjohtaja Andrew Olson, MPP. .

Jonkin sisällä blogikirjoitus jaettu äskettäin CHAI:n verkkosivustolla, puheenjohtaja Michael Pencina korosti liittouman "vahvaa sitoutumista tekemään tasapuolisuudesta eettisen kehyksen kulmakivi, jota yritämme rakentaa tekoälylle terveydenhuollossa". Pencina totesi lisäksi, että kyky olla mielekkäästi tekemisissä kaikkien terveyteen liittyvästä tekoälystä kärsivien sidosryhmien kanssa on välttämätöntä luottamuksen lisäämiseksi tällaisiin työkaluihin.

Duke AI Healthin lisäksi CHAI:n kasvavaan yhteistyökumppaniluetteloon kuuluvat muun muassa Stanfordin yliopisto, UC San Francisco, Johns Hopkins University, UC Berkeley, Mayo Clinic, MITER Health, Change Healthcare, Microsoft Corporation, SAS ja Google. Tarkkailijat Yhdysvaltain elintarvike- ja lääkevirastosta, joka valvoo tietyt kriteerit täyttäviä terveystekoälysovelluksia, sekä National Institutes of Healthin ja National Coordinator for Health Information Technology -toimiston tarkkailijat olivat läsnä myös viimeaikaisissa CHAI:n kokouksissa.

CHAI:n ja sen kumppaneiden työn jatkuessa täydentäviä toimia on käynnissä myös liittovaltion tasolla, kun FDA on julkaissut lopullinen ohje koskien kliinisen päätöksenteon tukiohjelmistoa ja a Suunnitelma AI Bill of Rightsille julkaissut Valkoisen talon tiede- ja teknologiapolitiikan toimisto.

"Olemme todella jännittävässä hetkessä terveydenhuollon tekoälyssä. Kaikilla – potilailla, kliinikoilla ja terveydenhuoltojärjestelmillä – on valtava potentiaali hyötyä näistä ominaisuuksista”, Pencina toteaa. "Mutta", hän lisää, "meidän on varmistettava, että kaikki saavat osansa näistä eduista, ja avain tässä on varmistaa, että luomamme työkalut parantavat merkittävästi potilaiden hoitoa."

Alkuperäinen artikkelin lähde: Duke AI Health