Duke AI Health: budowanie lepszych poręczy dla medycyny algorytmicznej
Data opublikowania:W ostatnich latach można zaobserwować rosnące zainteresowanie wykorzystaniem narzędzi sztucznej inteligencji w zastosowaniach związanych z opieką zdrowotną, w tym w diagnostyce, przewidywaniu ryzyka, wspomaganiu decyzji klinicznych i zarządzaniu zasobami. Te algorytmiczne narzędzia, zdolne do znajdowania ukrytych wzorców w ogromnych ilościach danych znajdujących się w elektronicznych dokumentacjach zdrowotnych pacjentów (EHR) i administracyjnych bazach danych, są rozpowszechniane w całym świecie opieki nad pacjentami. Często aplikacjom sztucznej inteligencji w dziedzinie zdrowia towarzyszą zapewnienia o ich potencjale w zakresie uczynienia praktyki medycznej lepszą, bezpieczniejszą i bardziej sprawiedliwą.
Rzeczywistość okazała się jednak bardziej złożona.
„Sztuczna inteligencja w służbie zdrowia przechodzi swego rodzaju okres „Dzikiego Zachodu”” – mówi dyrektor ds. zdrowia Duke AI i prodziekan ds. analityki danych, dr Michael Pencina. „Wiele szpitali i systemów opieki zdrowotnej działa samodzielnie, zbudowało lub zakupiło systemy i uruchamia je w oparciu o własne dane, czasami pod niewielkim nadzorem”.
Entuzjazm w stosowaniu narzędzi sztucznej inteligencji do rozwiązywania niektórych z najbardziej irytujących problemów opieki zdrowotnej pomaga w przyjmowaniu technologii, które do niedawna nie były poddawane rygorystycznej kontroli rutynowo stosowanej w przypadku leków i wyrobów medycznych. A wśród rosnącej liczby lekarzy i systemów opieki zdrowotnej narastają obawy, że niektóre z tych narzędzi – z których wiele zostało zaprojektowanych jako nieprzenikniona „czarna skrzynka” systemy – mogą nie działać tak, jak powinny.
Obawy te ujrzały niedawno szerszą świadomość społeczną, gdy badacze z Uniwersytetu Michigan zbadali wydajność narzędzia algorytmicznego zaprojektowany, aby ostrzegać personel kliniczny o możliwej obecności sepsy, poważnej choroby. Naukowcy zdali sobie sprawę, że narzędzie działało gorzej, niż oczekiwano, w rzeczywistym świecie opieki nad pacjentami, sygnalizując nieistniejące przypadki sepsy i pomijając rzeczywiste. Pod wpływem tego i innych przykładów błędnych algorytmów eksperci są coraz bardziej zaniepokojeni możliwością nieprawidłowego działania narzędzi sztucznej inteligencji, które może zagrozić jakości i bezpieczeństwu lub wzmocnić istniejące nierówności.
Potrzeba nadzoru algorytmicznego
Chociaż istnieje wiele powodów, dla których wydajność systemu AI może spaść, wiele z nich można przypisać decyzjom podjętym na etapie projektowania systemu, a co najważniejsze, różnicom między danymi używanymi do uczenia systemu a rodzajem danych, które system spotykane po zastosowaniu w klinice. Z tego powodu narzędzia algorytmiczne muszą być dokładnie sprawdzane podczas ich tworzenia, dokładnie sprawdzane w całym cyklu życia i stale monitorowane po wdrożeniu.
„Stało się całkiem jasne, że obecna sytuacja musi się zmienić” – mówi Pencina, który zauważa, że od pewnego czasu narasta wzrost zainteresowania ustalaniem wspólnych najlepszych praktyk i wspólnych podejść do regulowania narzędzi opieki zdrowotnej opartych na sztucznej inteligencji.
Rzeczywiście, w Duke ta obawa przełożyła się na stworzenie systemu zarządzania i nadzoru nad narzędziami AI. Nazwany Nadzór nad algorytmicznym wspomaganiem decyzji klinicznych (ABCDS). Komitetu, któremu współprzewodniczą Pencina i dyrektor ds. informacji zdrowotnych Duke Health, lekarz medycyny Eric Poon, ABCDS Oversight reprezentuje współpracę obejmującą zarówno Uniwersytet Duke, jak i system opieki zdrowotnej Duke University.
„Nadzór nad ABCDS pozwala nam zapewnić jakość i sprawiedliwość we wszystkich narzędziach algorytmicznych opracowanych lub używanych w Duke Health” – mówi Poon. „Opracowaliśmy podejście, które skupia ekspertów ze wszystkich istotnych dziedzin – sztucznej inteligencji, specjalizacji klinicznej, IT, organów regulacyjnych i innych. Eksperci ci oferują wkład i wskazówki na najwcześniejszych etapach opracowywania modelu. Chodzi o to, aby narzędzia wykazywały wpływ na kluczowy cel, jakim jest poprawa sposobu zapewniania opieki pacjentom”.
Przyczynianie się do szerszego obrazu
Biorąc pod uwagę wczesne przyjęcie przez Duke'a rygorystycznego podejścia do nadzoru algorytmicznego, nie jest zaskakujące, że przejmuje on rolę w nowym krajowym konsorcjum, Koalicja na rzecz sztucznej inteligencji w zakresie zdrowia (CHAI), czyli zwołanie ekspertów ze środowiska akademickiego, przemysłu i agencji regulacyjnych w celu omówienia pilnych kwestii związanych z etycznym i sprawiedliwym wykorzystaniem narzędzi sztucznej inteligencji w służbie zdrowia i opiece zdrowotnej. Najważniejsze z nich to potrzeba zharmonizowania wielu konkurencyjnych zaleceń dotyczących standardów raportowania oraz zapewnienia, że sprawiedliwość i równość zostaną od podstaw wbudowane w systemy sztucznej inteligencji w służbie zdrowia.
Są to niezwykle ważne kwestie, ponieważ użytkownicy końcowi, pacjenci i konsumenci mogą nie ufać systemom sztucznej inteligencji, jeśli wspólne standardy i wytyczne nie będą jasno zrozumiane – lub, co gorsza, w ogóle ich nie będzie. Przejrzystość i wiarygodność mają kluczowe znaczenie dla zapewnienia skutecznego stosowania praktyk związanych ze sztuczną inteligencją w zakresie zdrowia w celu poprawy opieki nad pacjentami, którzy nie są dostatecznie obsługiwani i niedostatecznie reprezentowanymi oraz społecznościami, które najbardziej odczuwają nierówności.
„To inspirujące widzieć, jak społeczność AI i analityki danych łączy siły, aby zharmonizować standardy i raportowanie na rzecz wysokiej jakości, uczciwej i godnej zaufania sztucznej inteligencji dotyczącej zdrowia. Aby ocenić te systemy sztucznej inteligencji i zwiększyć ich wiarygodność, eksperci z akademickich systemów opieki zdrowotnej, organizacji opieki zdrowotnej i partnerów branżowych łączą siły między badaczami danych, decydentami i szerszą społecznością osób opracowujących i wykorzystujących sztuczną inteligencję w opiece zdrowotnej” – mówi ABCDS Oversight Dyrektor Nicoleta J. Economou-Zavlanos, dr, która również współkieruje wysiłkami CHAI. „Korzystamy także ze spostrzeżeń osób, na które technologie AI mają bezpośredni wpływ. CHAI pragnie zapewnić wszystkim zainteresowanym stronom miejsce przy stole i głos w debacie na temat zarządzania tymi niezwykle potężnymi narzędziami”.
Koalicja na rzecz AI Zdrowia dąży do stworzenia „wytyczne i poręcze”, które umożliwią rozwój systemów sztucznej inteligencji w dziedzinie zdrowia, które będą „wiarygodne, uczciwe i przejrzyste”. Pierwszym krokiem w stronę tego celu są ramy opracowane w drodze dyskusji i konsensusu pomiędzy partnerami i zainteresowanymi stronami, w tym użytkownikami końcowymi i pacjentami. Ramy zdefiniują kluczowe zasady, standardy i kryteria, które będą stosowane przez osoby opracowujące, wdrażające i wykorzystujące systemy sztucznej inteligencji w opiece zdrowotnej do monitorowania i oceny ich wydajności w całym cyklu życia danej aplikacji.
Jednym z bezpośrednich celów CHAI jest ustalenie standardów, w wyniku których powstaną systemy sztucznej inteligencji w służbie zdrowia, które będą w stanie zapewniać opiekę wysokiej jakości, zwiększać wiarygodność wśród użytkowników i spełniać potrzeby w zakresie opieki zdrowotnej. Podążanie za wstępne ogłoszenie tworzenia i zamiarów grupy, CHAI spędził ostatnie kilka miesięcy zwołanie cyklu wirtualnych spotkań, skupiający się na tematach testowalności, użyteczności, bezpieczeństwa, przejrzystości, niezawodności i monitorowania w celu zbadania różnych obszarów zainteresowań sztuczną inteligencją w dziedzinie zdrowia poprzez ilustracyjne przypadki użycia.
Spotkania te zakończyły się hybrydowym spotkaniem osobistym/wirtualnym (przy wsparciu Partnerstwa na rzecz sztucznej inteligencji i finansowaniu z Fundacji Gordona i Betty Moore), które przygotowało grunt pod stworzenie zestawu wytycznych i zaleceń. Każdemu spotkaniu towarzyszył m.in papier „do odczytania”. przechwytywanie prezentacji i dyskusji ze spotkań. Ostatnio Koalicja wydała Projekt planu godnych zaufania wskazówek i gwarancji dotyczących wdrażania sztucznej inteligencji w opiece zdrowotnej i jest prosząc o komentarze i opinie opinii publicznej.
„Naprawdę ekscytujące w CHAI jest to, że daje on zainteresowanym stronom szansę na zebranie się i budowanie konsensusu wokół ram, które zapewnią wykorzystanie sztucznej inteligencji w sposób rzeczywiście korzystny na wszystkich poziomach” – mówi Andrew Olson, zastępca dyrektora ds. zdrowia Duke AI Health, MPP .
W wpis na blogu udostępniony niedawno na stronie internetowej CHAI, współprzewodniczący Michael Pencina podkreślił „silne zaangażowanie koalicji na rzecz uczynienia sprawiedliwości kamieniem węgielnym ram etycznych, które staramy się budować dla sztucznej inteligencji w opiece zdrowotnej”. Pencina zauważyła ponadto, że zdolność do znaczącej współpracy ze wszystkimi zainteresowanymi stronami, na które wpływa sztuczna inteligencja w dziedzinie zdrowia, jest niezbędna do budowania zaufania do takich narzędzi.
Oprócz Duke AI Health na rosnącej liście partnerów CHAI znajdują się między innymi Uniwersytet Stanforda, Kalifornia w San Francisco, Uniwersytet Johnsa Hopkinsa, Uniwersytet Kalifornijski w Berkeley, Mayo Clinic, MITER Health, Change Healthcare, Microsoft Corporation, SAS i Google. Na ostatnich spotkaniach CHAI byli także obecni obserwatorzy z amerykańskiej Agencji ds. Żywności i Leków, która sprawuje nadzór regulacyjny nad aplikacjami sztucznej inteligencji w służbie zdrowia, które spełniają określone kryteria, oraz z Narodowych Instytutów Zdrowia i Biura Krajowego Koordynatora ds. Technologii Informacyjnych w Zdrowiu.
W miarę kontynuowania prac CHAI i jej partnerów podejmowane są także uzupełniające wysiłki na szczeblu federalnym, wraz z publikacją przez FDA ostateczne wytyczne dotyczące oprogramowania wspomagającego podejmowanie decyzji klinicznych oraz a Projekt Karty Praw AI opublikowane przez Biuro ds. Polityki Naukowej i Technologicznej Białego Domu.
„Jesteśmy w naprawdę ekscytującym momencie w dziedzinie sztucznej inteligencji w dziedzinie zdrowia. Każdy – pacjenci, lekarze i systemy opieki zdrowotnej – ma ogromny potencjał, aby skorzystać z tych możliwości” – zauważa Pencina. „Ale” – dodaje – „musimy mieć pewność, że każdy będzie miał udział w tych korzyściach, a kluczem do tego jest zapewnienie, że tworzone przez nas narzędzia zapewnią znaczącą poprawę opieki nad pacjentem”.
Oryginalne źródło artykułu: Duke AI Zdrowie