Duke AI Health: בניית מעקות בטיחות טובים יותר לרפואה אלגוריתמית

תאריך פרסום:

בשנים האחרונות ניתן לראות עניין גובר בשימוש בכלי בינה מלאכותית עבור יישומי בריאות, כולל אבחון, חיזוי סיכונים, תמיכה בהחלטות קליניות וניהול משאבים. הכלים האלגוריתמיים הללו מסוגלים למצוא דפוסים נסתרים בתוך כמויות הנתונים העצומות שנמצאות ברשומות הבריאות האלקטרוניות של המטופלים (EHRs) ובמאגרי מידע אדמיניסטרטיביים, ומתפזרים ברחבי עולם הטיפול בחולים. לעתים קרובות, יישומי AI בריאות מלווים בהבטחות לגבי הפוטנציאל שלהם להפוך את התרגול הרפואי לטוב יותר, בטוח יותר והוגן יותר.

המציאות, לעומת זאת, התבררה כמורכבת יותר.

"AI עבור שירותי בריאות עוברת מעין תקופה של 'מערב פרוע'", אומר מנהל הבריאות של דיוק AI וסגן דיקן למדעי הנתונים מייקל פנסינה, דוקטורט. "הרבה בתי חולים ומערכות בריאות יצאו מעצמם ובנו או רכשו מערכות ומפעילים אותם על הנתונים שלהם, לפעמים עם מעט פיקוח".

ההתלהבות מיישום כלי בינה מלאכותית על כמה מהבעיות המטרידות ביותר של שירותי הבריאות עוזרת להניע את האימוץ של טכנולוגיות שעד לאחרונה יחסית לא עברו את סוגי הבדיקה הקפדנית המופעלת באופן שגרתי על תרופות ומכשור רפואי. ועבור מספר גדל והולך של מתרגלים ומערכות בריאות, גוברות הדאגות שחלק מהכלים הללו - שרבים מהם מתוכננים "קופסה שחורה" בלתי ניתנת לבירור מערכות - אולי לא עובדות כמו שהן אמורות.

חששות אלה הגיעו לאחרונה למודעות ציבורית רחבה יותר כאשר חוקרים מאוניברסיטת מישיגן חקר את הביצועים של כלי אלגוריתמי נועד להתריע בפני הצוות הקליני על נוכחות אפשרית של אלח דם, מצב רפואי חמור. החוקרים הבינו שהביצועים של הכלי גרועים מהצפוי בעולם האמיתי של טיפול בחולים, מסמנים מקרים לא קיימים של אלח דם וחסרים כאלה. בעקבות זאת ודוגמאות אחרות של אלגוריתמים שגויים, מומחים גדלו יותר ויותר מודאגים מהפוטנציאל לתפקוד לקוי של כלי בינה מלאכותית כדי להתפשר על איכות ובטיחות או לחזק את אי השוויון הקיים.

הצורך בפיקוח אלגוריתמי

למרות שישנן סיבות רבות לכך שהביצועים של מערכת בינה מלאכותית יכולים לרדת, ניתן לייחס רבות להחלטות שהתקבלו בשלב התכנון של המערכת, ובעיקר, להבדלים בין הנתונים המשמשים לאימון המערכת לעומת סוגי הנתונים שהמערכת נתקלים ברגע שהוא מיושם במרפאה. מסיבה זו, יש לאמת בקפידה כלים אלגוריתמיים במהלך יצירתם, לבחון מקרוב לאורך מחזור החיים שלהם, ולנטר ברציפות לאחר הפריסה.

"התברר למדי שהמצב הנוכחי חייב להשתנות", אומר פנצ'ינה, שמציינת כי כבר זמן מה נבנה שפע של עניין בביסוס שיטות עבודה מומלצות משותפות וגישות נפוצות להסדרת כלי בריאות בינה מלאכותית.

ואכן, ב-Duke הדאגה הזו תורגמה ליצירת מערכת של ממשל ופיקוח על כלי AI. מדובב את פיקוח על החלטות קליניות מבוססות אלגוריתם (ABCDS). הוועדה ובראשה משותפת של Pencina ועל ידי Duke Health קצין המידע הבריאותי הראשי אריק פון, MD, ABCDS Oversight מייצג שיתוף פעולה המשתרע על פני אוניברסיטת דיוק ומערכת הבריאות של אוניברסיטת דיוק.

"פיקוח ABCDS מאפשר לנו להבטיח שהאיכות והשוויון מובנים בכל הכלים האלגוריתמיים שפותחו או נעשה בהם שימוש ב-Duke Health", אומר פון. "פיתחנו גישה שמכנסת מומחים מכל התחומים הרלוונטיים - בינה מלאכותית, התמחות קלינית, IT, רגולציה ועוד. מומחים אלה מציעים מידע והכוונה בשלבים המוקדמים ביותר של פיתוח המודל. הרעיון הוא להבטיח שכלים יפגינו השפעה על המטרה העיקרית של שיפור האופן בו אנו מספקים טיפול בחולים".

תורם לתמונה הגדולה יותר

בהתחשב באימוץ המוקדם של דיוק לגישות קפדניות לפיקוח אלגוריתמי, זה לא מפתיע לראות אותו מקבל תפקיד בקונסורציום לאומי חדש, קואליציה לבריאות AI (CHAI), כלומר כינוס מומחים מהאקדמיה, מהתעשייה וסוכנויות רגולטוריות כדי לדחות נושאים דחופים הקשורים לשימוש אתי ושוויוני בכלי בינה מלאכותית לבריאות ובריאות. העיקריים שבהם הם הצורך בהרמוניה של מספר המלצות מתחרות לתקני דיווח, ולהבטיח שהוגנות ושוויון מובנים במערכות AI בריאות מהיסוד.

אלו שיקולים חשובים ביותר, מכיוון שמשתמשי קצה, מטופלים וצרכנים עשויים שלא לסמוך על מערכות בינה מלאכותית אם תקנים והנחיות משותפים אינם מובנים בבירור - או גרוע מכך, חסרים לחלוטין. שקיפות ואמינות הם המפתח כדי להבטיח שניתן ליישם ביעילות שיטות בינה מלאכותיות בריאותיות כדי לשפר את הטיפול בחולים ובקהילות המושפעות מחוסר שוויון.

"זה מעורר השראה לראות את קהילת הבינה המלאכותית ומדעי הנתונים מתאחדים כדי ליצור הרמוניה בין תקנים ודיווח ל-AI בריאות איכותית, הוגנת ומהימנה. כדי להעריך את מערכות הבינה המלאכותית הללו ולהגביר את אמינותן, מומחים ממערכות בריאות אקדמיות, ארגוני בריאות ושותפים בתעשייה מחברים גם את הנקודות בין מדעני מידע, קובעי מדיניות והקהילה הרחבה יותר של המפתחים והמשתמשים בבינה מלאכותית בתחום הבריאות", אומר ABCDS Oversight. מנהלת ניקולטה ג'יי אקונומו-זבלנוס, דוקטורט, שהיא גם שותפה להובלת מאמצי CHAI. "אנחנו גם נהנים מהתובנות של אלה שמושפעים ישירות מטכנולוגיות הבינה המלאכותית הללו. CHAI מחויב לתת לכל בעלי העניין מושב ליד השולחן וקול בוויכוח על איך לשלוט בכלים החזקים להפליא האלה".

הקואליציה לבריאות AI מבקשת ליצור "קווים מנחים ומעקות בטיחות" שיאפשר פיתוח מערכות AI בריאות "אמינות, הוגנות ושקופות". צעד ראשון לקראת מטרה זו הוא מסגרת, שהגיעה באמצעות דיון והסכמה בין שותפים ובעלי עניין, לרבות משתמשי קצה ומטופלים. המסגרת תגדיר מצוות מפתח, תקנים וקריטריונים שישמשו את מי שמפתחים, פורסים ומשתמשים במערכות AI בתחום הבריאות כדי לנטר ולהעריך את הביצועים שלהם לאורך מחזור החיים של אפליקציה נתונה.

אחת המטרות המיידיות של CHAI היא לקבוע סטנדרטים שיביאו למערכות AI בריאות שיוכלו להניע טיפול איכותי, להגביר את האמינות בקרב המשתמשים ולעמוד בצרכי הבריאות. בעקבות א הודעה ראשונית של הקמת הקבוצה וכוונתה, חי בילה את החודשים האחרונים כינוס סדרה של פגישות וירטואליות, התמקד בנושאים של בדיקה, שימושיות, בטיחות, שקיפות, אמינות וניטור כדי לחקור תחומי עניין שונים ב-AI בריאות באמצעות מקרי שימוש ממחישים.

מפגשים אלו הגיעו לשיאם בפגישה היברידית אישית/וירטואלית (בתמיכת השותפות בנושא בינה מלאכותית ומימון מקרן גורדון ובטי מור) שהכינה את הקרקע ליצירת מערך הנחיות והמלצות. כל פגישה לוותה בא נייר "קריאה". לכידת מצגות ודיונים בפגישה. לאחרונה, הקואליציה פרסמה א טיוטת תוכנית להנחיות והבטחת יישום AI מהימן עבור שירותי בריאות והוא שידול הערות ומשוב מהציבור.

"מה שבאמת מרגש ב-CHAI הוא שהוא מייצג הזדמנות לבעלי עניין להתכנס ולבנות קונצנזוס סביב מסגרת שתבטיח שהשימוש בבינה מלאכותית בדרכים מועילות באמת בכל הרמות", אומר מנהל שותף הבריאות של Duke AI, אנדרו אולסון, MPP .

ב פוסט בבלוג ששותף לאחרונה באתר CHAI, יו"ר משותף מייקל פנסינה הדגיש את "מחויבותה החזקה של הקואליציה להפוך את ההון העצמי לאבן הפינה של המסגרת האתית שאנו מנסים לבנות עבור AI בתחום הבריאות". Pencina ציין עוד כי היכולת לתקשר באופן משמעותי עם כל מחזיקי העניין המושפעים מ-AI בריאות הייתה חיונית לטיפוח האמון בכלים כאלה.

בנוסף ל-Duke AI Health, רשימת השותפים ההולכת וגדלה של CHAI כוללת בין היתר את אוניברסיטת סטנפורד, אוניברסיטת קליפורניה בסן פרנסיסקו, אוניברסיטת ג'ונס הופקינס, אוניברסיטת ברקלי, מאיו קליניק, MITER Health, Change Healthcare, Microsoft Corporation, SAS וגוגל. משקיפים ממינהל המזון והתרופות האמריקני, המפעיל פיקוח רגולטורי על יישומי AI בריאות העומדים בקריטריונים מסוימים, ומהמכונים הלאומיים לבריאות והמשרד של המתאם הלאומי לטכנולוגיית מידע בריאותית, נכחו גם הם בפגישות האחרונות של CHAI.

ככל שהעבודה של CHAI ושותפיה נמשכת, מאמצים משלימים מתבצעים גם ברמה הפדרלית, עם פרסום ה-FDA של הדרכה סופית לגבי תוכנת תמיכה להחלטות קליניות וא שרטוט למגילת זכויות בינה מלאכותית פורסם על ידי משרד הבית הלבן למדיניות מדע וטכנולוגיה.

"אנחנו נמצאים ברגע מרגש באמת ב-AI בריאות. פשוט יש פוטנציאל עצום לכולם - מטופלים, רופאים ומערכות בריאות - להפיק תועלת מהיכולות הללו", מציינת פנסינה. "אבל", הוא מוסיף, "עלינו לוודא שכולם יזכו להשתתף בהטבות הללו, והמפתח לעשות זאת הוא להבטיח שהכלים שאנו יוצרים מספקים שיפורים משמעותיים לטיפול בחולים".

מקור המאמר המקורי: Duke AI Health