https://frosthead.com

Czy sztuczna inteligencja poprawi opiekę zdrowotną dla wszystkich?

Możesz wybaczyć, że myślisz, że AI wkrótce zastąpi ludzkich lekarzy na podstawie takich tytułów, jak: „Lekarz AI zobaczy cię teraz”, „Twój przyszły lekarz może nie być człowiekiem” i „Ta AI po prostu pokonała ludzkich lekarzy na badaniu klinicznym ”. Ale eksperci twierdzą, że rzeczywistość jest raczej współpracą niż wyparciem: pacjenci mogli wkrótce znaleźć swoje życie częściowo w rękach służb AI współpracujących z ludzkimi klinicystami.

W środowisku medycznym nie brakuje optymizmu na temat AI. Ale wielu ostrzega również, że szum wokół AI nie został jeszcze zrealizowany w rzeczywistych warunkach klinicznych. Istnieją również różne wizje tego, w jaki sposób usługi AI mogą wywrzeć największy wpływ. Nadal nie jest jasne, czy sztuczna inteligencja poprawi życie pacjentów, czy po prostu wynik finansowy firm z Doliny Krzemowej, organizacji opieki zdrowotnej i ubezpieczycieli.

„Sądzę, że wszyscy nasi pacjenci powinni chcieć, aby technologie sztucznej inteligencji zostały wykorzystane do wyeliminowania słabych punktów w systemie opieki zdrowotnej, ale musimy to zrobić bez szumu w Dolinie Krzemowej”, mówi Isaac Kohane, badacz informatyki biomedycznej w Harvard Medical School.

Jeśli sztuczna inteligencja działa zgodnie z obietnicą, może zdemokratyzować opiekę zdrowotną, zwiększając dostęp do społeczności w trudnej sytuacji i obniżając koszty - dobrodziejstwo w Stanach Zjednoczonych, które plasuje się pod wieloma względami pomimo średniego rocznego kosztu opieki zdrowotnej w wysokości 10 739 USD na osobę. Systemy AI mogą uwolnić przepracowanych lekarzy i zmniejszyć ryzyko błędów medycznych, które mogą zabijać dziesiątki tysięcy, jeśli nie setki tysięcy, amerykańskich pacjentów każdego roku. W wielu krajach, w których brakuje krajowych lekarzy, takich jak Chiny, gdzie przepełnione oddziały ambulatoryjne szpitali miejskich mogą odwiedzać nawet 10 000 osób dziennie, takie technologie nie potrzebują doskonałej dokładności, aby okazać się pomocne.

Ale krytycy zwracają uwagę, że wszystkie te obietnice mogą zniknąć, jeśli pośpiech we wdrażaniu sztucznej inteligencji podważy prawa do prywatności pacjentów, pominie uprzedzenia i ograniczenia lub nie wdroży usług w sposób, który poprawi wyniki zdrowotne większości ludzi.

„W ten sam sposób, w jaki technologie mogą niwelować rozbieżności, mogą zaostrzać rozbieżności”, mówi Jayanth Komarneni, założyciel i prezes Human Diagnosis Project (Human Dx), korporacji pożytku publicznego skoncentrowanej na wiedzy medycznej z crowdsourcingu. „I nic nie jest w stanie zaostrzyć różnic takich jak AI”

***

Obecnie najpopularniejszymi technikami sztucznej inteligencji są uczenie maszynowe, a jego młodszy kuzyn głębokie uczenie się. W przeciwieństwie do programów komputerowych, które sztywno przestrzegają reguł napisanych przez ludzi, zarówno algorytmy uczenia maszynowego, jak i uczenia głębokiego mogą patrzeć na zbiór danych, uczyć się z niego i tworzyć nowe prognozy. W szczególności głębokie uczenie się może robić imponujące prognozy, odkrywając wzorce danych, które ludzie mogą przegapić.

Ale aby maksymalnie wykorzystać te prognozy w służbie zdrowia, AI nie może się na to zdecydować sama. Raczej ludzie nadal muszą pomagać w podejmowaniu decyzji, które mogą mieć poważne konsekwencje zdrowotne i finansowe. Ponieważ systemy AI nie mają ogólnej inteligencji ludzi, mogą tworzyć zaskakujące prognozy, które mogą okazać się szkodliwe, jeśli lekarze i szpitale będą ich bezwzględnie przestrzegać.

Klasyczny przykład pochodzi od Rich Caruana, starszego badacza w Microsoft Research, jak wyjaśnił w zeszłym roku w czasopiśmie Engineering and Technology. W latach 90. Caruana pracowała nad projektem, w którym próbowano zastosować wcześniejszą formę uczenia maszynowego, aby przewidzieć, czy pacjent z zapaleniem płuc jest przypadkiem niskiego ryzyka, czy wysokiego ryzyka. Problemy pojawiły się jednak, gdy model uczenia maszynowego próbował przewidzieć przypadek osób cierpiących na astmę, które są obarczone wysokim ryzykiem, ponieważ wcześniej istniejące trudności w oddychaniu narażają je na zapalenie płuc. Model określa tych pacjentów jako osoby niskiego ryzyka, wymagające mniejszej interwencji niż hospitalizacji - czegoś, czego ludzki ekspert nigdy by nie zrobił.

Jeśli ślepo podążasz za tym modelem, mówi Kenneth Jung, naukowiec ze Stanford Center for Biomedical Informatics Research, „to nie masz racji. Ponieważ model mówi: „Och, ten dzieciak z astmą wszedł i dostał zapalenia płuc, ale nie musimy się o nie martwić i wysyłamy je do domu z antybiotykami”.

Prognozy dogłębnego uczenia się mogą również zawieść, jeśli napotkają po raz pierwszy niezwykłe punkty danych, takie jak unikalne przypadki medyczne, lub gdy nauczą się specyficznych wzorców w określonych zestawach danych, które nie uogólniają się na nowe przypadki medyczne.

Prognozy AI najlepiej sprawdzają się w przypadku ogromnych zestawów danych, takich jak w Chinach, które mają przewagę w szkoleniu systemów AI dzięki dostępowi do dużych populacji i danych pacjentów. W lutym czasopismo Nature Medicine opublikowało badanie od naukowców z San Diego i Guangzhou w Chinach, które wykazało obietnicę w diagnozowaniu wielu powszechnych chorób dziecięcych na podstawie elektronicznej dokumentacji medycznej ponad 567 000 dzieci.

Ale nawet duże zbiory danych mogą stwarzać problemy, szczególnie gdy badacze próbują zastosować swój algorytm do nowej populacji. W badaniu Nature Medicine wszystkie pół miliona pacjentów pochodziło z jednego centrum medycznego w Kantonie, co oznacza, że ​​nie ma gwarancji, że lekcje diagnostyczne wyciągnięte ze szkolenia w tym zbiorze danych będą miały zastosowanie w przypadkach pediatrycznych gdzie indziej. Każde centrum medyczne może przyciągać swój własny unikalny zestaw pacjentów - na przykład szpital znany z ośrodka sercowo-naczyniowego może przyciągać bardziej krytyczne choroby serca. Odkrycia ze szpitala w Kantonie, który głównie przyciąga etnicznych chińskich pacjentów, mogą nie zostać przełożone na jeden w Szanghaju z większą liczbą urodzonych za granicą pacjentów spoza Chin.

W tym wykładzie TEDx 2017 Shinjini Kundu z Johns Hopkins Hospital wyjaśnia, w jaki sposób narzędzia AI mogą uzyskać więcej obrazów medycznych niż tylko lekarze - w tym przewidywanie chorób, zanim pacjenci wykażą objawy.

Ta ekstrapolacja okaże się trudna również w innych sytuacjach. Na przykład, mówi Marzyeh Ghassemi, informatyk i inżynier biomedycyny z University of Toronto, twierdzi, że masz 40 000 pacjentów OIOM w Beth Israel Deaconess Medical Center - to tylko jeden szpital w jednym mieście. „I tak mam wszystkie te prace, które dokonały prognoz na podstawie tych danych. Czy to działa z innym szpitalem w Bostonie? Może. Czy to działa w szpitalu w innym stanie? Czy działałoby to w innym kraju? Nie wiemy. ”

***

Chociaż modele AI mogą nie działać w każdym przypadku, Ghassemi uważa, że ​​technologia jest nadal warta poznania. „Jestem bardzo za przeniesieniem tych modeli z ławki na łóżko” - mówi - „ale z bardzo agresywnymi krokami zapobiegawczymi”.

Te kroki muszą istnieć podczas opracowywania i wdrażania sztucznej inteligencji, mówi I. Glenn Cohen, profesor prawa na Uniwersytecie Harvarda i lider Projektu Medycyny Precyzyjnej, Sztucznej Inteligencji i Prawa. Może to obejmować weryfikację dokładności i przejrzystości prognoz sztucznej inteligencji. Podczas gromadzenia danych badacze będą musieli również chronić prywatność pacjentów i poprosić o zgodę na wykorzystanie danych pacjentów do szkolenia sztucznej inteligencji

Problem zgody pojawia się ponownie, gdy model AI jest gotowy do eksperymentalnych testów klinicznych z prawdziwymi pacjentami. „Czy pacjentom należy powiedzieć, że używasz na nich algorytmu i czy ma to znaczenie, czy sztuczna inteligencja to opieka całkowicie lub częściowo?” - pyta Cohen. „Naprawdę niewiele myśli o tych pytaniach.”

Ghassemi opowiada się również za częstym audytem algorytmów sztucznej inteligencji w celu zapewnienia uczciwości i dokładności w różnych grupach ludzi na podstawie pochodzenia etnicznego, płci, wieku i ubezpieczenia zdrowotnego. To ważne, biorąc pod uwagę, że aplikacje AI w innych dziedzinach wykazały już, że mogą łatwo wykryć uprzedzenia.

Po wykonaniu wszystkich tych kroków osoby i firmy świadczące usługi AI będą musiały rozwiązać odpowiedzialność prawną w przypadku nieuniknionych błędów. I w przeciwieństwie do większości urządzeń medycznych, które zwykle wymagają tylko jednej zgody organu nadzoru, usługi AI mogą wymagać dodatkowej weryfikacji za każdym razem, gdy korzystają z nowych danych.

Niektóre agencje regulacyjne ponownie zastanawiają się, jak oceniać AI w służbie zdrowia. W kwietniu amerykański Urząd ds. Żywności i Leków (FDA) opublikował dokument do dyskusji, aby uzyskać opinię publiczną na temat aktualizacji odpowiedniego przeglądu przepisów. „Nieustannie staramy się tutaj wrócić do celu, jakim jest zapewnienie ludziom dostępu do technologii, ale zdajemy sobie również sprawę, że nasze obecne metody nie działają dobrze”, mówi Bakul Patel, dyrektor ds. Zdrowia cyfrowego w FDA. „Dlatego musimy spojrzeć na całościowe podejście do całego cyklu życia produktu.”

Oprócz kwestii związanych z dostępem, prywatnością i przepisami, nie jest również jasne, kto może najwięcej skorzystać z usług opieki zdrowotnej AI. Istnieją już różnice w opiece zdrowotnej: Według Banku Światowego i Światowej Organizacji Zdrowia połowa populacji globu nie ma dostępu do podstawowych usług opieki zdrowotnej, a prawie 100 milionów ludzi jest narażonych na skrajne ubóstwo z powodu wydatków na opiekę zdrowotną. W zależności od sposobu rozmieszczenia AI może albo poprawić te nierówności, albo je pogorszyć.

„Wiele dyskusji na temat sztucznej inteligencji dotyczyło sposobu demokratyzacji opieki zdrowotnej i chcę, aby tak się działo” - mówi Effy Vayena, bioetyk z Federalnego Instytutu Technologii w Szwajcarii.

„Jeśli skończysz z bardziej wyszukanym świadczeniem usług dla tych, którzy i tak mogliby sobie pozwolić na dobrą opiekę zdrowotną” - dodaje - „Nie jestem pewna, czy takiej transformacji szukamy”.

To, jak to wszystko się dzieje, zależy od różnych wizji wdrażania AI. Wczesny rozwój koncentrował się na bardzo wąskich zastosowaniach diagnostycznych, takich jak badanie obrazów pod kątem śladów raka skóry lub grzybów paznokci lub czytanie promieni rentgenowskich klatki piersiowej. Jednak nowsze wysiłki próbowały zdiagnozować wiele chorób jednocześnie.

W sierpniu 2018 r. Moorfields Eye Hospital w Wielkiej Brytanii i DeepMind. laboratorium AI z siedzibą w Londynie, należące do firmy macierzystej Google Alphabet, wykazało, że z powodzeniem przeszkolono system sztucznej inteligencji do rozpoznawania ponad 50 chorób oczu w skanach, co odpowiada wydajności wiodących ekspertów. Podobnie szerokie ambicje napędzały badania w San Diego i Kantonie, które szkoliły AI w diagnozowaniu typowych dolegliwości wśród dzieci. Ten ostatni nie był tak dobry w diagnozowaniu chorób pediatrycznych w porównaniu do starszych lekarzy, ale działał lepiej niż niektórzy młodsi lekarze.

Takie systemy AI mogą nie musieć przewyższać najlepszych ludzkich ekspertów, aby pomóc w demokratyzacji opieki zdrowotnej, ale po prostu poszerzyć dostęp do obecnych standardów medycznych. Cohen, jak dotąd, wiele proponowanych aplikacji AI koncentruje się na poprawie obecnego standardu opieki, a nie na rozpowszechnianiu niedrogiej opieki zdrowotnej, Cohen mówi: „Demokratyzacja tego, co już mamy, stanowiłoby o wiele większy zysk niż poprawa tego, co mamy wiele obszarów. ”

Accenture, firma konsultingowa, przewiduje, że najlepsze aplikacje AI mogą zaoszczędzić amerykańskiej gospodarce 150 miliardów dolarów rocznie do 2026 roku. Nie jest jednak jasne, czy skorzystaliby na tym pacjenci i systemy opieki zdrowotnej uzupełnione podatnikami, czy też więcej pieniędzy trafiłoby do firm technologicznych, świadczeniodawców opieki zdrowotnej i ubezpieczycieli.

„Pytanie, kto będzie tym kierował i kto za to zapłaci, jest ważnym pytaniem”, mówi Kohane. „Coś nieco halucynacyjnego w tych wszystkich biznesplanach polega na tym, że myślą, że wiedzą, jak to się uda.”

Kohane ostrzega, że ​​nawet jeśli służby AI wydają zalecenia dotyczące oszczędności kosztów, lekarze i organizacje opieki zdrowotnej mogą się wahać przed skorzystaniem z porad AI, jeśli w rezultacie przyniosą mniej pieniędzy. To przemawia do większego problemu systemowego amerykańskich ubezpieczycieli zdrowotnych stosujących model opłaty za usługę, który często nagradza lekarzy i szpitale za dodawanie testów i procedur medycznych, nawet gdy nie są one potrzebne.

***

Jest jeszcze jedna szansa na sztuczną inteligencję, która może poprawić jakość opieki, pozostawiając większość diagnoz medycznych w rękach lekarzy. W swojej książce Deep Medicine z 2019 roku Eric Topol, dyrektor i założyciel Scripps Research Translational Institute, mówi o stworzeniu zasadniczo doładowanego medycznego Siri - asystenta AI do robienia notatek na temat interakcji między lekarzami i ich pacjentami, wprowadzania tych notatek w elektronicznym zdrowiu zapisuje i przypomina lekarzom, aby zapytali o odpowiednie części historii pacjenta.

„Dążę do tego, aby dekompresować pracę lekarzy i pozbyć się roli urzędnika ds. Danych, pomóc pacjentom w podjęciu większej odpowiedzialności i uzupełnić dane, aby przeglądanie rzeczy nie trwało długo”, mówi Topol.

Ten „niezapominalny asystent medyczny lub pisarz”, mówi Kohane, wymagałby sztucznej inteligencji, która może automatycznie śledzić i transkrybować wiele głosów między lekarzami a pacjentami. Popiera pomysł Topola, ale dodaje, że większość aplikacji AI nie wydaje się być skoncentrowana na takich asystentach. Mimo to niektóre firmy, takie jak Saykara i DeepScribe, opracowały usługi zgodne z tymi wytycznymi, a nawet Google współpracowało z Uniwersytetem Stanforda w celu przetestowania podobnej technologii „cyfrowego pisarza”.

Asystent AI może wydawać się mniej ekscytujący niż lekarz AI, ale może uwolnić lekarzy od spędzania więcej czasu z pacjentami i poprawić ogólną jakość opieki. W szczególności lekarze rodzinni często spędzają ponad połowę swoich dni roboczych wprowadzając dane do elektronicznej dokumentacji medycznej - główny czynnik powodujący wypalenie fizyczne i emocjonalne, które ma tragiczne konsekwencje, w tym zgony pacjentów.

Jak na ironię, elektroniczna dokumentacja medyczna miała poprawić opiekę medyczną i obniżyć koszty poprzez zwiększenie dostępności informacji dla pacjentów. Teraz Topol i wielu innych ekspertów wskazało elektroniczne rekordy zdrowia jako przestrogę dla obecnego szumu wokół AI w medycynie i opiece zdrowotnej.

Wdrożenie elektronicznej dokumentacji medycznej stworzyło już patchworkowy system rozproszony wśród setek prywatnych dostawców, który z powodzeniem izoluje dane pacjentów i czyni je niedostępnymi zarówno dla lekarzy, jak i pacjentów. Jeśli historia jest jakimś przewodnikiem, wiele firm technologicznych i organizacji opieki zdrowotnej odczuje chęć podążania podobnymi ścieżkami poprzez gromadzenie danych medycznych dla własnych systemów AI.

Jednym z rozwiązań może być zastosowanie systemu kolektywnej inteligencji, który gromadzi i szereguje wiedzę medyczną z różnych źródeł, mówi Komarneni, który próbuje tego podejścia z Human Dx. Wspierany przez duże organizacje medyczne, takie jak American Medical Association, Human Dx stworzył platformę internetową dla porad crowdsourcingowych od tysięcy lekarzy na temat konkretnych przypadków medycznych. Komarneni ma nadzieję, że taka platforma może teoretycznie również kiedyś zawierać porady diagnostyczne z wielu różnych usług AI.

„W ten sam sposób, w jaki wielu ludzi może spojrzeć na twoją sprawę w przyszłości, nie ma powodu, dla którego wiele AI nie mogłoby tego zrobić”, mówi Komarneni.

Gdy lekarze czekają na pomocników AI, projekty crowdsourcingowe, takie jak Human Dx, „zdecydowanie mogą prowadzić do poprawy diagnostyki, a nawet ulepszenia zaleceń dotyczących terapii”, mówi Topol, który jest współautorem badania z 2018 r. Na podobnej platformie o nazwie Medscape Consult. W artykule stwierdzono, że zbiorowa ludzka inteligencja może być „konkurencyjną lub uzupełniającą się strategią” w stosunku do AI w medycynie.

Ale jeśli usługi AI przejdą wszystkie testy i kontrole w świecie rzeczywistym, mogą stać się znaczącymi partnerami dla ludzi w przekształcaniu nowoczesnej opieki zdrowotnej.

„Są rzeczy, których maszyny nigdy nie zrobią dobrze, a potem inne, w których przekroczą możliwości każdego człowieka”, mówi Topol. „Więc kiedy połączysz te dwa elementy, jest to bardzo potężny pakiet.”

***

Jeremy Hsu jest niezależnym dziennikarzem z siedzibą w Nowym Jorku. Często pisze o nauce i technologii m.in. dla Backchannel, IEEE Spectrum, Popular Science i Scientific American.

Ten artykuł został pierwotnie opublikowany w Undark. Przeczytaj oryginalny artykuł.

Czy sztuczna inteligencja poprawi opiekę zdrowotną dla wszystkich?