https://frosthead.com

Czy algorytm może diagnozować zapalenie płuc?

Zapalenie płuc stawia każdego roku w szpitalu milion dorosłych Amerykanów i zabija 50 000. Jeśli lekarz podejrzewa, że ​​pacjent ma zapalenie płuc, zwykle zleca prześwietlenie klatki piersiowej. Te promieniowanie rentgenowskie musi oczywiście interpretować lekarz. Ale teraz naukowcy ze Stanford opracowali algorytm, który według nich może lepiej diagnozować zapalenie płuc na promieniach rentgenowskich niż doświadczeni radiolodzy.

„Zaletą algorytmu jest to, że może on uczyć się od setek tysięcy zdjęć rentgenowskich klatki piersiowej i odpowiadających im diagnoz od innych ekspertów”, mówi Pranav Rajpurkar, absolwent Studium Machine Learning Group, który współprowadził badania. „Kiedy radiologowie mają kiedykolwiek okazję uczyć się na podstawie setek tysięcy diagnoz innych radiologów i znajdować wzorce na obrazach prowadzących do tych diagnoz?”

Algorytm, zwany CheXNet, może również zdiagnozować 13 innych schorzeń, w tym rozedmę płuc i odma opłucnowa (powietrze uwięzione między płucem a ścianą klatki piersiowej). Zespół zbudował algorytm przy użyciu publicznego zestawu danych z National Institutes of Health (NIH), który zawierał ponad 100 000 zdjęć rentgenowskich klatki piersiowej oznaczonych 14 możliwymi warunkami. Zestaw danych został wydany wraz z algorytmem wstępnej diagnozy, który NIH zachęcił innych badaczy do rozwoju.

Rajpurkar i jego inni członkowie Machine Learning Group postanowili podjąć wyzwanie. Badacze mieli czterech radiologów ze Stanford, którzy oznaczyli możliwe objawy zapalenia płuc na 420 zdjęć. Korzystając z tych danych, w ciągu tygodnia stworzyli algorytm, który może dokładnie zdiagnozować 10 stanów. W ciągu miesiąca algorytm mógł przewyższyć poprzednie algorytmy przy diagnozowaniu wszystkich 14 stanów. W tym momencie diagnozy CheXNet zgadzały się z większością opinii radiologów częściej niż z indywidualną opinią któregokolwiek radiologa.

Badanie zostało opublikowane w tym miesiącu na stronie z nadrukiem naukowym arXiv .

Ostatnio pojawiły się inne algorytmy diagnostyczne. Zespoły kanadyjski i włoski opracowały algorytmy diagnozowania choroby Alzheimera na podstawie skanów mózgu. Rozmieszczenie płytek w mózgu charakteryzujących chorobę jest zbyt subtelne dla gołego oka, ale naukowcy twierdzą, że technologia AI może wykryć nieprawidłowe wzorce. Rajpurkar i jego współpracownicy z Stanford's Machine Learning Group opracowali również algorytm do diagnozowania arytmii serca, analizując godziny danych z monitorów pracy serca. Inne algorytmy zapalenia płuc zostały opracowane na podstawie danych NIH, ale ten ze Stanford jest jak dotąd najdokładniejszy.

Zespół twierdzi, że CheXNet może być szczególnie pomocny w miejscach, w których ludzie nie mają łatwego dostępu do doświadczonych radiologów. Może być również przydatny jako rodzaj segregacji, identyfikujący, które przypadki mogą wymagać natychmiastowej pomocy, a które nie. Zespół opracował również narzędzie, które tworzy mapę potencjalnych wskaźników zapalenia płuc na zdjęciach rentgenowskich, dając przydatny wizualny przewodnik dla lekarzy.

Chociaż zespół jest optymistycznie nastawiony do możliwości diagnostycznych CheXNet, są ostrożni w kwestii jego ograniczeń.

„AI jest potężnym narzędziem, ale wymaga wieloletniego doświadczenia i wielu trudnych godzin, aby intuicyjnie posługiwać się nim, i równie trudno jest określić, gdzie możemy go użyć, aby uzyskać najbardziej pozytywny wpływ”, mówi Rajpurkar.

Chociaż opracowywanych jest wiele algorytmów dogłębnego uczenia się, żaden nie przeszedł jeszcze rygorystycznego procesu testowania i zatwierdzania niezbędnego do stosowania u prawdziwych pacjentów.

Paul Chang, profesor radiologii i wiceprezes wydziału radiologii na Uniwersytecie w Chicago, wydaje sceptyczną notatkę na temat CheXNet i podobnych programów głębokiego uczenia się. Lekarze już używają algorytmów do diagnozowania dowolnej liczby stanów, mówi Chang. Algorytmy te opierają się na gotowym modelu tego, jak wygląda stan: nowotwory są większe i ostrzejsze niż na przykład łagodne masy. Natomiast programy dogłębnego uczenia się mają na celu ustalenie, jakie cechy są znaczące same przez się, gromadząc ogromne ilości danych. Ale oznacza to również, że mogą brać złe wskazówki. Chang podaje przykład algorytmu głębokiego uczenia, który nauczył się różnicy między różnymi rodzajami promieni rentgenowskich: rękami, stopami, mammografami. Ale naukowcy odkryli, że program po prostu nauczył się rozpoznawać mammogramy przez fakt, że główny obraz znajdował się z boku filmu, a nie w środku (ponieważ piersi są przymocowane do ściany klatki piersiowej, pojawiają się na krawędzi filmu w obraz mammograficzny. Natomiast dłonie lub stopy pojawią się na środku zdjęcia rentgenowskiego). Algorytm nie nauczył się niczego istotnego o piersiach, tylko o ich pozycji na ekranie.

„To bardzo wczesne czasy”, mówi Chang, który zwraca uwagę, że wyniki CheXNet nie zostały poddane recenzji. „Głębokie uczenie się ma ogromny potencjał, ale my w medycynie i radiologii jesteśmy na wczesnym etapie cyklu szumu, ale adopcja trwa dłużej. Nauczymy się, jak je właściwie spożywać ”.

Czy algorytm może diagnozować zapalenie płuc?