Marianna Lach, Rynek Zdrowia: "To zupełnie oczywiste, że powinniśmy już przestać szkolić radiologów" – powiedział w 2016 r. uważany za jednefgo z ojców sztucznej inteligencji (AI) Geoffrey Hinton. Co pan na to?
Dr Przemysław Czuma*: „Bo są owi radiolodzy jak ten kojot z bajki o strusiu-pędziwiatrze, który już wisi nad przepaścią, ale jeszcze nie spojrzał w dół.” Nawiasem mówiąc, uwielbiałem tę kreskówkę (śmiech).
Tak, to wypowiedź, która wzbudziła wiele kontrowersji i przeszła już do historii sztucznej inteligencji. Szczególnie, że została wypowiedziana przez osobę uważaną za jednego z "rodziców" tej dziedziny. Dla sprawiedliwości należy dodać, iż późnej Hinton wycofywał się z tych słów. Niezależnie jednak od jego zmiennego zdania, należy zauważyć, iż gdybyśmy posłuchali tej rady i rzeczywiście od siedmiu lat zaprzestali szkolić nowych specjalistów w zakresie radiologii, opieka zdrowotna byłaby obecnie w niezłej kropce.
Z jednej strony analiza obrazów radiologicznych z pomocą AI rzeczywiście jest polem niezwykle dynamicznego rozwoju, choć ostatnio nieco przyćmionego przez duże modele językowe, z drugiej jednak, nie zapowiada się, by w przewidywalnej przyszłości należałoby zaprzestać szkolenia radiologów.
Myślę, że gdyby Geoffrey Hinton choć raz odwiedził pracownię radiologiczną i zapoznał się z pracą lekarza, prawdopodobnie nigdy nie wyartykułowałby wspomnianej wypowiedzi.
Właśnie dlatego tak ważne jest porozumienie ludzi pracujących nad sztuczną inteligencją. Polskie Stowarzyszenie Sztuczna Inteligencja w Medycynie - PSSIM, którego jestem organizatorem, wzięło sobie za cel współpracę różnych środowisk zainteresowanych wykorzystaniem nowych technologii cyfrowych dla poprawy ludzkiego zdrowia, w tym przede wszystkim AI.
RZ: Zatem radiolog w niedalekiej przyszłości to kojot czy struś pędziwiatr?
P.Cz.: To trafne pytanie i obserwacja zarazem. Nie ma wątpliwości, iż uczenie maszynowe zrewolucjonizuje wiele aspektów naszego życia, w tym także sektor ochrony zdrowia. Dziedziny medycyny, których ważną częścią jest analiza obrazów takie jak radiologia, kardiologia czy dermatologia, z dużą dozą prawdopodobieństwa w najbliższym czasie będą podlegać znacznym przeobrażeniom.
Zastanawiając się, w jaki sposób wpłynie ta zmiana na ludzką pracę, warto sięgać do przykładów z przeszłości, która chętnie ich dostarcza, jeśli tylko poszukać. W latach osiemdziesiątych na przykład na szerszą skalę zaczęto stosować bankomaty.
Wielu analityków wróżyło wtedy kryzys na finansowym rynku pracy, przypuszczając, iż maszyny wyprą „człowieka z okienka". Rzeczywistość dość szybko skorygowała te złowieszcze wizje - w kolejnych dekadach liczba zatrudnionych w sektorze finansowym wzrosła kilkukrotnie. Nie wiem, czy to dla ludzkości dobrze (śmiech), ale to przykład, jak trudno trafnie przewidzieć nawet dość nieodległą przyszłość.
Mając na uwadze uwagi Nicholasa Taleba, iż snucie wizji przyszłości ma ograniczony sens, bardziej przychylam się do zdania, iż w perspektywie najbliższej dekady dojdzie do znacznej poprawy wydajności w zakresie diagnostyki obrazowej właśnie dzięki sztucznej inteligencji, a co za tym idzie również pracy radiologa. Ale to nie AI zastąpi lekarza, a raczej lekarz, który pracuje z jej pomocą, zastąpi tego, który tego nie robi, stanowiąc duet bliższy strusiowi niż kojotowi.
Musimy być świadomi ograniczeń porównywania obecnej rewolucji cyfrowej do rewolucji przemysłowych z przeszłości. Jeśli weźmiemy maszyny tkackie, czy wspomniane bankomaty, widzimy, że zastępowały one ludzi w zadaniach nie wymagających zbyt dużego zaangażowania "umysłowego". Można powiedzieć, że człowiek z tamtych czasów zawsze miał w zanadrzu coś unikalnego i niepowtarzalnego w przyrodzie - inteligencję.
Pytanie: co zostanie dla człowieka, jeśli maszyny przegonią go nie tylko pod względem siły fizycznej, ale i zdolności intelektualnych jest niezwykle ciekawe. Być może odpowiedzią jest nie konkurencja, a symbioza człowiek-robot-AI wzmacniająca wszystkie aspekty naszych ludzkich możliwości, jak postulował futurysta Ray Kurzweil - to fascynujący filozoficzny temat na osobną dyskusję.
Ewolucja AI w radiologii. Do czego zmierzamy?
RZ: Jakie są kierunki ewolucji sztucznej inteligencji w radiologii?
P. Cz.: Po pierwsze warto dostrzec i być może docenić, iż jesteśmy w niezwykle ciekawym momencie historii. Zastosowania uczenia maszynowego dotychczas jedynie teoretyczne, czy "akademickie", o których widzieliśmy od pewnego czasu, iż są możliwe i wykonalne, wkraczają w fazę zastosowań praktycznych.
Na poparcie tej tezy dysponujemy obiektywnymi dowodami. Świadczy o tym choćby liczba rejestracji urządzeń medycznych wykorzystujących sztuczną inteligencję przez amerykańską Agencję Żywności i Leków - FDA. Otóż w ostatnich trzech latach ta liczba przewyższyła liczbę wszystkich rejestracji z poprzedzających prawie trzydziestu lat.
Można bez jakiejś emfazy mówić o eksplozji wdrożeniowej AI, przynajmniej na rynku amerykańskim. Większość z tych rejestracji dotyczy właśnie diagnostyki obrazowej. Na pierwszy plan wysuwają się przykuwające ogólną uwagę systemy wspomagania decyzji klinicznych, które oferują, przynajmniej do pewnego stopnia, zautomatyzowaną diagnozę.
W ramach Polskiego Stowarzyszenie "Sztuczna Inteligencja w Medycynie" pod przewodnictwem znakomitego specjalisty AI, Marcina Szeligi pracujemy nad projektem rozpoznawania pewnych trudnych czasem do wykrycia złamań kości w obrębie nadgarstka.
Ciekawym, choć może mniej spektakularnym kierunkiem wspomagania pracy radiologa są algorytmy optymalizujące cyfrowy obraz, tak by był lepiej interpretowalny dla ludzkiego oka. Stwarza to możliwość nie tylko poprawy skuteczności diagnostycznej lekarza, ale i zmniejszenia dawkę szkodliwego promieniowania pochłanianą przez pacjenta.
Oczywiście istnieje też mnóstwo na pierwszy rzut oka mniej oczywistych dróg wykorzystania sztucznej inteligencji w radiologii, podobnie jak w wielu innych działach medycyny, takich jak poprawa przepływu pacjentów poprzez zautomatyzowane kolejkowanie czy rejestracja wyników badań z użyciem rozpoznawania mowy itd.
RZ: Czy pandemia wpłynęła na rozwój narzędzi AI w radiologii? Co zmieniła?
P. Cz.: Zdecydowanie! Niewiele pozytywnych rzeczy można powiedzieć o tym, co przeszliśmy podczas pandemii, ale trudno negować jej pozytywny wpływ na rozwój wszelkich technologii cyfrowych, nie wyłączając AI.
Radiologiczna sztuczna inteligencja z racji dysponowania narzędziami ułatwiającymi diagnostykę COVID-19 znalazła się wśród "beneficjentów" tych trudnych czasów. Wiele wysiłku i środków skierowano wówczas na rozwój tej dziedziny, co procentuje i będzie procentować jeszcze długo w przyszłości. Myślę, że to nie przypadek, iż początek wspomnianej przeze mnie przed chwilą "eksplozji wdrożeniowej" praktycznych zastosowań AI w radiologii przypada właśnie na koniec okresu pandemii.
Widzę też jednak i drugą stronę tej sytuacji, która uświadamia, że droga od innowacyjnego pomysłu do implementacji w życiu codziennym nowych technologii w medycynie jest długa i wyboista. Mimo intensywnych prac na całym świecie i pojawienia się wielu interesujących rozwiązań, w tym także ogólnie dostępnych on-line np. do analizy RTG płuc zajętych w przebiegu infekcji, żadne z nich nie znalazło aprobaty profesjonalistów i nie weszło do powszechnego użytku w pracowniach diagnostycznych.
To ciekawy materiał do "analizy myślowej” przyczyn takiego stanu rzeczy, wśród których na pewno znajdzie się niedojrzałość sztucznej inteligencji jako innowacji cyfrowej. Z ciekawością śledzę badania naukowe w tym zakresie, w których okazuje się, że nawet taki „drobiazg” jak sposób prezentacji na ekranie podpowiedzi generowanych przez AI może mieć wpływ na akceptację nowej technologii przez lekarzy.
AI w medycynie: czy to się opłaca?
RZ: Jak to wygląda od strony kosztowej. Czy AI w radiologii: to się nam opłaca? Skąd wynikają ewentualne oszczędności?
P. Cz.: Poruszyła pani bardzo ciekawy problem. Panuje powszechne przekonanie oparte zdaje się głównie na intuicji, iż jednym z głównych atrybutów zastosowania sztucznej inteligencji w opiece zdrowotnej i nie tylko, będzie oprócz poprawy efektywności, znaczna redukcja kosztów.
Mówię w tym wypadku dość przewrotnie o intuicji, choć w zasadzie chodzi bardziej o uogólnienie myślowe, które każe nam przypuszczać, iż automatyzacja umożliwiająca wykonanie nie dziesięciu, a stu zadań w jednostce czasu oraz zastąpienie człowieka z całą tą jego chimeryczną omyłkowością generujacą koszty, przyniesie oszczędności.
Jeśli spojrzymy jednak na to zagadnienie od strony naukowej, to okazuje się, że w zasadzie nie ma jeszcze obiektywnych dowodów opartych na szerszych danych na temat jednoznacznych finansowych korzyści wdrażania sztucznej inteligencji.
Dopiero całkiem niedawno ukazała się praca poruszająca ów temat, dotycząca zresztą, o ile pamiętam, właśnie radiologii. Jej autorzy, którzy przypisują sobie pierwszeństwo w dziedzinie analizy skuteczności finansowej AI w medycynie, na modelu, stworzonym na potrzeby badania dowodzą, iż technologia ta ma potencjał przyniesienia ogromnych oszczędności finansowych.
Jednak chciałbym zaznaczyć, iż jako lekarz, fan filozofii i futurologii, a przede wszystkim człowiek, nie umniejszając trafności i istotności analizom ekonomicznym, rachunek korzyści i strat wynikających z "zatrudnienia" AI powinien być rozpatrywany w daleko szerszych horyzontach, uwzględniających między innymi uwarunkowania psycho-społeczne, i to nie tylko w medycynie.
A naprawdę jest się nad czym zastanawiać - niewątpliwie czekają nas gwałtowne zmiany: w skali makro na rynku pracy, w dostępie do informacji, czy poznawaniu niezbadanych dotychczas aspektów świata i człowieczeństwa, które odkryjemy dzięki sztucznej inteligencji - ważne jest byśmy również te czynniki brali pod uwagę, myśląc o tym, co dla ludzkości korzystne lub nie.
Przykładów na potencjalnie radykalny wpływ AI na pewne dziedziny życia nie musimy szukać daleko. Jeszcze niedawno wydawało się, że ogólnie pojęta sztuka pozostanie na długo dziedziną wyłącznie "ludzką", a algorytmy zajmą się mniej kreatywnymi zajęciami. Tymczasem sieć właśnie zalewają obrazy - owoce "twórczości" sztucznej inteligencji takiej jak Midjourney, czy Dall E. Oczywiście trudno uznać je za "dzieła sztuki", jako iż jest to wytwór "nieludzki". Jednak równie trudno negować fakt, że dostarczają one często bardzo korzystnych wrażeń estetycznych zupełnie jak te "prawdziwe" dzieła stworzone wyłącznie przez człowieka.
Odsuwając na bok dyskusję, co jest sztuką, a co nie, niewątpliwie zapotrzebowanie na usługi "artystyczne", takie jak ilustracje do książek dla dzieci, fotografie ilustrujące materiały prasowe, czy projekty przedmiotów użytkowych będą w sporej części zaspakajane przez algorytmy, co przynajmniej w krótkim terminie z pewnością nie wpłynie korzystnie na jakość zawodowego życia osób, które dotychczas zajmowały się tego rodzaju usługami: artystów-plastyków, fotografów, ilustratorów, projektantów itd. Podobne przemiany w mniejszym lub większym stopniu prawdopodobnie czekają inne pola ludzkiej kreatywności jak muzyka, literatura, film.
RZ: Sprawa czarnej skrzynki AI: jak rozumieć odpowiedzialność radiologa korzystającego z narzędzi AI?
P. Cz.: "Czarna skrzynka", czyli w skrócie brak możliwości wytłumaczenia, dlaczego osiągnięto dany rezultat, wprowadzając do systemu określone dane to rzeczywiście jeden z tematów, który obecnie jest na cyfrowym świeczniku. Ten nasz brak wiedzy jest szczególnie istotny w medycynie, gdzie od jednej decyzji może zależeć ludzkie zdrowie lub życie.
Można unaocznić owo zagadnienie z pomocą sytuacji opisanej w jednej z niedawnych publikacji dotyczących "czarnej skrzynki". Otóż wyobraźmy sobie, iż lekarz informuje pacjenta: "Prawdopodobieństwo rozwoju nowotworu u Pani/Pana w najbliższym roku wynosi 70 procent. Musimy działać!". Pacjent na to: "Na jakich przesłankach opiera Pan tę informację?”. Lekarz wzrusza ramionami: "Nie mam pojęcia".
Z jednej strony, starając się zachować obiektywizm, stosowanie metod, których działania do końca nie rozumiemy, nie jest w medycynie rzeczą nową. Od zawsze jako lekarze musieliśmy się godzić na pewien stopień niepewności i niewiedzy. Wystarczy wspomnieć tu aplikowany pacjentom na przeróżne schorzenia od ponad stu lat kwas acetylosalicylowy, czyli popularną aspirynę.
Mechanizm jego działania został poznany długo po pierwszym zastosowaniu. Zaryzykowałbym też twierdzenie, że aparat rezonansu magnetycznego pozostaje „czarną, magiczną skrzynką” o niejasnym działaniu dla wielu pacjentów i sporego odsetka lekarzy (śmiech).
Z drugiej jednak strony bodaj pierwszy raz w historii ludzkości mamy do czynienia z sytuacją, w której nawet twórca nie potrafi uzasadnić, dlaczego narzędzie, które opracował, podało taki, a nie inny wynik. Co więcej, w zasadzie można przyjąć, iż całkowite zrozumienie temu twórcy, a także innym wybitnym umysłom nigdy nie będzie w pełni dostępne, gdyż narzędzie jest po prostu zbyt skomplikowane, by podległo poznaniu przez ludzkie szare komórki.
W naukowym świecie toczy się aktualnie debata, czy i na ile można stosować metody, których wyników nie potrafimy do końca uzasadnić oraz czy da się tę sytuację poprawić stojąc na przykład uproszczone wyjaśnienia, które będziemy w stanie pojąć.
To niezwykle ciekawa dyskusja, jeśli zdamy sobie sprawę, iż kształtuje ona, przynajmniej w pewnym stopniu, przyszłość ludzkości. Całkiem niedawno pojawił się na przykład postulat, iż priorytetem w dopuszczeniu sztucznej inteligencji do stosowania w sytuacjach, gdy może chodzić o krytyczne decyzje dotyczące zdrowia, powinna być nie skuteczność algorytmu, a właśnie możliwość zrozumienia i wytłumaczenia jego decyzji. Brzmi to sensownie, niemiej jednocześnie nasuwają się mi futurystyczne wizje czarnego rynku, gdzie będzie można skorzystać ze skuteczniejszych, choć niepojmowalnych AI, czyli rzeczywistość rodem z cyberpunku...
A poważniej: na fali podobnych wątpliwości wyodrębnia się nowa gałąź sztucznej inteligencji zajmująca się zagadnieniem „wyjaśnialności” algorytmów, nazwana Explainable AI, czyli w skrócie XAI. Dzięki temu powoli krystalizują się zasady i metody, które mają nam zapewnić większą przejrzystość sztucznej inteligencji, a co za tym idzie ułatwią również ustalanie odpowiedzialności, której dotyczyło pytanie.
W świetle przepisów prawa to lekarz odpowiada za leczenie pacjenta, niezależnie jaką nową technologię stosuje i to on ponosi za ten proces odpowiedzialność. Niemniej, można sobie wyobrazić sytuację, gdy narzędzie, z którego lekarz korzystał w dobrej wierze, nieprawidłowo zadziała np. z winy niedopatrzenia producenta.
Obszar prawnych aspektów stosowania sztucznej inteligencji jest obecnie intensywnie regulowany na łonie Unii Europejskiej. Mam nadzieję, iż również w Polsce doczekamy się na tyle jasnych przepisów, na ile to możliwe; przepisów, które z jednej strony będą chronić dobro interesariuszy procesu leczniczego, w tym przede wszystkim pacjentów, ale i lekarzy, z drugiej - pomogą producentom przygotowywać i wdrażać bezpieczne aplikacje, nie paraliżując postępu.
Algorytmy w radiologii. Są zagrożenia
RZ: Gdzie tkwią zagrożenia stosowania algorytmów AI w radiologii? Jak je wyeliminować?
P. Cz.: O jednym dotyczącym trudności z uzasadnieniem decyzji oraz ustaleniem odpowiedzialności już odrobinę powiedzieliśmy. Oczywiście to nie jedyne zagrożenie, związane ze sztuczną inteligencją. Od kilku lat wiele mówi się o "stronniczości" AI. Chodzi o sytuacje, podczas których algorytmy wykazują się np. inną skutecznością w określonych populacjach różniących się np. płcią, pochodzeniem etnicznym czy wiekiem.
Znany jest przykład, gdy algorytm rozpoznający zmiany patologiczne na zdjęciach RTG płuc był skuteczniejszy w badaniu mężczyzn. Przyczyna takiej sytuacji najczęściej leży w danych wykorzystanych do uczenia sztucznej inteligencji. Jeśli będą one obarczone błędem systematycznym, jeśli nie będą reprezentatywne dla populacji, w której aplikacja ma być wykorzystywana, należy się spodziewać stronniczości.
Dlatego tak ważne jest wykorzystywanie wysokiej jakości danych, gdyż przekłada się to bezpośrednio na jakość algorytmów. To niezbędny element uczenia maszynowego. Im więcej danych będzie, im będą dokładniejsze, tym ogólnie rzecz biorąc lepiej. Tu jednak dochodzimy dość płynnie do kolejnego niebezpieczeństwa związanego ze sztuczną inteligencją.
Zbieramy i przechowujemy coraz większe ilości danych między innymi na potrzeby uczenia algorytmów, to jednak budzi uzasadnione obawy dotyczące bezpieczeństwa ich wykorzsytania, a naszej prywatności i to zarówno ze strony hakerskiej jak i, nazwijmy to: korporacyjnej.
RZ: Najnowsze doniesienia o SI w radiologii. Co warto nagłaśniać, co jest naszą nieodzowną przyszłością?
P. Cz.: Staram się śledzić na bieżąco doniesienia ze świata medycznej sztucznej inteligencji. Nie jest to proste, między innymi z racji niemal logarytmicznego wzrostu publikacji naukowych w ostatnich kilku latach.
Co interesujące: jeszcze rok, dwa lata temu dominowały doniesienia, zwykle dość „techniczne”, o możliwości zastosowania konkretnego rozwiązania w określonej, zwykle dość wiąskiej „działce” tej, czy innej specjalizacji. Na przykład do klasyfikacji określonych złamań kości czy rozpoznawania specyficznej patologii w obrębie danego obszaru ludzkiego ciała.
Od pewnego czasu, widać, iż spektrum analizowania użycia sztucznej inteligencji poszerza się wyraźnie. Ostatnio dość dużo miejsca poświęca się choćby interakcji algorytmy-końcowy użytkownik, w tym również wspomnianej już „wyjaśnialności”.
Całkiem niedawno natomiast „zapanowała moda” na badania sprawdzające, czy AI jest w stanie „zdać” jakieś z elementów egzaminów, których poddawani są lekarze lub studenci medycyny. Nie dalej jak kilka tygodni temu ukazała się ciekawa praca badająca, czy pewne komercyjne dostępne oprogramowanie AI jest w stanie zdać egzamin na brytyjskiego radiologa.
I choć sztuczna inteligencja nie przewyższyła większości radiologów, zaliczyła jedynie dwa z dziesięciu testów, które je przedstawiono, to jednak jej dokładność była stosunkowo wysoka, biorąc pod uwagę różnorodność przypadków i ich złożoność - jak podsumowali sami autorzy publikacji.
Inne doniesienie ujawniło z kolei, iż ludzcy radiolodzy w razie wątpliwości diagnostycznych chętniej sięgają po „opinie” sztucznej inteligencji niż kolegi po fachu z krwi i kości, co rozwija przed nami cały wachlarz fascynujących pytań, z których część sięgnie zapewne istoty tego, czego spodziewamy się po innym człowieku (śmiech). Ale to zagadnienie zbyt rozległe, by je rozpoczynać, nie chcąc zbaczać istotnie z tematu.
Tak, czy inaczej wszystkich zainteresowanych dyskusją o wykorzystaniu AI w opiece zdrowotnej zapraszam przede wszystkim do współpracy, ale i obserwowania mediów społecznościowych Polskiego Stowarzyszenia „Sztuczna Inteligencja w Medycynie”, gdzie staramy się publikować najnowsze interesujące wieści z tej dziedziny.
*Dr Przemysław Czuma: chirurg; specjalista ortopedii i traumatologii, zajmujący się m.in. endoprotezoplastyką stawów z wykorzystaniem najnowszych osiągnięć implantologii oraz rekonstrukcją skomplikowanego mechanizmu stopy ludzkiej. Pomysłodawca, założyciel i organizator Polskiego Stowarzyszenia "Sztuczna Inteligencja w Medycynie" - platformy porozumienia różnych środowisk zainteresowanych rozwojem medycznej AI (www: inteligencja.org.pl). Absolwent MBA w ochronie zdrowia na Politechnice Śląskiej, gdzie obronił pracę dyplomową "Bariery w wdrażaniu sztucznej inteligencji w sektorze ochrony zdrowia"; aktywny uczestnik i prelegent wielu konferencji i wydarzeń medycznych w tym dotyczących wdrażania nowych technologii i sztucznej inteligencji. Futurysta, wielbiciel prozy Stanisława Lema i umiarkowany zwolennik hipotezy symulacji, publikował na te tematy w "Filozofuj!" - ogólnopolskim periodyku filozoficznym.
czuma.png
Materiał chroniony prawem autorskim - zasady przedruków określa regulamin.
Dowiedz się więcej na temat: