Szef największego szpitala w USA chce zastąpić radiologów AI

Wizja pełnej automatyzacji medycyny przez sztuczną inteligencję zyskuje coraz bardziej wpływowych orędowników. Niedługo po największym w historii Nowego Jorku strajku pielęgniarek, szef największego publicznego systemu szpitalnego w Stanach Zjednoczonych przedstawił śmiałą koncepcję przyszłości, w której to AI, a nie ludzcy specjaliści, analizuje i diagnozuje zdjęcia rentgenowskie. Ta deklaracja wywołała burzliwą dyskusję na temat gotowości technologii, bezpieczeństwa pacjentów i etyki redukcji kosztów w ochronie zdrowia.

Wizja administracji: AI jako źródło „znacznych oszczędności”

Podczas panelu dyskusyjnego zorganizowanego przez Crain’s New York Business, Mitchell Katz, prezes i dyrektor generalny nowojorskiej korporacji NYC Health and Hospitals, zarządzającej 11 publicznymi szpitalami, otwarcie mówił o swoim pragnieniu zastąpienia wysoko wykwalifikowanych ekspertów radiologii przez wizyjne modele językowe (Visual Language Models). Jego zdaniem, technologia jest już na to gotowa, a główną przeszkodą pozostają wyzwania regulacyjne.

Automatyzacja badań przesiewowych

Katz podał konkretny przykład z obszaru opieki nad kobietami: automatyzację badań mammograficznych w kierunku raka piersi. W jego koncepcji systemy sztucznej inteligencji przeprowadzałyby wstępną analizę wszystkich badań. Ludzki radiolog zostałby zaangażowany dopiero w momencie, gdy algorytm oznaczy wynik jako nieprawidłowy. To właśnie takie odsunięcie specjalisty od rutynowych, prawidłowych przypadków miałoby, według prezesa, przynieść instytucjom ochrony zdrowia „znaczne oszczędności”.

„W tej chwili moglibyśmy zastąpić sporą część radiologów sztuczną inteligencją, jeśli jesteśmy gotowi podjąć wyzwanie regulacyjne” – stwierdził Mitchell Katz.

Głos środowiska medycznego: „Niebezpieczeństwo dla pacjentów”

Wypowiedź wysokiego rangą menedżera spotkała się z ostrą i stanowczą reakcją ze strony praktykujących radiologów. Mohammed Suhail, radiolog z North Coast Imaging w San Diego, skomentował, że takie deklaracje są „niepodważalnym dowodem” na to, jak niebezpieczni dla pacjentów mogą być „pewni swojej wiedzy, a jednocześnie niepoinformowani administratorzy szpitali”. Jego zdaniem, menedżerowie ci dają się z łatwością „zwieść firmom AI”, których produkty nie są jeszcze w żaden sposób zdolne do samodzielnego sprawowania opieki nad chorymi.

Ryzyko błędów i etyka oszczędności

Suhail nie pozostawił wątpliwości co do potencjalnych konsekwencji. Jak stwierdził, każda próba wdrożenia systemu, w którym AI dokonuje samodzielnych interpretacji, „natychmiast skutkowałaby szkodą dla pacjenta, a nawet śmiercią”. Dodał również gorzki komentarz na temat priorytetów instytucji: „W pewnym sensie mają rację: szpitale są gotowe ciąć koszty, nawet jeśli oznacza to szkodę dla pacjenta, byle tylko było to legalne”. Ta wypowiedź dotyka sedna obaw wielu pracowników służby zdrowia – czy w wyścigu o efektywność ekonomiczną nie zagubimy podstawowej misji medycyny, jaką jest dobro pacjenta.

„Każda próba wdrożenia samodzielnych odczytów przez AI natychmiast skutkowałaby szkodą dla pacjenta i śmiercią. Tylko ktoś z zerowym zrozumieniem radiologii mógłby powiedzieć coś tak naiwnego” – ocenia radiolog Mohammed Suhail.

Miraż AI: Kiedy przekonująca diagnoza nie ma podstaw

Obawy lekarzy znajdują potwierdzenie w najnowszych badaniach naukowych. Rosnąca liczba publikacji sugeruje, że ślepe zaufanie do AI w gabinecie rentgenowskim może być katastrofą w zawieszeniu. Szczególnie niepokojące są wyniki badania naukowców ze Stanford University (jeszcze niepoddanego recenzji), które ujawniły nowy, podstępny rodzaj błędu systemów AI.

Epistemiczne naśladownictwo

Badacze odkryli, że zaawansowane narzędzia do analizy zdjęć klatki piersiowej, zbudowane na czołowych modelach AI, są w stanie uzyskać doskonałe wyniki w testach medycznych… bez oglądania prawdziwych obrazów RTG. Zamiast przyznać, że brakuje im kluczowych danych, najlepiej oceniane systemy uciekają się do czegoś w rodzaju taniej sztuczki: konstruują rozbudowane, logicznie brzmiące wyjaśnienia dla „odkryć” na zdjęciach, do których w rzeczywistości nigdy nie miały dostępu.

Czym jest „miraż” sztucznej inteligencji?

Sytuacja ta wykracza poza znane nam halucynacje generatywnej AI. Naukowcy określają ją mianem „mirażu” AI. W przeciwieństwie do przypadkowych lub absurdalnych błędów, miraż jest niezwykle racjonalny i spójny od początku do końca. Problem polega na tym, że cała ta logiczna konstrukcja nie jest oparta na żadnych rzeczywistych danych wizualnych. Oznacza to, że standardowe zabezpieczenia mające wykrywać halucynacje mogą być wobec takiego mirażu całkowicie bezradne. Model doskonale symuluje cały proces percepcyjny i wnioskowania, który prowadziłby do diagnozy, ale robi to w oderwaniu od obrazu.

To odkrycie ma kolosalne znaczenie dla każdej placówki medycznej rozważającej cięcia w dziale radiologii dzięki AI. Potwierdza wcześniejsze doniesienia, że wizyjne modele językowe mogą być funkcjonalnie „ślepe” w kluczowych zastosowaniach, a jednocześnie niezwykle przekonujące w generowaniu fałszywej pewności siebie.

Balans między innowacją a odpowiedzialnością

Dyskusja zapoczątkowana przez prezesa Katza odsłania głęboki konflikt na styku technologii, ekonomii i etyki medycyny. Z jednej strony stoją wizjonerzy i administratorzy widzący w AI niezaprzeczalny potencjał do usprawnienia przepływów pracy i obniżenia kosztów funkcjonowania przeciążonych systemów ochrony zdrowia. Z drugiej strony praktykujący lekarze i naukowcy wskazują na fundamentalne luki w niezawodności i transparentności obecnych modeli, których konsekwencją może być realna krzywda pacjentów.

Przypadek ten jasno pokazuje, że droga do sensownej i bezpiecznej integracji sztucznej inteligencji w diagnostyce obrazowej jest jeszcze długa. Wymagać będzie nie tylko pokonania wyzwań technicznych, takich jak miraże AI, ale także wypracowania nowych, solidnych ram regulacyjnych, standardów walidacji oraz – co być może najtrudniejsze – zmiany mentalności. Innowacja nie może być napędzana wyłącznie logiką cięcia kosztów, lecz musi być podporządkowana nadrzędnej zasadzie primum non nocere – po pierwsze, nie szkodzić. Decydenci w sektorze zdrowia stoją przed wyborem: czy potraktować AI jako narzędzie wspomagające i odciążające specjalistów, czy jako ich zamiennik. Na razie dowody naukowe i głos środowiska medycznego wyraźnie wskazują na tę pierwszą, ostrożniejszą ścieżkę.

Źródło