Serwis Naukowy UWSerwis Naukowy UWSerwis Naukowy UW
  • HUMANISTYCZNE
  • SPOŁECZNE
  • ŚCISŁE i PRZYRODNICZE
  • Wykorzystanie treści
Serwis Naukowy UWSerwis Naukowy UW
  • HUMANISTYCZNE
  • SPOŁECZNE
  • ŚCISŁE i PRZYRODNICZE
  • Wykorzystanie treści
Obserwuj nas
Copyright © 2024 Uniwersytet Warszawski
Strona główna » Artykuły » Jak sztuczna inteligencja widzi płuca? I czy można jej zaufać?
matematyka

Jak sztuczna inteligencja widzi płuca? I czy można jej zaufać?

„Świetne pytanie. Masz doskonałą intuicję. Już tłumaczę krok po kroku” – tak zaczyna wiele rozmów sztuczna inteligencja. Uprzejma, pomocna, szybka. Trudno jej nie ufać. Ale w medycynie pochopne zaufanie może kosztować czyjeś życie. Dlatego naukowcy z Uniwersytetu Warszawskiego postanowili nauczyć algorytmy nie tylko odpowiadać, ale też tłumaczyć, skąd wzięła się ich diagnoza. I czy na pewno można na niej polegać.

Ostatnio zaktualizowany: 2025/12/14
10/12/2025
12 Min czytania
006.
W diagnostyce obrazowej zdjęć rentgenowskich czy tomografii nie wystarczy, że system wskaże „potencjalnie nowotworową zmianę”. Ważne jest, dlaczego dany fragment obrazu go zaniepokoił. Fot. Tree /Pngtree
Udostępnij

Jeszcze kilkanaście lat temu historie o komputerach analizujących zdjęcia tomografii komputerowej i rozpoznających choroby szybciej od człowieka wydawały się fantastyką. Dziś algorytmy uczenia maszynowego pozwalają radiologom wykrywać zmiany nowotworowe, a kardiologom przewidywać ryzyko zawału. Sztuczna inteligencja staje się narzędziem diagnostycznym wspomagającym podjęcie decyzji, od której zależy życie i zdrowie pacjenta. Takie narzędzie musi jednak spełnić pewien kluczowy warunek: być zrozumiałe i budzić zaufanie. Ale jak to osiągnąć?

Tematem sztucznej inteligencji w badaniach przesiewowych zajął się zespół badaczy z UW – między innymi prof. dr hab. inż. Przemysław Biecek oraz Bartłomiej Sobieski, doktorant Wydziału Matematyki, Informatyki i Mechaniki UW – we współpracy m.in. z Harvard Medical School.

Godna zaufania sztuczna inteligencja

Algorytmy sztucznej inteligencji mogłyby wspierać lekarzy przy diagnozowaniu, pozwalając im zaoszczędzić cenny czas. Jednak lekarz, który nie wie, jak rozumuje sztuczna inteligencja, będzie musiał przyjąć jej wskazania na wiarę. Spotka się to z oporem doświadczonych specjalistów, którzy bez wiedzy o procesie rozumowania narzędzia najprawdopodobniej mu nie zaufają.

– Mamy wiele przykładów z życia. Współpracowaliśmy z Europejską Agencją Kosmiczną. Okazało się, że inżynier misji, człowiek po doktoracie z fizyki, 20 lat doświadczenia, niespecjalnie chce używać czarnej skrzynki*, która będzie mu mówiła: działa, nie działa, przyciśnij przycisk. On chce mieć lepsze zrozumienie, co się pod spodem dzieje, żeby móc sprawnie działać i funkcjonować. Bo to od niego naprawdę zależy powodzenie lotu, więc musi mieć przekonanie, że to wszystko funkcjonuje – zauważa prof. Biecek.

W diagnostyce obrazowej zdjęć rentgenowskich czy tomografii nie wystarczy, że system wskaże „potencjalnie nowotworową zmianę”. Ważne jest, dlaczego dany fragment obrazu go zaniepokoił – czy model rzeczywiście uczy się rozpoznawać objawy chorób, czy może reaguje na przypadkowe elementy (np. rozmieszczenie elektrod czy cień aparatu). Musimy zrozumieć, dlaczego algorytm podejmuje określone decyzje, szczególnie że czasem może wprowadzić daleko idące i nieoczekiwane zmiany.

– My potrzebujemy narzędzi, żeby ktoś mógł zrozumieć, dlaczego algorytm nie działa i jak go poprawić, oraz co zmienić, aby był bardziej sprawny i bezpieczny. Pracujemy nad tym, żeby specjaliści mieli takie narzędzia analizy modeli, bo dzisiaj nie mają – komentuje prof. Biecek.

Właśnie tu przychodzi z pomocą tzw. wyjaśnialna sztuczna inteligencja (Explainable AI, XAI).

– Wyjaśnialna sztuczna inteligencja to dziedzina, której celem nie jest rozwój samych modeli sztucznej inteligencji, ale rozwój technik, które pozwalają budować zaufanie do modeli sztucznej inteligencji u człowieka – tłumaczy Sobieski.

Tyle teoria. A co naukowcy stworzyli w praktyce?

xLungs, czyli sto tysięcy zdjęć

W latach 2021–2025 naukowcy UW pracowali nad projektem xLungs (pełna nazwa: „Godna zaufania sztuczna inteligencja wspierająca identyfikację zmian chorobowych w płucach na bazie danych obrazowych”). Ten oparty na sztucznej inteligencji system do analizy obrazów tomografii komputerowej klatki piersiowej trenowano na niemal stu tysiącach badań tomografii komputerowej z lat 2010–2018 od niemal czterdziestu tysięcy polskich pacjentów.

To największy tego typu zbiór w Polsce. Obrazy pochodzą z kolekcji Polskiej Grupy Raka Płuca i są reprezentatywne dla polskiej populacji. System potrafi wyodrębnić płuca, serce, aortę, drogi oddechowe i naczynia krwionośne płuc, a także wykrywać zmiany patologiczne. Co ważne, lekarz współpracujący z modelem może zawsze uzyskać informację o powodach, dla których system podjął określoną decyzję diagnostyczną.

Podczas prac nad xLungs lekarze radiolodzy dodawali kontekst do danych, z którymi pracowali specjaliści od przetwarzania obrazu – opisywali zdjęcia i skany tomografii komputerowej, wskazując, co dokładnie widać i dlaczego ma to znaczenie diagnostyczne. Ta specjalistyczna wiedza była kluczowa przy tworzeniu modelu, bo dzięki niej można było ocenić, na jakiej podstawie algorytm podejmował decyzje.

014
Lekarz współpracujący z modelem xLungs może zawsze uzyskać informację o powodach, dla których system podjął określoną decyzję diagnostyczną. Zdjęcie ilustracyjne. Fot. Freepik

Polska precyzja

Równolegle do projektu xLungs zespół rozwijał własne modele segmentacyjne, w tym SWIN-SMT, które mogłyby wspierać podobne analizy obrazu medycznego w jeszcze bardziej precyzyjny sposób.

SWIN-SMT (model oparty na architekturze Swin Transformer, przystosowany do precyzyjnego podziału struktur anatomicznych na obrazach medycznych) potrzebuje około minuty, aby przeanalizować obraz tomografii komputerowej. Jest jednym z modeli o najwyższej dokładności w testach laboratoryjnych na poziomie 85,09% sprawności.

Konkurencyjny Universal Model osiągnął sprawność na poziomie 84,02%, a popularny w zastosowaniach klinicznych nnU-Net – 83,44%. Mimo że różnice wydają się niewielkie, w praktyce klinicznej przekładają się na jakość segmentacji i wartość materiału przekazywanego lekarzowi do dalszej analizy.

Prestiżowe prezentacje i współpraca międzynarodowa

Najważniejszym partnerem warszawskich naukowców jest grupa badawcza Center for Advanced Medical Computing and Analysis (CAMCA) działająca w Bostonie w ramach Mass General Brigham i Harvard Medical School.

Współpraca z przedstawicielem CAMCA, dr. Matthew Tivnanem, rozpoczęła się od współpracy w ramach projektu Fulbright, gdy pomógł zespołowi prof. Biecka dopracować aspekty teoretyczne artykułu o uczeniu maszynowym i rozpoznawaniu obrazów. W efekcie powstał tekst opisujący nowatorską metodę rozpoznawania obrazów System-Embedded Diffusion Bridge Models (SDB), przygotowany przez Bartłomieja Sobieskiego i dr. Tivnana, który potem został zaprezentowany na prestiżowej konferencji NeurIPS 2025.

Kooperacja naukowców UW z CAMCA trwa. W przyszłym roku Bartłomiej Sobieski spędzi w Bostonie trzy miesiące na stażu badawczym.

Projekt xLungs stał się punktem wyjścia do dalszych badań nad tym, jak „patrzy” sztuczna inteligencja. Zastosowano tu metodę wyjaśniania jej decyzji zwaną globalnymi kierunkami kontrfaktycznymi.

Co musiałoby się zmienić, żeby pacjent był zdrowy?

Globalne kierunki kontrfaktyczne (ang. Global Counterfactual Directions, GCD) to metoda sprawdzania, co trzeba by zmienić np. w obrazie z tomografu, żeby sztuczna inteligencja inaczej go oceniła.

Nie pytamy więc: dlaczego algorytm uznał, że to zapalenie płuc?, ale: co musiałoby się zmienić w obrazie, żeby uznał, że płuca są zdrowe? To trochę tak, jakbyśmy chcieli dowiedzieć się, dlaczego nauczyciel wystawił nam trójkę z wypracowania. Zamiast czytać jego komentarz, pytamy: co musiałbym poprawić, żeby dostać czwórkę?

GCD działa podobnie – bada, w którą stronę trzeba „przesunąć” dane, by model sztucznej inteligencji zmienił swoją decyzję. Dzięki temu nie musimy zaglądać do wnętrza algorytmu, żeby zrozumieć, co wpływa na jego ocenę.

Naukowcy testowali tę metodę na zdjęciach rentgenowskich klatki piersiowej. Chcieli się dowiedzieć, jakie fragmenty obrazu i jakie zmiany mogłyby wpłynąć na diagnozę, np. czy „niewielkie zacienienie” zmienia decyzję z „brak zapalenia” na „podejrzenie zapalenia płuc”.

Globalne kierunki kontrfaktyczne rozwijają ideę wyjaśnień kontrfaktycznych (counterfactual explanations), które dotąd pozwalały analizować decyzję modelu tylko dla pojedynczego obrazu. W rozwiązaniu opracowanym z udziałem warszawskich badaczy takie wyjaśnienia działają globalnie – obejmują cały zbiór danych.

Dzięki temu możemy lepiej zrozumieć, jak algorytm podejmuje decyzje w wielu przypadkach, a nie tylko w jednym. Możemy raz skontrolować narzędzie służące do wyjaśniania konkretnego problemu, a następnie na tej podstawie szybko, w dużej skali wyjaśniać decyzje różnych modeli. Gdy zobaczymy na przykład, jakie zmiany w obrazie rentgenowskim sprawiają, że model uznaje płuca za zdrowe, pozwoli nam to zrozumieć, jak algorytm ocenia setki podobnych zdjęć pacjentów.

2404.12488
Ilustracja koncepcji GCD. Globalne kierunki kontrfaktyczne to metoda sprawdzania, co trzeba by zmienić, np. w obrazie z tomografu, żeby sztuczna inteligencja zmieniła swoją decyzję.

Niska dawka promieniowania

Model System-Embedded Diffusion Bridge (SDB) „uczy się” uwzględniać ograniczenia samych maszyn oraz możliwe błędy pomiaru. Naukowcy trenowali model na dwóch zestawach danych, np. obrazy z dużym i małym szumem, czy z guzem i bez guza. Dzięki temu model potrafi precyzyjnie odtwarzać obraz nawet wtedy, gdy parametry badania różnią się od tych, na których był uczony.

Lepsze rekonstrukcje obrazów mogą przełożyć się na krótszy czas badania i bardziej precyzyjne diagnozy. Skorzystają na tym zarówno pacjenci jak i przeciążony system opieki zdrowotnej. Inną wartością dodaną jest możliwość zastosowania niskiej dawki promieniowania podczas tomografii komputerowej.

– Nie chcemy prześwietlać pacjenta za bardzo, więc mamy niską dawkę promieniowania, ale chcielibyśmy nauczyć się, jak wyglądałoby to zdjęcie, gdyby miało większą dawkę. Możemy zrobić taki właśnie most do rozkładu danych, gdzie zdjęcia mają dużo większą dawkę naświetlenia pacjenta i zastanowić się, jak by to zdjęcie wyglądało, gdyby tę dawkę zwiększyć – opowiada prof. Biecek.

Jest się czym pochwalić, bo metoda SDB osiąga wyraźnie lepsze wyniki niż konkurencyjne technologie, takie jak DPS (modele dyfuzyjne stosowane do odszumiania), DDNM (łączące dyfuzję z analizą braków wynikających z ograniczeń pomiaru) czy I2SB (metoda nadzorowana, ucząca się przejść między obrazem zniekształconym a oryginalnym).

SDB przewyższa je we wszystkich testowanych zadaniach – od uzupełniania brakujących fragmentów obrazu, przez powiększanie zdjęć, po rekonstrukcję w obrazowaniu medycznym. Co więcej, jako jedyna metoda odtwarza nie tylko wygląd obrazów, ale też sposób powstawania zniekształceń.

2506.23726
Model SDB potrafi precyzyjnie odtwarzać obraz nawet wtedy, gdy parametry badania różnią się od tych, na których był uczony.

Dla ludzi, a nie przeciw nim

Rozwiązania warszawskich naukowców mają potencjał, by przyspieszać i ułatwiać pracę lekarzy. Konieczne będą jednak dalsze testy, np. rekonstrukcji obrazów tomografii komputerowej i rezonansu magnetycznego w trzech wymiarach, co pozwoliłoby dokładniej odwzorować anatomię pacjenta i jeszcze lepiej wspierać diagnozę.

W szerszej perspektywie te innowacje wpisują się w ideę „AI for Good”, czyli wykorzystywania algorytmów dla dobra ludzkości.

– Algorytmy można stosować na różne sposoby. Mogą służyć do nakłaniania konsumentów do kupowania kolejnych produktów albo do manipulowania naszą psychiką. Ktoś, kto ogląda kolejne seriale zamiast spać, długoterminowo sobie szkodzi. Jeśli ktoś dostaje reklamę i pod jej wpływem bierze krótkoterminową pożyczkę, której nie powinien brać, to też sobie długoterminowo szkodzi. Jest wiele rozwiązań, które nie powstają z myślą o człowieku. A my chcemy tworzyć narzędzia, które faktycznie wspierają ludzkość – zauważa prof. Przemysław Biecek.

A takie wsparcie oznacza także zapewnienie kontroli nad algorytmami.

– Algorytmy mają ogromny potencjał na automatyzację czynności w codziennym życiu. Jeżeli jednak oddamy całą autonomię do wykonywania tych czynności algorytmom, ryzykujemy dużo – zaczynamy coraz bardziej ufać rzeczom, które mogą zawierać jakieś ukryte wady. Dobrem dla człowieka jest nie tylko automatyzacja wykonywanych przez niego czynności, które wiążą się z pewnym ryzykiem, ale też zapewnienie, że te czynności wykonywane są w sposób budujący zaufanie – tłumaczy Bartłomiej Sobieski.

017
Rozwiązania warszawskich naukowców mają potencjał, by przyspieszać i ułatwiać pracę lekarzy. Zdjęcie ilustracyjne. Fot. Freepik

* W tym kontekście „czarna skrzynka” oznacza model lub narzędzie działające w sposób nieprzejrzysty, bez możliwości wglądu w mechanizm podejmowanych decyzji.

Pandemia w symulacji. Jak matematyka pomogła planować reakcję na COVID-19
Miliony euro na badania. Trzy granty ERC dla naukowców z UW
Jak przewidzieć kolejną pandemię? O tym, czy naukowcy potrafią przepowiadać przyszłość
Wzór na sprawiedliwość. Jak matematyka pomoże usprawnić budżet obywatelski?
Na tropie HPV. Matematyka przychodzi z pomocą medycynie
TAGCentrum Wiarygodnej Sztucznej InteligencjiGlobal Counterfactual Directions (GCD)Polska Grupa Raka PłucaSystem-Embedded Diffusion Bridge (SDB)Wydział Matematyki Informatyki i Mechaniki UWwyjaśnialna sztuczna inteligencja (Explainable AI)xLungs
Poprzedni artykuł POLSKA_001 Czy można poszerzyć niebo? Jak naukowcy z UW chcą usprawnić globalny ruch lotniczy
Następny artykuł ERC Miliony euro na badania. Trzy granty ERC dla naukowców z UW
prof_Przemyslaw_Biecek_kadr
prof. dr hab. inż. Przemysław Biecek
matematyk i informatyk, profesor nauk inżynieryjno-technicznych o specjalności wyjaśnialna sztuczna inteligencja. Zajmuje się zagadnieniami z zakresu uczenia maszynowego oraz wizualizacji i percepcji modeli predykcyjnych. Laureat Fulbright STEM Impact Award. Dyrektor nowo powstałego Centrum Wiarygodnej Sztucznej Inteligencji.
Bartek_Sobieski
mgr inż. Bartłomiej Sobieski
doktorant Wydziału Matematyki, Informatyki i Mechaniki UW; zajmuje się zagadnieniami interpretowalności i modelowania generatywnego w wizji komputerowej. W swoim dorobku posiada pierwszoautorskie prace na jednych z najbardziej prestiżowych konferencji w dziedzinie uczenia maszynowego i sztucznej inteligencji: ECCV, ICLR, NeurIPS.

Serwis Naukowy UW

Centrum Współpracy i Dialogu UW

redakcja: ul. Dobra 56/66, 00-312 Warszawa​

tel.: +48 609635434 • redakcja@uw.edu.pl

Zapisz się na newsletter
Facebook Linkedin Instagram

O NAS

STRONA GŁÓWNA UW

logo serwisu blue
logotyp-IDUB-PL-poziom-inv

Deklaracja dostępności

Polityka prywatności cookies

Mapa strony

Copyright © 2025 Uniwersytet Warszawski

Copyright © 2026 Uniwersytet Warszawski
Dostosowania Dostępności

Napędzane przez OneTap

Jak długo chcesz ukryć pasek narzędzi?
Czas Trwania Ukrycia Paska Narzędzi
Wybierz swój profil dostępności
Tryb Osób z Upośledzeniem Wzroku
Wzbogaca wizualne elementy strony internetowej
Profil Bezpieczny dla Napadów
Usuwa błyski i zmniejsza kolory
Tryb Przyjazny dla ADHD
Skupione przeglądanie, bez rozproszenia
Tryb Ślepoty
Zmniejsza rozproszenie, poprawia skupienie
Tryb Bezpieczny dla Epilepsji
Przyciemnia kolory i zatrzymuje miganie
Moduły Treści
Rozmiar Czcionki

Domyślne

Wysokość Linii

Domyślne

Moduły Kolorów
Moduły Orientacji
Serwis Naukowy UW
Zarządzaj zgodą
Aby zapewnić jak najlepsze wrażenia, korzystamy z technologii, takich jak pliki cookie, do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Zgoda na te technologie pozwoli nam przetwarzać dane, takie jak zachowanie podczas przeglądania lub unikalne identyfikatory na tej stronie. Brak wyrażenia zgody lub wycofanie zgody może niekorzystnie wpłynąć na niektóre cechy i funkcje.
Funkcjonalne Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych. Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.
  • Zarządzaj opcjami
  • Zarządzaj serwisami
  • Zarządzaj {vendor_count} dostawcami
  • Przeczytaj więcej o tych celach
Zobacz preferencje
  • {title}
  • {title}
  • {title}