Biotechnologia.pl
łączymy wszystkie strony biobiznesu
Polskie AI, które tłumaczy swoje decyzje – podejście naukowców z PW do analizy obrazów płuc docenione za granicą
Polskie AI, które tłumaczy swoje decyzje – podejście naukowców z PW do analizy obrazów płuc

– Sztuczna inteligencja musi być kontrolowalna i wyjaśnialna, jeśli ma zrobić rewolucję w medycynie. Lekarz wspierający się jej sugestiami powinien rozumieć, skąd się one wzięły – uważają naukowcy z Politechniki Warszawskiej, którzy wybierają się na prestiżową konferencję naukową w Singapurze. Opowiedzą tam o podejściu do obszaru wyjaśnialnego AI, które zastosowali w narzędziu Xlungs pomagającym diagnozować płuca.

 

 

Pod koniec kwietnia grupa polskich badaczy wystąpi na konferencji naukowej International Conference on Learning Representations (ICLR), która w tym roku odbywa się w Singapurze. To jedno z najważniejszych na świecie spotkań naukowców i ekspertów z obszaru uczenia maszynowego, sztucznej inteligencji i uczenia głębokiego (deep learning).

Xlungs – polskie AI, które wspiera analizę badań tomografii komputerowej klatki piersiowej

Zagadnienia, których dotyczy praca polskich naukowców, nie są wyłącznie przedmiotem akademickiej dyskusji. Zespół badawczy MI².AI z Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej przedstawiane rozwiązanie stosuje już we własnym projekcie Xlungs. Dzięki współpracy z Polską Grupą Raka Płuca naukowcy wykorzystali 40 tys. obrazów tomografii komputerowej płuc do tworzenia modelu sztucznej inteligencji, który będzie mógł wspierać lekarzy w szybszym i skuteczniejszym diagnozowaniu chorób. Narzędzie to można zintegrować z już wykorzystywanymi w leczeniu systemami, gdyż współpracuje z powszechnie przyjętymi standardami dokumentacji medycznej.

W swojej pracy zatytułowanej „Rethinking Visual Counterfactual Explanations Through Region Constraint” („Przedefiniowanie wizualnych wyjaśnień kontrfaktycznych poprzez regionalne ograniczenie”), która zostanie zaprezentowana w Singapurze, zespół badaczy z Politechniki Warszawskiej wprowadza nowatorską metodę, która pozwala lepiej zrozumieć, jak sztuczna inteligencja podejmuje decyzje podczas analizy obrazów. Zamiast generować ogólne sugestie dotyczące całego obrazu, jak to ma miejsce w tradycyjnych wyjaśnieniach kontrfaktycznych, ich metoda koncentruje się na wybranych fragmentach obrazu. Dzięki temu lekarze mogą łatwiej zrozumieć, które konkretne zmiany w analizowanym obrazie wpłynęłyby na inną decyzję modelu AI. To podejście może być szczególnie pomocne w medycynie, gdzie precyzyjna interpretacja obrazów ma kluczowe znaczenie dla postawienia diagnozy.

Dlaczego wyjaśnialne AI jest potrzebne w medycynie?

– W praktyce podczas analizy danych pacjentów może dochodzić do sytuacji, w których to model „zobaczy” na obrazie z tomografii komputerowej klatki piersiowej potencjalnie groźną zmianę i sygnalizuje to. Wówczas osoba prowadząca badanie powinna mieć dostęp do informacji, co naprowadziło sztuczną inteligencję do takiego wniosku – tłumaczy prof. Przemysław Biecek, kierownik projektu i lider zespołu MI².AI oraz współautor pracy zakwalifikowanej na konfernecję ICLR. Tego właśnie dotyczy zagadnienie wyjaśnialności (z ang. Explainable AI – XAI), które przeciwstawiane jest koncepcji modelu sztucznej inteligencji jako „czarnej skrzynki”, z której otrzymujemy gotowe rozwiązanie, ale nie wiemy, za pomocą jakiego wnioskowania AI do niego doszło i czy przypadkiem nie jest ono błędne.

Coraz więcej krajów wymaga, aby narzędzia AI, które wspierają decyzje diagnostów, były transparentne. W Unii Europejskiej wymóg wyjaśnialności wprowadził AI Act, który wszedł w życie na początku tego roku. Modele AI stosowane w medycynie mogą zostać uznane za systemy wysokiego ryzyka, więc wymaga się od nich wyjaśnialności. – Wyjaśnialność AI jest szczególnie ważna w medycynie, gdzie interpretacja zdjęcia z tomografii komputerowej decyduje o rodzaju zalecanej terapii. Lekarze, ale także ich pacjenci, potrzebują przekonania, że mogą polegać na narzędziach, które wykorzystują do wspierania diagnozy i rozumieją, jak one dochodzą do danych wniosków. Lekarz nie zaufa „czarnej skrzynce”. Musi mieć możliwość zweryfikowania, czy taka sugestia ma sens – zauważa dr hab. inż. Marcin Luckner, kierownik prac deweloperskich w projekcie Xlungs.

Źródła

Fot. https://unsplash.com/photos/a-computer-generated-image-of-the-letter-a-ZPOoDQc8yMw

KOMENTARZE
news

<Kwiecień 2025>

pnwtśrczptsbnd
1
2
CEBioForum 2025
2025-04-02 do 2025-04-03
3
5
6
8
10
11
12
13
15
16
18
19
20
21
24
Webinar | Podstawy perfumerii
2025-04-24 do 2025-04-24
26
27
28
29
Wzorcowanie i kwalifikacja wag
2025-04-29 do 2025-04-29
1
2
3
4
Newsletter