Każdego roku w Polsce wykonuje się kilkaset milionów badań laboratoryjnych, z czego ponad 60 mln przypada na badania obrazowe, takie jak m.in. tomografia komputerowa (TK). Wg. raportu „Collective Minds Radiology” w trakcie jednego badania TK powstaje od 200 MB do 1 GB danych. Szacuje się, że średniej wielkości szpital generuje od kilkudziesięciu terabajtów (1 TB = 1024 GB) do kilku petabajtów (1 PB = 1024 TB) danych rocznie w postaci skanów obrazowych, wyników laboratoryjnych i dokumentacji medycznej.
W Polsce od ponad dekady budowana jest EDM, czyli elektroniczna dokumentacja medyczna – zintegrowany system gromadzący dane zdrowotne pacjenta. Od 1 lipca 2021 r. każdy lekarz czy gabinet ma obowiązek raportowania w nim zdarzeń medycznych, jednak już wcześniej wiele placówek medycznych gromadziło takie dane na własną rękę. – Często mamy do czynienia z sytuacją, kiedy leczenie pacjenta dobiegło już końca, a wyniki jego badań nadal są w bazie szpitala czy kliniki i metaforycznie „kurzą się” na półkach. Nawet jeśli dla danego przypadku zachorowania zebrane dane nie mają już zastosowania, to zestawienie ich z wynikami innych osób zmagających się z tą samą dolegliwością może pozwolić lekarzom dostrzec pewne wzory i prawidłowości w rozwoju choroby i w przyszłości – usprawnić jej leczenie. Taka analiza setek czy tysięcy wyników badań jest bardzo żmudnym i czasochłonnym działaniem, ale mogą nas w tym wesprzeć algorytmy sztucznej inteligencji – wyjaśnia Marcin Luckner, kierownik prac deweloperskich w projekcie Xlungs.
Jak wyglądało trenowanie AI w projekcie Xlungs?
Naukowcy z zespołu Politechniki Warszawskiej nawiązali współpracę z Dziecięcym Szpitalem Klinicznym w Warszawie i Polską Grupą Raka Płuca, w ramach której uzyskali dostęp do danych do celów badawczych. W ten sposób możliwe stało się wykorzystanie ok. 40 tys. płyt CD z tomografii komputerowej polskich pacjentów z lat 2010-2018, m.in. z badań przesiewowych w kierunku raka płuca, do przeprowadzenia treningu AI. W ten sposób stworzono model sztucznej inteligencji – CTSegMate – oparty na największej na świecie (40 TB) bazie zdjęć klatki piersiowej. Zespół MI².AI pracował nad jego stworzeniem przez trzy lata, a zaangażowane do tego zadania procesory potrzebowały ponad 180 tys. godzin obliczeń. Realizacja takiego projektu była możliwa dzięki finansowaniu przez Narodowe Centrum Badań i Rozwoju w ramach konkursu INFOSTRATEG I.
Powstałe dzięki temu narzędzie usprawnia analizowanie zmian chorobowych w obrębie klatki piersiowej dzięki algorytmom sztucznej inteligencji. – System jest tak zaprojektowany, by wspierać lekarza przy najbardziej żmudnych czynnościach i dać mu więcej czasu na analizę istotnych diagnostycznie cech. Szukając podobnych obrazów, system może szybko przejrzeć tysiące referencyjnych badań tomografii komputerowej, w każdym badaniu błyskawicznie analizuje setki zdjęć po to, by precyzyjnie oznaczyć zmiany chorobowe oraz zwymiarować istotne cechy anatomiczne. Cechy anatomiczne zmierzone przez system mogą być zintegrowane z innymi procesami diagnostycznymi. Podobnie jak badanie krwi jest podstawą diagnozowania licznych chorób, tak precyzyjne, szybkie i tanie wymiarowanie zmian w klatce piersiowej może być przełomem w screeningu – uważa Przemysław Biecek, kierownik projektu i lider zespołu MI2.AI. Narzędzie to można zintegrować z już wykorzystywanymi w leczeniu systemami, gdyż współpracuje z powszechnie przyjętymi standardami dokumentacji medycznej.
Warto inwestować w opracowanie danych zdrowotnych
Naukowcy z Politechniki Warszawskiej oceniają, że Polska, gdzie co roku przybywa kilkanaście tysięcy absolwentów informatyki i wystawia się pół miliarda e-recept, ma spore predyspozycje, aby stać się potentatem w tworzeniu technologii medycznych wspieranych AI. – Polskie dane pozwalają lepiej wspierać lokalną diagnostykę niż dane pozyskane np. z Chin. Równocześnie ich rozmiar daje potencjał do tworzenia rozwiązań na światowym poziomie – podsumowuje Marcin Luckner.
KOMENTARZE