Biotechnologia.pl
łączymy wszystkie strony biobiznesu
Czy jesteśmy gotowi na wykorzystanie sztucznej inteligencji w ochronie zdrowia?
Czy jesteśmy gotowi na wykorzystanie sztucznej inteligencji w ochronie zdrowia?

Ogromne inwestycje w sztuczną inteligencję nie dziwią, gdyż korzyści wynikające z tej technologii są nie do przecenienia. Jednak pojawia się wiele pytań dotyczących zagrożeń płynących z jej niewłaściwego – celowego lub nieumyślnego – wykorzystania. Coraz głośniej mówi się o etycznym aspekcie używania AI.

 

 

 

Innowacje oczekiwane przez pacjentów i lekarzy

Już w 2018 r. uczestnicy badania przeprowadzonego przez SAS entuzjastycznie wypowiadali się na temat wykorzystania sztucznej inteligencji w ochronie zdrowia. Co ciekawe, znacznie więcej obaw wiązało się z implementacją tej technologii w bankowości czy handlu. Respondenci pozytywnie odnieśli się do przykładów wykorzystania AI do wsparcia lekarzy w opiece nad pacjentami. Aż 47 proc. badanych stwierdziło, że czułoby się komfortowo w asyście AI nawet podczas operacji. Tak pozytywne podejście do sztucznej inteligencji świadczy o tym, że oczekujemy namacalnych korzyści wynikających z zastosowania tej technologii. Sektor ochrony zdrowia mierzy się z wieloma wyzwaniami, które pandemia COVID-19 dodatkowo spotęgowała. Wśród nich m.in. rosnące koszty, braki personelu i coraz większe zapotrzebowanie na usługi. Specjaliści SAS są zdania, że branży może pomóc wykorzystanie zalet technologii AI. Twierdzą, że sztuczna inteligencja odegra istotną rolę w przekształcaniu branży opieki zdrowotnej, którą znamy.

 

Bezpieczeństwo danych przede wszystkim

AI i zaawansowana analityka mają bardzo szerokie zastosowanie w sektorze opieki zdrowotnej. Mogą istotnie wpływać na poprawę efektywności całego systemu, zapewnić lepsze zrozumienie potrzeb i stanu zdrowia pacjentów, odciążyć lekarzy oraz personel medyczny w zakresie zadań administracyjnych czy wesprzeć procesy diagnostyki i leczenia chorych. Jednak mamy tu do czynienia z bardzo wrażliwymi informacjami. Można wyrządzić pacjentowi realną szkodę, gdyby jego dane osobowe i medyczne zostały błędnie zanalizowane lub dostały się w niepowołane ręce. – Mając na uwadze wykorzystanie danych medycznych, należy zadbać o właściwe środki zarządzania, nadzoru i bezpieczeństwa. Mieć pewność, że są używane w uzgodnionym zakresie, dostęp do nich mają upoważnieni pracownicy i autoryzowane algorytmy. Upewnić się, że każde wykorzystanie danych przechodzi weryfikację w celu sprawdzenia, czy przynosi korzyść i wyklucza możliwość wyrządzenia szkody. Z jednej strony powinniśmy chronić prywatność, ale z drugiej – umożliwiać postęp naukowy w medycynie – mówi Piotr Kramek, Lider Praktyki Public Sector & Health Care w SAS Polska.

 

Czy sztuczna inteligencja jest obiektywna?

Techniki machine learning mogą być skuteczne na tyle, na ile pozwala jakość, ilość oraz reprezentatywność danych używanych do treningu modeli. Jednym z wyzwań jest niedostateczna reprezentacja pewnych grup populacji w wykorzystywanych danych. Przekłada się ona na stronniczość algorytmów AI (ang. algorythmic bias). W efekcie model sztucznej inteligencji może generować gorsze wyniki dla mniej reprezentowanych grup. – Dane, które nie są zrównoważone np. w zakresie płci, mogą wpływać na niższą dokładność modeli dla niedostatecznie reprezentowanej płci. Modele wykrywania raka skóry, które „uczą się” głównie na pacjentach o jasnej karnacji, mogą działać gorzej na osobach z ciemniejszą karnacją. W przypadku opieki zdrowotnej słabe wyniki modelu dla określonej grupy mogą dostarczyć niewiarygodnych informacji, prowadząc do niewłaściwej diagnozy lub nieprawidłowego leczenia – podkreśla Piotr Kramek. Zasilanie modeli AI zaburzonymi danymi może z kolei prowadzić do uzyskania nieobiektywnych rezultatów. To ważne, biorąc pod uwagę potencjalny efekt wykorzystania sztucznej inteligencji w opiece zdrowotnej.

 

Jak zrozumieć algorytm?

Niektóre z algorytmów, zwykle używanych w systemach AI (takich jak sieci neuronowe), są uważane za „czarne skrzynki”. Dostarcza się algorytmowi dane treningowe i prosi, aby nauczył się rozpoznawać określone wzorce na podstawie tych danych. Można parametryzować algorytmy oraz zmieniać dane wejściowe przez dodawanie nowych charakterystyk. Nie ma jednak bezpośredniego wglądu w przyczynę, dla której algorytmy zaklasyfikowały daną obserwację w określony sposób. W rezultacie można mieć bardzo dokładny model, który czasem daje nieoczekiwane wyniki. W przypadku ochrony zdrowia błędna klasyfikacja ze strony modelu i brak dodatkowego wyjaśnienia czy interpretacji ze strony algorytmu ogranicza możliwość weryfikacji wyniku po stronie lekarza. Może mieć ona negatywne konsekwencje dla zdrowia pacjenta. Dlatego bardzo ważne jest, aby z jednej strony zrozumieć i zweryfikować aspekty danych, z których korzystają algorytmy, z drugiej zaś strony – zapewnić interpretowalność wyników modeli sztucznej inteligencji, co pozwoli na weryfikację poprawności ich działania. – Czasami użycie mniej złożonych modeli może zapewnić lepsze zrozumienie zasad działania algorytmu. Regresja liniowa lub drzewa decyzyjne zapewnią wystarczającą dokładność oraz dobrą widoczność zmiennych i kluczowych czynników. Kiedy wykorzystuje się bardziej złożony model, warto użyć narzędzi wspierających wyjaśnialność algorytmów AI. Eksperci zajmujący się tym procesem powinni w obu przypadkach zweryfikować wyjaśnienie, szukając potencjalnych błędów i wątpliwości w doborze zmiennych oraz charakterystyk, które wykorzystuje model – dodaje Piotr Kramek.

 

AI potrzebuje człowieka

Jedną z barier hamujących realizację projektów AI jest brak odpowiednich kompetencji. Dlatego tak ważne jest kształcenie kadr oraz zapewnienie odpowiednich regulacji prawnych gwarantujących, że sztuczna inteligencja będzie wykorzystywana w sposób etycz­ny, z poszanowaniem prawa do zachowania prywatności.

Źródła

Fot. https://pixabay.com/pl/photos/sztuczna-inteligencja-ai-technologia-7450797/

KOMENTARZE
Newsletter