W opiece zdrowotnej informacje muszą być odpowiednio zabezpieczone i chronione, a jednocześnie powinna być możliwość wykorzystania ich do celów statystycznych i naukowych. Umożliwiają to najnowsze technologie, których zastosowanie wymaga jednak stałego doskonalenia - ocenili uczestnicy debaty „Znaczenie i wyzwania związane z prywatnością danych medycznych w dobie czwartej rewolucji przemysłowej” zorganizowanej przez Państwowy Instytut Badawczy NASK podczas Szczytu Cyfrowego ONZ - IGF 2021 w Katowicach

Przemysł 4.0 stanowi fundamentalną zmianę w sposobie, w jaki żyjemy i pracujemy. Prelegenci podkreślali, że w dobie szybkiego rozwoju technologicznego coraz bardziej istotne stają się zwiększenie wykorzystania sztucznej inteligencji (AI) oraz modernizacja obecnych systemów przechowywania danych medycznych.
Dyskusja poświęcona była ochronie wrażliwych informacji przy jednoczesnym poszanowaniu obowiązujących wytycznych prawnych i etycznych. Uczestnicy zastanawiali się również, jak wykorzystywać je do szczegółowych analiz, chroniąc prywatność jednostki, a także mówili o potencjale wykorzystania sztucznej inteligencji w przechowywaniu danych, zwracając przy tym uwagę na wynikające z tego zagrożenia.

Zmiana napędzana technologią

- Czwarta rewolucja przemysłowa to nowy rozdział w rozwoju ludzkości, możliwy dzięki niezwykłemu postępowi technologicznemu. Przemysł 4.0 kładzie nacisk na wymianę informacji, komunikację między urządzeniami i maszynami, które często przechowują i udostępniają prywatne informacje. W kontekście opieki zdrowotnej przekształca metody leczenia i diagnozowania, jak również relacje pomiędzy pracownikami służby zdrowia a pacjentami - wyjaśniała dr Ilona Urbaniak z NASK. Specjalistka w zakresie wykorzystywania AI dodała również, że w tym kontekście dzielenie się danymi dotyczącymi opieki zdrowotnej dla celów analizy i badań przynosi wiele korzyści dla rozwoju medycyny. Podkreślała, że potrzeba dostępu do wystarczająco reprezentatywnych danych o opiece zdrowotnej wysokiej jakości jest coraz większa i stanowi istotne wyzwanie w procesie rozwoju narzędzi AI i standardów branżowych.
- Pandemia pomogła nam przesunąć granicę nowych sposobów komunikacji. Naturalnie przyspieszyły też procesy ucyfrowienia medycyny - stwierdził prof. David Koff. Dodał, że na ten rozwój wydarzeń trzeba spojrzeć z dwóch perspektyw: po pierwsze zastanowić się, jak można wykorzystać dane zbierane podczas wizyt online, a po drugie uwzględnić potrzeby AI dla edukacji i analiz medycznych. - W ciągu ostatnich dwóch lat wiele aplikacji telezdrowotnych odnotowało ogromny wzrost wykorzystania. Do tego stopnia, że najprawdopodobniej staną się one częścią głównego nurtu. Wiele z nich wykazało się ogromną skutecznością i oszczędnością czasu w zakresie transferu. Drugą stroną są badania i edukacja. Musimy wyznaczyć granicę między tymi dwoma obszarami - ocenił radiolog z Uniwersytetu McMaster w Ontario. Jego zdaniem, aby rozwijać zastosowanie sztucznej inteligencji i opracowywać nowe rozwiązania, potrzebny jest dostęp do danych pacjentów wysokiej jakości.

Najważniejsze są prawa pacjenta

Tego typu dane medyczne podlegają jednak regulacjom RODO, które mają na celu zapewnienie prywatności pacjentów. - Pierwszym ważnym krokiem do przestrzegania tych przepisów, a także do uwzględnienia obaw związanych z prywatnością, jest rozwój anonimizacji danych. Proces usuwania danych osobowych to dowód na odpowiedzialność wobec pacjentów - stwierdziła Ilona Urbaniak.
W rozwoju procesu anonimizacji danych medycznych może pomóc sztuczna inteligencja, która ma potencjał zrewolucjonizować opiekę zdrowotną. David A. Koff wskazał jednak na pewne niepokojące zjawisko: nadmierna anonimizacja sprawia, że dane tracą swoją użyteczność. - Głównym problemem w naszych szpitalach jest obawa przed cyberatakami. Placówki medyczne są przestraszone, że może dojść do wycieku danych i identyfikacji, więc starają się zabezpieczyć dane tak bardzo, jak tylko jest to możliwe. Często przyczynia się to do tego, że dane są pozbawione wartości, która mogłaby przydać się w analizach i badaniach - stwierdził naukowiec. Dodał, że sztuczna inteligencja może pomóc w szyfrowaniu danych, aby nie traciły swojej wartości i były odpowiednio zabezpieczone przed hakerami.
Konieczność pochylenia się nad tymi aspektami dostrzegają również szkoły wyższe w całej Europie. We Francji wiele biznesowych uczelni tworzy różne instytuty związane z zastosowaniami sztucznej inteligencji. - Zajmujemy się zastosowaniami AI w marketingu finansowym, biznesie, zarządzaniu zasobami ludzkimi czy właśnie w medycynie. Paradoksalnie tematy, które nie były dotąd związane z medycyną, dzisiaj znajdują w niej zastosowanie. Chodzi na przykład o rozpoznawanie twarzy czy emocji z obrazów - podkreślił prof. Davide La Torre, dyrektor Instytutu Sztucznej Inteligencji w SKEMA Business School.
Ilona Urbaniak z NASK dodała, że wyzwania związane z upublicznianiem danych medycznych nabierają coraz większego znaczenia dla rozwoju sieci badań biomedycznych opartych na danych. Mówiła też, że głównymi kwestiami, którymi należy się zająć w celu zapewnienia udanego wykorzystania AI w dziedzinie zdrowia, są dostęp do danych, prywatność danych oraz ich integracja.
Z kolei Ewa Kawiak-Jawor z Centrum Oceny Technologii z Sieci Badawczej Łukasiewicz mówiła o etycznych aspektach wykorzystywania danych. Podkreślała konieczność zachowania równowagi między prywatnością informacji a rozwojem badań opartych na danych i planowaniem polityki zdrowotnej państwa. - Zanim zaczniemy myśleć o wszystkich technicznych i matematycznych aspektach ochrony danych czy o procesie anonimizacji, musimy rozważyć, kto i gdzie będzie miał prawo dostępu do tych danych oraz jaki będzie główny cel ich wykorzystania. Prawa pacjenta są w tym kontekście najważniejsze - oceniła Kawiak-Jawor.

Algorytmy wciąż niedokładne

W dyskusji prelegenci poruszyli także temat stronniczości danych i wykorzystania sztucznej inteligencji we wspieraniu podejmowania decyzji klinicznych.
David A. Koff zwrócił uwagę na problem niedokładnej reprezentacji. Mówił, że próbki danych często niedokładnie odzwierciedlają rzeczywistość. - Wynik poszczególnych analiz jest uśredniany, co prowadzi do wniosku, że wszyscy są tacy sami. Często okazuje się, że mniejszości rasowe, płciowe czy chorobowe nie są odpowiednio reprezentowane w dużych próbkach danych. Dlatego zdecydowanie bardziej skomplikowane jest tworzenie algorytmów dla rzadkich chorób - mówił David A. Koff. Dodał również, że wciąż nie wiadomo, jaka liczba danych od pacjentów będzie stanowić wierną reprezentację chorób i odporności w danej populacji. Jego zdaniem ważne jest podkreślanie zagrożeń, jakie mogą wynikać z nieobiektywnych danych wykorzystywanych do celów medycznych.
Ewa Kawiak-Jawor nakreśliła perspektywę lekarzy i pacjentów. Mówiła o tym, że obawiają się oni zastosowania algorytmów podczas leczenia klinicznego. - Lekarze obawiają się korzystania z takich narzędzi. Boją się, że AI podważy ich własne decyzje oparte na ich wiedzy. Pacjenci też nie są raczej ufni wobec sztucznej inteligencji. Uważają, że to kompetencje lekarza są ważniejsze. Musimy zaufać takim technologiom. Tylko jak to zrobić, skoro lekarze boją się ich używać? - podsumowała Kawiak-Jawor.
BACH
PARTNER RELACJI