Macro Close-Up of Human Eye – Iris Detail and Pupil Focus

Kształtowanie przyszłości opieki zdrowotnej etyczne wyzwania kliniczne i drogi do godnej zaufania sztucznej inteligencji

Współfinansowane ze środków Ministerstwa Edukacji i Nauki na podstawie umowy nr. POPUL/SN/0475/2023/01  w ramach projektu pt.:  Kampania edukacyjna „Sztuczna inteligencja w okulistyce”

Kategoria: Streszczenia

Omówienie artykułu pt. „Kształtowanie przyszłości opieki zdrowotnej: etyczne wyzwania kliniczne i drogi do godnej zaufania sztucznej inteligencji” (Shaping the Future of Healthcare: Ethical Clinical Challenges and Pathways to Trustworthy AI) opublikowanego w Journal of Clinical Medicine w 2025 roku [1].

Prof. dr hab. med. Andrzej Grzybowski
Kierownik Katedry Okulistyki, Uniwersytet Warmińsko-Mazurski, Olsztyn
Kierownik Instytutu Okulistycznych Badań Naukowych, Fundacja Okulistyka 21, Poznań

Współfinansowane ze środków Ministerstwa Edukacji i Nauki na podstawie umowy nr. POPUL/SN/0475/2023/01 w ramach projektu pt.: Kampania edukacyjna „Sztuczna inteligencja w okulistyce”

Sztuczna inteligencja (AI) od kilku lat zajmuje coraz ważniejsze miejsce w systemach ochrony zdrowia, oferując ogromny potencjał poprawy diagnostyki, leczenia i jakości opieki nad pacjentami. Jednak, jak pokazuje artykuł Goktaşa i Grzybowskiego, dynamiczny rozwój tej technologii nie jest wolny od poważnych wyzwań etycznych, klinicznych i regulacyjnych. Autorzy podejmują próbę zbudowania ram dla rozwoju „zaufanej AI” w medycynie – podejścia, które łączy perspektywy etyków, klinicystów, prawników, decydentów politycznych i inżynierów.

W punkcie wyjścia podkreślają, że tradycyjne spojrzenie na AI jako czysto technologiczną innowację jest niewystarczające. Modele uczenia maszynowego, szczególnie te bazujące na głębokich sieciach neuronowych, mają zdolność przewyższania ludzkich ekspertów w zadaniach takich jak analiza obrazów medycznych czy predykcja rozwoju chorób. Jednocześnie są one „czarnymi skrzynkami”, których decyzji lekarze nie potrafią w pełni wyjaśnić. To rodzi pytania o bezpieczeństwo pacjentów, odpowiedzialność prawną i możliwość rzeczywistego wykorzystania takich narzędzi w praktyce klinicznej. Autorzy zauważają, że zaufanie do systemów medycznych buduje się nie tylko poprzez ich skuteczność, ale także poprzez transparentność i możliwość wyjaśnienia sposobu podejmowania decyzji.

Równocześnie pojawiają się problemy związane z prywatnością i bezpieczeństwem danych. Współczesna medycyna korzysta z ogromnych zbiorów danych zdrowotnych, które stanowią paliwo dla uczenia algorytmów. Jednak te same dane mogą być narażone na wycieki, cyberataki czy wykorzystanie przez podmioty prywatne w sposób sprzeczny z interesem pacjentów. Różnice w regulacjach prawnych pomiędzy krajami – takie jak ogólne rozporządzenie o ochronie danych osobowych (GDPR) w Europie i HIPAA w Stanach Zjednoczonych – dodatkowo komplikują sytuację, tworząc mozaikę zasad utrudniającą globalne wdrożenie AI w ochronie zdrowia. Autorzy wskazują, że konieczne jest wypracowanie globalnie spójnych standardów, które zapewnią pacjentom ochronę i jednocześnie pozwolą na swobodny przepływ danych w celach naukowych.

Jednym z najpoważniejszych problemów etycznych pozostaje kwestia stronniczości algorytmów. Jeśli systemy uczą się na podstawie danych odzwierciedlających nierówności społeczne – na przykład różnice w dostępie do opieki zdrowotnej czy niedoreprezentowanie mniejszości etnicznych w zbiorach treningowych – istnieje ryzyko, że będą powielać i pogłębiać te nierówności. Przykłady obejmują algorytmy dermatologiczne, które gorzej diagnozują pacjentów o ciemniejszej karnacji, czy systemy predykcji ryzyka, które zaniżają ryzyko u osób z grup o niższym statusie socjoekonomicznym. Aby przeciwdziałać tym zagrożeniom, konieczne jest tworzenie bardziej zrównoważonych zbiorów danych, stosowanie audytów algorytmicznych i monitorowanie działania modeli w rzeczywistych populacjach.
Goktaş i Grzybowski proponują, by myślenie o AI w medycynie traktować jako myślenie o ekosystemie, w którym technologia nie funkcjonuje w izolacji, ale współdziała z infrastrukturą kliniczną, ramami regulacyjnymi i społecznymi wartościami. Kluczowe staje się zatem zapewnienie interoperacyjności między systemami, standaryzacji danych i odpowiedniego dialogu pomiędzy twórcami technologii a użytkownikami – lekarzami i pacjentami. Autorzy wprowadzają koncepcję „genomu regulacyjnego”, czyli elastycznego systemu nadzoru, który można dostosowywać do ewoluujących technologii. Takie podejście zakłada ciągłe monitorowanie działania systemów, angażowanie interesariuszy i uwzględnianie wymogów zrównoważonego rozwoju.

Kolejnym aspektem szeroko omawianym w artykule jest kwestia odpowiedzialności. Tradycyjne ramy prawne nie zawsze dają odpowiedź na pytanie, kto ponosi odpowiedzialność w przypadku błędu systemu AI – lekarz, instytucja medyczna, czy producent oprogramowania? Autorzy wskazują na potrzebę rozróżnienia między odpowiedzialnością prawną a odpowiedzialnością etyczną i zaproponowania nowych modeli zarządzania, które będą w stanie uwzględnić specyfikę autonomicznych systemów.

Nie można także ignorować konsekwencji społecznych związanych z implementacją AI. Automatyzacja niektórych procesów w medycynie budzi obawy o utratę miejsc pracy, zmienia tradycyjny model relacji lekarz–pacjent i może prowadzić do zwiększenia nierówności zdrowotnych, jeśli dostęp do nowych technologii będzie ograniczony tylko do bogatszych regionów świata. Z tego względu zaufana AI musi być projektowana nie tylko jako efektywne narzędzie kliniczne, ale także jako element systemu sprawiedliwego społecznie, promującego równość w dostępie do opieki.

Autorzy proponują także wprowadzenie mierzalnych wskaźników zaufania do systemów AI, takich jak stopień wyjaśnialności decyzji, wskaźniki redukcji błędów czy poziom zgodności z regulacjami. Wskazują również na konieczność integracji zasad „Ethical by Design”, czyli projektowania systemów z uwzględnieniem etyki od samego początku, a nie jako późniejszego dodatku. Rozwój sztucznej inteligencji powinien być powiązany ze zrównoważonym rozwojem – uwzględniać ślad węglowy, energochłonność i wpływ na środowisko.

Podsumowując, artykuł kreśli wizję przyszłości, w której AI stanie się integralną częścią ochrony zdrowia, ale tylko wtedy, gdy jej rozwój będzie ściśle powiązany z przejrzystością, odpowiedzialnością i współpracą międzynarodową. Autorzy przekonują, że kluczowym zadaniem jest wypracowanie ram regulacyjnych i etycznych, które pozwolą wykorzystać potencjał technologii bez narażania pacjentów i bez pogłębiania istniejących nierówności. Zaufana AI nie oznacza jedynie doskonałości technicznej – to także system, który jest bezpieczny, sprawiedliwy, odporny i zakorzeniony w wartościach społecznych.

Piśmiennictwo
1. Goktas P, Grzybowski A. Shaping the Future of Healthcare: Ethical Clinical Challenges and Pathways to Trustworthy AI. J Clin Med. 2025 Feb 27;14(5):1605.
2. Floridi L., Cowls J. A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review. 2019.
3. Jobin A., Ienca M., Vayena E. The global landscape of AI ethics guidelines. Nat Mach Intell. 2019;1:389–399.
4. Mittelstadt B. Principles alone cannot guarantee ethical AI. Nat Mach Intell. 2019;1:501–507.
5. Morley J., Floridi L., Kinsey L., Elhalal A. From what to how: An initial review of publicly available AI ethics tools, methods and research to translate principles into practices. Sci Eng Ethics. 2020;26:2141–2168.
6. He J., Baxter S.L., Xu J., Xu J., Zhou X., Zhang K. The practical implementation of AI technologies in medicine. Nat Med. 2019;25:30–36.
7. Seyyed-Kalantari L., Zhang H., McDermott M., Chen I.Y., Ghassemi M. Underdiagnosis bias of AI algorithms in chest X-rays. Nat Med. 2021;27:2176–2182.
8. Vinuesa R., Azizpour H., Leite I., et al. The role of AI in achieving the Sustainable Development Goals. Nat Commun. 2020;11:233.
9. Reddy S., Allan S., Coghlan S., Cooper P. A governance model for the application of AI in health care. J Am Med Inform Assoc. 2020;27(3):491–497.
10. O’Sullivan S., Nevejans N., Allen C., et al. Legal, regulatory, and ethical frameworks for development of standards in artificial intelligence (AI) and autonomous robotic surgery. Int J Med Robot. 2019;15:e1968.
11. Shneiderman B. Bridging the gap between ethics and practice: Guidelines for reliable, safe, and trustworthy human-centered AI systems. ACM Trans Interact Intell Syst. 2020;10(4):26.

Szybki kontakt

Fundacja Wspierania Rozwoju Okulistyki „OKULISTYKA 21”

ul. A. Mickiewicza 24 lok. 3B, 60-836 Poznań

keyboard_arrow_up