Kształtowanie Przyszłości Opieki zdrowotnej

Etyczne Wyzwania Kliniczne i Ścieżki do Godnej Zaufania Sztucznej Inteligencji

Współfinansowane ze środków Ministerstwa Edukacji i Nauki na podstawie umowy nr. POPUL/SN/0475/2023/01  w ramach projektu pt.:  Kampania edukacyjna „Sztuczna inteligencja w okulistyce”

Kategoria: Artykuły

Prof. dr hab. med. Andrzej Grzybowski
Katedra Okulistyki, Uniwersytet Warmińsko-Mazurski, Olsztyn
Instytut Okulistycznych Badań Naukowych, Fundacja Okulistyka 21, Poznań

Słowa kluczowe: sztuczna inteligencja; etyka; polityka zdrowotna; uczenie maszynowe; przetwarzanie języka naturalnego; duży model językowy; prywatność; regulacja

Ekspansja sztucznej inteligencji (SI) w opiece zdrowotnej niesie ze sobą unikalne ryzyko, które wymaga solidnych ram etycznych. Główne obawy to bezpieczeństwo pacjentów, prywatność danych i niepewność regulacyjna. W zastosowaniach klinicznych modele SI często funkcjonują jako nieprzejrzyste „czarne skrzynki”, utrudniając pracownikom służby zdrowia interpretację lub zaufanie do ich procesów decyzyjnych [1-3]. Na przykład, konwolucyjne sieci neuronowe (CNN) używane w obrazowaniu medycznym, na przykład w okulistyce, często nie zawierają jasnych wyjaśnień dotyczących ich przewidywań, co utrudnia pracownikom służby zdrowia interpretację lub zaufanie do ich procesów decyzyjnych [4-5].

Nadużycie SI, szczególnie w przypadku generatywnych narzędzi SI, takich jak ChatGPT w wersjach 4o lub o1, w opiece zdrowotnej, niesie ze sobą znaczące ryzyko, w tym fałszowanie dokumentacji medycznej, dezinformację, obciążenie algorytmiczne i naruszenia prywatności.

Fałszowanie Dokumentacji Medycznej: Chociaż generowanie danych syntetycznych pomaga w szkoleniu SI, wprowadzenie sfałszowanej dokumentacji medycznej do klinicznych przepływów pracy lub fałszywych roszczeń może wprowadzać w błąd klinicystów i zniekształcać wyniki badań [6].

Dezinformacja w Poradach Medycznych: Porady medyczne generowane przez SI mogą być błędne, co widać na przykładzie badań, w których chatboty udzielały nieprawidłowych zaleceń dotyczących leczenia raka, podając zmyślone źródła, co zagraża bezpieczeństwu pacjentów [7].

Wzmacnianie Obciążenia Algorytmicznego: Modele SI trenowane na niereprezentatywnych zbiorach danych utrwalają nierówności, na przykład SI błędnie diagnozowała schorzenia u pacjentów o innym pochodzeniu rasowym z powodu zbyt homogennych danych treningowych [8].

Treści Medyczne typu Deepfake: Filmy i obrazy generowane przez SI były wykorzystywane do rozpowszechniania fałszywych informacji zdrowotnych, podsycając brak zaufania i wahanie społeczne [9].

Niewłaściwe użycie generatywnej SI podważa zaufanie pacjentów, zagraża klinicznemu podejmowaniu decyzji i stwarza odpowiedzialność prawną. Zagrożenia cyberbezpieczeństwa, w tym kradzież tożsamości i ataki phishingowe oparte na SI, dodatkowo zagrażają systemom opieki zdrowotnej. Rozwiązanie tych wyzwań wymaga rygorystycznego nadzoru regulacyjnego, rutynowego audytu SI oraz interdyscyplinarnej współpracy między twórcami SI, pracownikami służby zdrowia i decydentami, aby zapewnić etyczne i odpowiedzialne wdrożenie [10].

Definicja Godnej Zaufania SI

Zapewnienie etycznego wdrożenia SI w opiece zdrowotnej to nie tylko łagodzenie ryzyka, ale także ustanowienie fundamentu zaufania. Prowadzi to do koncepcji Godnej Zaufania SI, fundamentalnego filaru jej pomyślnej integracji z opieką zdrowotną. Koncepcja ta obejmuje kluczowe zasady, takie jak przejrzystość, odpowiedzialność, uczciwość i autonomię pacjenta [11]. Przejrzystość zapewnia, że decyzje SI są zrozumiałe. Odpowiedzialność wymaga, aby twórcy i użytkownicy byli odpowiedzialni za wyniki. Uczciwość odnosi się do obciążenia w algorytmach SI, zapewniając równy dostęp do opieki zdrowotnej. Autonomia pacjenta zapewnia, że SI wzmacnia pacjentów, zamiast ograniczać podejmowanie decyzji.

Oprócz tych podstawowych zasad należy wziąć pod uwagę inne istotne wymiary, takie jak bezpieczeństwo, ochrona i niezawodność. Bezpieczeństwo zapewnia, że systemy oparte na SI traktują priorytetowo dobro pacjentów i nie wprowadzają nowego ryzyka w warunkach klinicznych [12]. Ochrona jest kluczowa w zapobieganiu zagrożeniom cybernetycznym i ochronie wrażliwych danych zdrowotnych przed nieautoryzowanym dostępem lub manipulacją [13]. Niezawodność odnosi się do zdolności systemu SI do niezawodnego działania w różnych populacjach i stanach zdrowia, unikając awarii z powodu ataków zwodniczych lub nieprzewidzianych wariacji danych [14]. Osiągnięcie godnej zaufania SI to nie tylko kwestia techniczna — wymaga współpracy między inżynierami, etykami, dostawcami opieki zdrowotnej i decydentami, aby uwzględnić te dodatkowe wymiary i zapewnić, że systemy SI działają niezawodnie we wszystkich warunkach [15,16].

To interdyscyplinarne podejście jest niezbędne do zrównoważenia wykonalności technologicznej z integralnością etyczną, zgodnością z przepisami i zastosowaniem klinicznym. Na przykład, integracja mechanizmów wyjaśniania w modelach SI wymaga wkładu zarówno informatyków, jak i pracowników służby zdrowia, aby zapewnić użyteczność w podejmowaniu decyzji medycznych. Co ważne, SI musi być zaprojektowana tak, aby działała w ramach społecznie odpowiedzialnych, zapewniając, że przynosi korzyści różnym populacjom, a nie pogłębia istniejących nierówności w zdrowiu. Ryzyko obciążenia algorytmicznego, które nieproporcjonalnie wpływa na mniejszości lub społeczności o niskich dochodach, pozostaje palącym problemem, wymagającym proaktywnych strategii łagodzenia obciążenia na etapie projektowania, aby zapobiec nierównym wynikom opieki zdrowotnej przy jednoczesnym zachowaniu bezpieczeństwa, ochrony i odporności w rzeczywistych warunkach.

SI jako Ekosystem

SI nie działa w izolacji — działa w złożonym ekosystemie opieki zdrowotnej, integrując się z klinicznymi przepływami pracy, infrastrukturami danych i środowiskami regulacyjnymi [17]. Perspektywa ekosystemu SI podkreśla znaczenie interoperacyjności, standaryzacji danych i współpracy między interesariuszami, aby zmaksymalizować potencjał technologii SI. Nasz wybór literatury priorytetowo traktował badania nad interoperacyjnością SI, zarządzaniem danymi i interakcją człowiek-SI. Ponadto, dynamiczna interakcja między systemami SI a użytkownikami — czy to klinicystami, pacjentami, czy administratorami — wymaga skupienia się na interakcji człowiek-SI, aby zapewnić, że systemy te wzmacniają, a nie osłabiają świadczenie opieki zdrowotnej.

Krajobraz regulacyjny jest krytycznym elementem tego ekosystemu. Powstające polityki, takie jak Akt o Sztucznej Inteligencji Unii Europejskiej, mają na celu ustanowienie rygorystycznych wymagań dla systemów SI wysokiego ryzyka, w tym tych stosowanych w opiece zdrowotnej. Przepisy te podkreślają potrzebę przejrzystości, zarządzania ryzykiem i mechanizmów zgodności w celu ochrony bezpieczeństwa pacjentów i zaufania publicznego. Jednak globalne zróżnicowanie podejść regulacyjnych stanowi wyzwanie dla twórców i instytucji opieki zdrowotnej działających ponad granicami, co wymaga międzynarodowej współpracy i harmonizacji.

Dodatkowo, należy uwzględnić społeczne i etyczne implikacje SI jako zintegrowanego ekosystemu. Rozwój opartych na SI platform cyfrowego zdrowia i rozwiązań telemedycznych zmienił tradycyjne modele opieki nad pacjentem, budząc obawy dotyczące wykluczenia cyfrowego pacjentów w podeszłym wieku, populacji wiejskich i osób o ograniczonych umiejętnościach obsługi technologii. Zapewnienie, że opieka zdrowotna oparta na SI pozostaje sprawiedliwa i dostępna dla wszystkich pacjentów — niezależnie od statusu społeczno-ekonomicznego — wymaga ukierunkowanych interwencji, nadzoru regulacyjnego i etycznych zasad projektowania.

Koncepcja „genomu regulacyjnego” SI

Koncepcja „genomu regulacyjnego” zaprezentowana niedawno przez Polata i Grzybowskiego [18] odzwierciedla potrzebę wszechstronnych i adaptacyjnych ram, które regulują rozwój, wdrażanie i monitorowanie systemów SI w opiece zdrowotnej. Ramy te powinny integrować zasady etyczne, standardy techniczne i wymogi prawne, zapewniając, że technologie SI są zgodne z celami społecznymi i priorytetami opieki zdrowotnej. Kluczowe elementy obejmują ciągłe monitorowanie i ocenę wydajności SI, a proces podejmowania decyzji przez model SI jest wyjaśnialny za pomocą map cieplnych i wyników pewności, co pomaga klinicystom w walidacji jego wyników. Model powinien przejść audyty uczciwości algorytmicznej, zapewniając, że nie będzie nieproporcjonalnie błędnie diagnozował pacjentów z niedostatecznie reprezentowanych grup etnicznych. System SI powinien przestrzegać standardów wysokiego ryzyka Aktu o SI UE i przestrzegać przepisów o ochronie danych, takich jak RODO, przy czym techniki uczenia federacyjnego zapewniają szkolenie SI z zachowaniem prywatności. System powinien przechodzić kwartalne audyty nadzoru po wprowadzeniu na rynek, oceniając wydajność w rzeczywistych warunkach w różnych populacjach. Regulatorzy, klinicyści i przedstawiciele lokalnych społeczności powinni mieć możliwość wnoszenia wkładu w dostosowywanie polityki, zapewniając wdrażanie SI z uwzględnieniem wrażliwości kulturowej. Poprzez operacjonalizację tego adaptacyjnego modelu, genom regulacyjny SI pomoże utrzymać SI w opiece zdrowotnej jako przejrzystą, uczciwą i odpowiadającą na zmieniające się potrzeby społeczne.

Pismiennictwo

  1. Babic, B.; Gerke, S.; Evgeniou, T.; Cohen, I.G. Beware explanations from AI in health care. Science 2021, 373, 284–286.
  2. Grzybowski, A.; Jin, K.;Wu, H. Challenges of artificial intelligence in medicine and dermatology. Clin. Dermatol. 2024, 42, 210–215.
  3. Goktas, P. Ethics, transparency, and explainability in generative ai decision-making systems: A comprehensive bibliometric study. J. Decis. Syst. 2024, 1–29.
  4. Rudin, C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nat.Mach. Intell. 2019, 1, 206–215.
  5. Tonekaboni, S.; Joshi, S.; McCradden, M.D.; Goldenberg, A. What clinicians want: Contextualizing explainable machine learning for clinical end use. In Machine Learning for Healthcare Conference; PMLR: Cambridge MA, USA, 2019; pp. 359–380.
  6. Bhattacharyya, M.; Miller, V.M.; Bhattacharyya, D.; Miller, L.E. High rates of fabricated and inaccurate references in ChatGPTgenerated medical content. Cureus 2023, 15, e39238.
  7. Anibal, J.T.; Huth, H.B.; Gunkel, J.; Gregurick, S.K.; Wood, B.J. Simulated misuse of large language models and clinical credit systems. NPJ Digit. Med. 2024, 7, 317.
  8. Collins, B.X.; Bélisle-Pipon, J.-C.; Evans, B.J.; Ferryman, K.; Jiang, X.; Nebeker, C.; Novak, L.; Roberts, K.; Were, M.; Yin, Z.; et al. Addressing ethical issues in healthcare artificial intelligence using a lifecycle-informed process. JAMIA Open 2024, 7, ooae108.
  9. Westerlund, M. The emergence of deepfake technology: A review. Technol. Innov. Manag. Rev. 2019, 9, 39–52.
  10. Moulaei, K.; Yadegari, A.; Baharestani, M.; Farzanbakhsh, S.; Sabet, B.; Afrash, M.R. Generative artificial intelligence in healthcare: Ascoping review on benefits, challenges and applications. Int. J. Med. Inform. 2024, 188, 105474.
  11. Jobin, A.; Ienca, M.; Vayena, E. The global landscape of AI ethics guidelines. Nat. Mach. Intell. 2019, 1, 389–399.
  12. Bates, D.W.; Levine, D.; Syrowatka, A.; Kuznetsova, M.; Craig, K.J.; Rui, A.; Jackson, G.P.; Rhee, K. The potential of artificial intelligence to improve patient safety: A scoping review. NPJ Digit. Med. 2021, 4, 54.
  13. Layode, O.; Naiho HN, N.; Adeleke, G.S.; Udeh, E.O.; Labake, T.T. The role of cybersecurity in facilitating sustainable healthcare solutions: Overcoming challenges to protect sensitive data. Int. Med. Sci. Res. J. 2024, 4, 668–693.
  14. Mittelstadt, B. Principles alone cannot guarantee ethical AI. Nat. Mach. Intell. 2019, 1, 501–507.
  15. Liebrenz, M.; Schleifer, R.; Buadze, A.; Bhugra, D.; Smith, A. Generating scholarly content with ChatGPT: Ethical challenges for medical publishing. Lancet Digit. Health 2023, 5, e105–e106.
  16. Ong,J.C.; Chang, S.Y.; William, W.; Butte, A.J.; Shah, N.H.; Chew, L.S.; Liu, N.; Doshi-Velez, F.; Lu, W.; Savulescu, J.; et al. Ethical and regulatory challenges of large language models in medicine. Lancet Digit. Health 2024, 6, e428–e432.
  17. He, J.; Baxter, S.L.; Xu, J.; Xu, J.; Zhou, X.; Zhang, K. The practical implementation of artificial intelligence technologies in medicine. Nat. Med. 2019, 25, 30–36.
  18. Goktas P, Grzybowski A. Shaping the Future of Healthcare: Ethical Clinical Challenges and Pathways to Trustworthy AI. J Clin Med. 2025 Feb 27;14(5):1605.

Szybki kontakt

Fundacja Wspierania Rozwoju Okulistyki „OKULISTYKA 21”

ul. A. Mickiewicza 24 lok. 3B, 60-836 Poznań

keyboard_arrow_up