Omówienie artykułu pt. „Generatywna sztuczna inteligencja i względy etyczne w opiece zdrowotnej” opublikowanego w Lancet Digit Health w 2024 roku [1].
Prof. dr hab. med. Andrzej Grzybowski
Kierownik Katedry Okulistyki, Uniwersytet Warmińsko-Mazurski, Olsztyn
Kierownik Instytutu Okulistycznych Badań Naukowych, Fundacja Okulistyka 21, Poznań
Artykuł „Generative Artificial Intelligence and Ethical Considerations in Health Care: A Scoping Review and Ethics Checklist” stanowi szczegółowe omówienie zastosowania generatywnej sztucznej inteligencji (GenAI) w ochronie zdrowia, z naciskiem na związane z tym kwestie etyczne. Badanie analizuje luki w literaturze dotyczącej etyki GenAI i proponuje narzędzie, tzw. Checklistę TREGAI, która ma na celu promowanie bardziej odpowiedzialnych badań nad GenAI w medycynie. Oto szczegółowe omówienie artykułu, rozpisane na około 5000 słów:
Wprowadzenie
W ostatnich latach rozwój generatywnej sztucznej inteligencji (GenAI) – technologii, która potrafi generować realistyczne treści, takie jak tekst, obrazy czy wideo – przyciągnął uwagę szerokiej publiczności oraz specjalistów z różnych dziedzin. Modele takie jak ChatGPT i inne generatywne transformatory, wykorzystujące ogromne zbiory danych do trenowania, stają się coraz bardziej popularne, a ich zastosowanie znajduje miejsce również w ochronie zdrowia.
Jednakże, chociaż potencjał GenAI w medycynie jest ogromny – od wsparcia diagnostyki po poprawę dostępu do informacji medycznych – to związane z tym technologie generują także poważne obawy etyczne. Przykładem jest możliwość naruszania prywatności pacjentów oraz ryzyko powstawania błędnych lub wprowadzających w błąd treści, co może mieć istotne konsekwencje w kontekście klinicznym.
Pomimo licznych dyskusji na temat etycznych implikacji sztucznej inteligencji (AI) w ochronie zdrowia, wciąż brakuje praktycznych rozwiązań, które mogłyby odpowiednio regulować te technologie. Niniejszy przegląd systematyczny analizuje istniejącą literaturę na temat GenAI w medycynie, identyfikuje luki badawcze i proponuje konkretne działania, aby sprostać wyzwaniom etycznym.
Metody
Strategia wyszukiwania i kryteria doboru artykułów
Autorzy artykułu przeprowadzili przegląd literatury, obejmujący cztery główne bazy danych: PubMed, Embase, Web of Science oraz Scopus. Przegląd obejmował publikacje z lat 2013-2023, zawierające słowa kluczowe związane z trzema głównymi pojęciami: „etyka AI”, „generatywna AI” oraz „ochrona zdrowia”.
Po selekcji wykluczono artykuły, które nie dotyczyły bezpośrednio ochrony zdrowia lub nie odnosiły się do kwestii etycznych związanych z GenAI. Autorzy wykluczyli także prace niepublikowane, takie jak postery konferencyjne czy rozdziały książek. Ostatecznie przegląd objął 193 artykuły, które zostały poddane szczegółowej analizie pod kątem związanych z GenAI kwestii etycznych.
Analiza danych
Autorzy podzielili analizowane artykuły na trzy główne kategorie w zależności od rodzaju omawianych danych: tekstowe, obrazowe oraz strukturalne (np. dane tabelaryczne). Następnie przeanalizowano siedem kluczowych zmiennych, w tym: typ artykułu (oryginalne badania lub przeglądy), rodzaj zastosowanego modelu GenAI, a także omawiane kwestie etyczne. W przypadku niejasności dotyczących klasyfikacji artykułów, decyzje podejmowano w drodze dyskusji.
Wyniki
GenAI oparte na danych tekstowych
Spośród 193 analizowanych artykułów, 41 dotyczyło etycznych implikacji GenAI dla danych tekstowych. Z tych 41 prac, 29 omawiało konkretne zagrożenia etyczne, takie jak prywatność, przejrzystość oraz równość dostępu do technologii. Wiele z tych badań odnosiło się bezpośrednio do modeli LLM (Large Language Models), takich jak ChatGPT, które generują realistyczne teksty na podstawie zebranych danych.
Najczęściej omawiane kwestie to:
- Nieprawidłowe treści generowane przez LLM: Modele te mogą generować błędne lub częściowo niepełne informacje, co stwarza poważne zagrożenia dla zdrowia pacjentów. Oceniono, że modele te wymagają dalszych testów w kontekście klinicznym, aby można było ocenić ich rzeczywistą przydatność i wiarygodność.
- Prywatność: LLM mogą potencjalnie „uczyć się” na danych wrażliwych, takich jak dane medyczne, co rodzi ryzyko naruszeń prywatności pacjentów. Chociaż niektóre prace sugerują tworzenie syntetycznych danych w celu ochrony prywatności, problem ten wciąż wymaga dalszych rozwiązań technologicznych.
- Autonomia: Istnieje ryzyko, że GenAI wpłynie na autonomię lekarzy i pacjentów, zwłaszcza gdy modele te będą zbyt dominujące w procesie podejmowania decyzji klinicznych. Lekarze mogą być zmuszeni do polegania na rekomendacjach GenAI, co może prowadzić do obniżenia ich niezależności decyzyjnej.
GenAI dla danych obrazowych i strukturalnych
Inną ważną kategorią analizowanych badań były zastosowania GenAI w przetwarzaniu danych obrazowych i strukturalnych. W tej grupie znalazło się 98 artykułów dotyczących danych obrazowych i 58 dotyczących danych strukturalnych. Zdecydowana większość prac koncentrowała się na kwestiach związanych z prywatnością oraz równością dostępu do technologii.
Najczęstsze problemy etyczne omawiane w tej grupie obejmowały:
- Generowanie syntetycznych danych obrazowych: Wykorzystanie GenAI do tworzenia syntetycznych obrazów medycznych (np. zdjęć rentgenowskich) może pomóc w ochronie prywatności pacjentów. Jednak wciąż istnieje ryzyko, że syntetyczne obrazy mogą być wykorzystywane w niewłaściwy sposób, np. do oszustw ubezpieczeniowych.
- Przejrzystość i zaufanie: Większość analizowanych artykułów zwracała uwagę na brak przejrzystości w działaniu GenAI, co utrudnia lekarzom zrozumienie, jak i dlaczego model podjął daną decyzję diagnostyczną. Ten brak przejrzystości może prowadzić do braku zaufania do tych technologii w środowisku medycznym.
Kwestie etyczne w badaniach nad GenAI
Wśród analizowanych artykułów 85 z nich dotyczyło bardziej szczegółowych dyskusji na temat etyki GenAI w ochronie zdrowia. Autorzy zwrócili uwagę na dziewięć kluczowych zasad etycznych, które powinny być brane pod uwagę przy opracowywaniu i wdrażaniu GenAI w medycynie. Oto te zasady:
- Odpowiedzialność: Jasne określenie odpowiedzialności za potencjalne szkody wynikające z korzystania z GenAI.
- Autonomia: Zachowanie praw pacjentów do podejmowania świadomych decyzji.
- Równość: Zapewnienie równego dostępu do technologii GenAI dla różnych grup społecznych.
- Integralność: Utrzymanie wysokiej jakości badań klinicznych oraz edukacji medycznej.
- Nieszkodzenie: Zapobieganie ryzyku i potencjalnym szkodom związanym z użyciem GenAI.
- Prywatność: Ochrona danych pacjentów przed nieuprawnionym dostępem.
- Bezpieczeństwo: Zapewnienie ochrony integralności danych zdrowotnych.
- Przejrzystość: Pełna dokumentacja i jawność informacji dotyczących rozwoju i działania GenAI.
- Zaufanie: Budowanie zaufania użytkowników do systemów GenAI poprzez ich odpowiednią regulację i rozwój.
Dyskusja i zalecenia
Chociaż liczba artykułów dotyczących etycznych aspektów GenAI w ochronie zdrowia stale rośnie, wiele istotnych zagadnień nadal nie jest odpowiednio omawianych. Autorzy artykułu identyfikują cztery główne luki w obecnych badaniach i sugerują narzędzie w postaci Checklisty TREGAI jako sposób na bardziej systematyczne podejście do rozwiązywania tych problemów.
- Brak rozwiązań dla problemów etycznych: Wiele artykułów skupia się na identyfikacji problemów etycznych, ale niewiele z nich proponuje konkretne rozwiązania. Większość proponowanych rozwiązań to regulacje i wytyczne, które nie zawsze są wystarczające, aby zapobiegać naruszeniom etyki. Zaleca się opracowanie bardziej operacyjnych wytycznych, które mogłyby pomóc w rozwiązaniu takich problemów.
- Zbyt mało uwagi poświęconej innym metodom GenAI: Większość artykułów skupia się na dużych modelach językowych (LLM), pomijając inne technologie GenAI, takie jak generatywne sieci przeciwstawne (GAN). Technologia GAN jest szeroko stosowana w badaniach medycznych, ale jej etyczne konsekwencje są nadal słabo rozumiane.
- Brak wspólnego punktu odniesienia dla dyskusji etycznych: Badania nad GenAI często korzystają z różnych definicji zasad etycznych, co prowadzi do braku spójności w dyskusjach. Autorzy podkreślają potrzebę wprowadzenia ustandaryzowanych narzędzi, takich jak Checklista TREGAI, która mogłaby pomóc w ocenie etycznych aspektów badań.
- Zbyt mała liczba badań dotyczących GenAI multimodalnej: Większość badań nad GenAI koncentruje się na danych unimodalnych, takich jak tekst czy obrazy. Tymczasem technologie GenAI, które mogą integrować różne rodzaje danych (np. tekst i obrazy), mają ogromny potencjał, ale również stwarzają nowe wyzwania etyczne.
Wnioski
Autorzy artykułu podkreślają, że GenAI ma ogromny potencjał w medycynie, ale równocześnie generuje wiele wyzwań etycznych. Wprowadzenie odpowiednich regulacji oraz narzędzi, takich jak Checklista TREGAI, może pomóc w odpowiedzialnym rozwoju tych technologii i zapewnić ich etyczne wykorzystanie w praktyce klinicznej.
Chociaż badania nad GenAI są wciąż we wczesnej fazie, identyfikacja kluczowych problemów etycznych już teraz jest kluczowa dla zapewnienia, że technologia ta będzie stosowana w sposób odpowiedzialny i z korzyścią dla pacjentów.
Piśmiennictwo
1. Ning Y, Teixayavong S, Shang Y, Savulescu J, Nagaraj V, Miao D, Mertens M, Ting DSW, Ong JCL, Liu M, Cao J, Dunn M, Vaughan R, Ong MEH, Sung JJ, Topol EJ, Liu N. Generative artificial intelligence and ethical considerations in health care: a scoping review and ethics checklist. Lancet Digit Health. 2024 Sep 17:S2589-7500(24)00143-2.

