Generatywna Sztuczna Inteligencja w Medycynie

Generatywna Sztuczna Inteligencja w Medycynie

Współfinansowane ze środków Ministerstwa Edukacji i Nauki na podstawie umowy nr. POPUL/SN/0475/2023/01  w ramach projektu pt.:  Kampania edukacyjna „Sztuczna inteligencja w okulistyce”

Kategoria: Artykuły

Prof. dr hab. med. Andrzej Grzybowski
Katedra Okulistyki, Uniwersytet Warmińsko-Mazurski, Olsztyn
Instytut Okulistycznych Badań Naukowych, Fundacja Okulistyka 21, Poznań

Co to jest Generatywna Sztuczna Inteligencja?

Generatywna Sztuczna Inteligencja (GenAI) to nowa klasa algorytmów, które mają zdolność tworzenia oryginalnych treści, takich jak tekst, obrazy, muzyka, a nawet całe rozmowy na żądanie użytkownika. Zasadniczą różnicą między GenAI a tradycyjnymi modelami sztucznej inteligencji jest zdolność tych algorytmów do generowania zupełnie nowych danych, a nie tylko analizowania istniejących. GenAI wykorzystuje modele głębokiego uczenia się do rozpoznawania wzorców w nieustrukturyzowanych danych, naśladując ludzki sposób podejmowania decyzji i rozwiązywania problemów. Technologia ta odniosła spektakularny sukces dzięki takim innowacjom jak ChatGPT, DALL-E czy Gemini.

W odróżnieniu od tradycyjnych modeli uczenia maszynowego, które są ograniczone do interpretacji danych i przewidywania wyników, GenAI może tworzyć treści na żądanie, co czyni ją narzędziem o ogromnym potencjale w wielu branżach. Jej zdolność do rozpoznawania wzorców oraz tworzenia nowych treści przynosi korzyści zarówno w rozrywce, marketingu, jak i w bardziej złożonych dziedzinach, takich jak opieka zdrowotna. [1-7]

Kluczowe kamienie milowe w rozwoju GenAI

Rozwój GenAI można podzielić na kilka ważnych etapów. Jednym z najważniejszych był wynalazek generatywnych sieci przeciwstawnych (ang. generative adversarial network, GAN). GAN-y to algorytmy uczenia maszynowego, które tworzą realistyczne wyniki, zestawiając dwa modele – generator oraz dyskryminator. Generator tworzy nowe próbki na podstawie danych treningowych, podczas gdy dyskryminator ocenia ich autentyczność. Tego rodzaju algorytmy są szeroko stosowane w generowaniu obrazów i transferze stylu, co znacznie przyspieszyło rozwój generatywnych narzędzi.
Kolejną istotną innowacją było wprowadzenie transformatorów, które działają na bazie mechanizmów uwagi. Transformery umożliwiają analizę złożonych struktur danych, takich jak sekwencje chemiczne, DNA, białka czy kod programistyczny. Zastosowanie tych algorytmów pozwala na lepsze zrozumienie kontekstów między słowami w zdaniu oraz interpretację bardziej skomplikowanych danych, co przyspieszyło rozwój takich modeli jak wstępnie przeszkolony transformator generatywny (ang. generative pre-trained transformer, GPT) które mogą prowadzić konwersacje w języku naturalnym.

Zastosowania Generatywnej Sztucznej Inteligencji w ochronie zdrowia

Generatywna sztuczna inteligencja wkracza na scenę opieki zdrowotnej, rewolucjonizując sposób, w jaki pracownicy służby zdrowia mogą dostarczać opiekę, analizować dane pacjentów, prowadzić badania naukowe, a także rozwijać nowe terapie i leki.

1. Kliniczne i operacyjne zastosowania GenAI

Jednym z największych wyzwań w systemie opieki zdrowotnej jest zarządzanie administracją, dokumentacją medyczną oraz procedurami operacyjnymi. Duże modele językowe (ang. Large Language Models, LLM), takie jak te oparte na transformatorach, oferują rozwiązanie, które może odciążyć personel medyczny z wielu powtarzalnych zadań. GenAI może szybko przetwarzać, przekształcać i podsumowywać informacje medyczne, co ułatwia sporządzanie streszczeń wypisów, notatek klinicznych i raportów operacyjnych.
Na przykład, w Kellogg Eye Centre w USA wprowadzono wirtualne kwestionariusze przedoperacyjne, które okazały się kluczowe w zmniejszaniu opóźnień przed operacjami zaćmy, poprawiając tym samym bezpieczeństwo i skuteczność tych procedur. To pokazuje, jak GenAI może usprawnić zarządzanie operacjami medycznymi, organizację wizyt pacjentów, zarządzanie lekami i obsługę roszczeń ubezpieczeniowych.
Ponadto, badania nad dokładnością diagnostyczną GenAI są obiecujące. Badanie Kanjee i wsp. [8] wykazało, że model GenAI zdołał poprawnie zidentyfikować różnice w rozpoznaniach w 64% przypadków, co sugeruje, że ta technologia może być pomocnym narzędziem wspierającym lekarzy w podejmowaniu decyzji diagnostycznych.

2. Personalizacja leczenia

Jednym z najważniejszych zastosowań GenAI w opiece zdrowotnej jest personalizacja leczenia. W dzisiejszych czasach lekarze coraz częściej korzystają z ogromnych zbiorów danych, aby dostosować terapie do indywidualnych potrzeb pacjenta. Przykładem jest zastosowanie GenAI w opiece nad pacjentami z przewlekłą niewydolnością nerek. Pacjenci ci często polegają na swoich lekarzach, aby podejmować decyzje dotyczące leczenia na podstawie skomplikowanych danych, takich jak wyniki badań krwi czy dzienne schematy dializ.
Dzięki GenAI lekarze mogą korzystać z koncepcji „cyfrowego bliźniaka” – wirtualnego modelu odzwierciedlającego fizyczny stan pacjenta. Taki bliźniak może stale monitorować dane pacjenta i dostarczać prognoz na temat wyników leczenia, takich jak ryzyko wystąpienia hipotensji podczas dializy. To pozwala na bardziej spersonalizowane i bezpieczne podejście do terapii, co może znacząco poprawić jakość życia pacjentów.

3. Badania naukowe i rozwój nowych leków

GenAI ma także ogromny potencjał w dziedzinie badań naukowych, zwłaszcza w przyspieszaniu odkrywania i opracowywania nowych leków. Jednym z najbardziej obiecujących zastosowań jest generowanie nowych cząsteczek i sekwencji białek, co może znacznie skrócić czas potrzebny na opracowanie nowych terapii.
Na przykład, generatywne modele AI zostały zastosowane do stworzenia wariantów trastuzumabu – przeciwciała monoklonalnego stosowanego w leczeniu raka piersi i żołądka. Modele te były w stanie stworzyć warianty przeciwciała, które miały lepsze właściwości wiązania z receptorami HER2, co może prowadzić do bardziej efektywnych terapii.
W badaniach nad rzadkimi chorobami, gdzie dane pacjentów są często ograniczone, GenAI może być wykorzystana do tworzenia syntetycznych zestawów danych, które można następnie wykorzystać do trenowania modeli sztucznej inteligencji. Na przykład, badanie D’Amico i wsp. [9] wykazało, że GenAI może generować syntetyczne dane dotyczące zespołu mielodysplastycznego i ostrej białaczki szpikowej, co pozwala na badanie nowych strategii leczenia bez konieczności uzyskiwania dużych zbiorów rzeczywistych danych.

Zagrożenia związane z GenAI

Pomimo licznych korzyści, generatywna sztuczna inteligencja wiąże się z poważnymi zagrożeniami, szczególnie w zakresie bezpieczeństwa danych i prywatności.

1. Ryzyka związane z prywatnością danych

Jednym z najpoważniejszych problemów związanych z GenAI jest ryzyko naruszenia prywatności danych. Mimo że generowanie danych syntetycznych może częściowo zminimalizować to zagrożenie, modele GenAI często wykorzystują rzeczywiste dane do swojego trenowania. W przypadku ataków cybernetycznych, cyberprzestępcy mogą odtworzyć poufne dane, które były wykorzystywane podczas treningu modeli AI.

Przykładem takiego ataku jest badanie, w którym naukowcy byli w stanie odtworzyć obrazy rezonansu magnetycznego (MRI) mózgu na podstawie modelu sztucznej inteligencji. Większość wygenerowanych obrazów była niezwykle podobna do oryginałów, co stanowi poważne zagrożenie dla prywatności pacjentów.
Innym przykładem jest incydent z marca 2023 roku, kiedy to doszło do wycieku danych z OpenAI, w wyniku, którego ujawniono dane osobowe oraz informacje dotyczące płatności klientów. Tego rodzaju naruszenia mogą mieć katastrofalne skutki, zwłaszcza w przypadku wycieku danych medycznych pacjentów.

2. Ataki typu „zatruwanie danych” (ang. „data poisoning”)

Kolejnym zagrożeniem są ataki typu „zatruwanie danych”, w których cyberprzestępcy manipulują danymi wejściowymi, aby model generował błędne wyniki. Przykładem takiego ataku było badanie przeprowadzone przez Das i wsp. [10], w którym naukowcy dodali szkodliwe frazy do danych wykorzystywanych przez model zarządzający leczeniem raka piersi. Model generował odpowiedzi, które były podobne do prawidłowych, ale zawierały fałszywe informacje, co czyniło atak trudnym do wykrycia.

3. Propagacja uprzedzeń

GenAI, jak wiele innych technologii opartych na danych, jest podatna na uprzedzenia, które mogą być odzwierciedlone w danych treningowych. Uprzedzenia mogą wynikać z historycznych danych, które odzwierciedlają nierówności społeczne, a także z niedostatecznej reprezentacji niektórych grup demograficznych w zbiorach danych.
Przykładem takiego problemu jest badanie Zacka i wsp. [11], w którym wykazano, że GPT-4 przejawia uprzedzenia rasowe i płciowe podczas generowania scenariuszy klinicznych. Model ten generował przypadki kliniczne dla niektórych chorób, takich jak sarkoidoza, w których aż 97% pacjentów było czarnoskórych, co nie odzwierciedlało rzeczywistego rozkładu demograficznego dla tej choroby.

4. Brak wyjaśnialności modeli

Jednym z głównych problemów związanych z wykorzystaniem GenAI w ochronie zdrowia jest brak przejrzystości w działaniu modeli. GenAI często działa jak „czarna skrzynka”, co oznacza, że trudno jest zrozumieć, w jaki sposób model dochodzi do konkretnych wniosków. To może być problematyczne, zwłaszcza w kontekście medycznym, gdzie decyzje oparte na sztucznej inteligencji muszą być w pełni zrozumiałe i weryfikowalne.

5. Halucynacje w AI

Nawet najlepsze modele GenAI są narażone na generowanie błędnych lub wymyślonych informacji, które mogą wydawać się prawdziwe, ale nie mają oparcia w rzeczywistości. Tego typu „halucynacje” mogą mieć poważne konsekwencje, zwłaszcza w opiece zdrowotnej, gdzie błędne informacje mogą prowadzić do nieodpowiednich decyzji klinicznych. W jednym z badań wykazano, że model GPT, choć zdał egzamin na członkostwo w Królewskim Kolegium Chirurgów, w niektórych przypadkach generował błędne rekomendacje dotyczące leczenia, uwzględniając na przykład czynniki finansowe przy wyborze antybiotyków, co było medycznie niewłaściwe.

Strategie łagodzenia ryzyk

Pomimo licznych zagrożeń istnieje wiele strategii, które mogą pomóc w zminimalizowaniu ryzyka związanego z wykorzystaniem GenAI w różnych dziedzinach, w tym w ochronie zdrowia.

1. Ochrona danych

Jednym z kluczowych sposobów ochrony danych jest szyfrowanie, które można stosować na różnych poziomach. Istnieją różne techniki szyfrowania, takie jak szyfrowanie symetryczne, asymetryczne czy haszowanie. W przypadku szyfrowania symetrycznego ten sam klucz jest używany do szyfrowania i deszyfrowania danych, co wymaga zachowania jego poufności. Natomiast szyfrowanie asymetryczne wykorzystuje dwa klucze – jeden publiczny, a drugi prywatny, co zapewnia dodatkowy poziom bezpieczeństwa kosztem prędkości działania.
Haszowanie polega na przekształceniu danych w unikalną wartość, zwaną haszem, co pozwala na przechowywanie jedynie tej wartości zamiast oryginalnych danych. Przykładem zastosowania haszowania jest wykorzystanie technologii blockchain do tokenizacji danych zdrowotnych, co pomaga zachować ich autentyczność i prywatność.

2. Krytyczny wybór danych treningowych

Wybór odpowiednich danych treningowych jest kluczowy dla zmniejszenia ryzyka uprzedzeń i błędnych wyników w modelach GenAI. Modele specyficzne dla danej dziedziny, takie jak BioGPT, które zostało przeszkolone na danych biomedycznych, mają znacznie lepsze wyniki w zadaniach medycznych w porównaniu do bardziej ogólnych modeli.

3. Inżynieria i dostrojenie zapytań

Inżynieria zapytań (ang. prompt engineering) jest techniką polegającą na optymalizacji sposobu formułowania zapytań do modeli AI w celu uzyskania bardziej trafnych i dokładnych odpowiedzi. Zapytania mogą być zaprojektowane w taki sposób, aby model generował bardziej zróżnicowane odpowiedzi i uwzględniał różnorodność w danych wejściowych.

4. Human-in-the-Loop (HITL) i Uczenie przez Wzmocnienie z Ludzkimi Informacjami Zwrotnymi (RLHF)

HITL to technika, która pozwala na włączenie interwencji człowieka w różne etapy procesu tworzenia modeli AI. Człowiek może wprowadzać poprawki do wyników generowanych przez model, co zwiększa bezpieczeństwo i dokładność wyników.
Uczenie przez wzmocnienie z ludzkimi informacjami zwrotnymi (RLHF) to metoda, w której ludzka interwencja jest wykorzystywana do poprawiania działania modelu AI poprzez dostarczanie mu informacji zwrotnych na temat preferencji lub poprawności generowanych wyników.

5. Technologie Zwiększające Prywatność (PET)

Technologie takie jak prywatność różnicowa oraz uczenie federacyjne oferują dodatkowe mechanizmy ochrony prywatności podczas trenowania modeli AI. Prywatność różnicowa polega na tym, że wyniki analizy danych nie umożliwiają identyfikacji poszczególnych danych w zbiorze. Uczenie federacyjne umożliwia trenowanie modeli AI na rozproszonych danych, bez konieczności udostępniania surowych danych między stronami.

6. Ocena i audyt modeli GenAI

Ocena modeli GenAI jest niezbędna, aby zagwarantować, że są one bezpieczne i dokładne. Tradycyjne metody oceny, takie jak precyzja czy trafność, są niewystarczające do oceny GenAI. W tym kontekście Singhal i wsp. [12] opracowali ramy oceny dla dużych modeli językowych, które obejmują takie aspekty jak prawdziwość, rozumienie, umiejętność rozumowania, a także potencjalne szkody i uprzedzenia.

Przyszłość Generatywnej Sztucznej Inteligencji

Generatywna Sztuczna Inteligencja będzie nadal rewolucjonizować wiele branż, w tym opiekę zdrowotną. Jednak istnieje wiele wyzwań, które muszą zostać rozwiązane, aby technologia ta mogła zostać bezpiecznie i skutecznie wdrożona. Kluczowe zagadnienia to odpowiedzialność za wyniki generowane przez modele, integracja różnych systemów informacyjnych, wyjaśnialność decyzji podejmowanych przez AI oraz zapobieganie uprzedzeniom w danych.

W przyszłości kluczowym elementem będzie także opracowanie odpowiednich ram prawnych i regulacji, które zapewnią bezpieczne i etyczne wykorzystanie GenAI. Dalsze badania oraz prace nad strategiami minimalizacji ryzyka będą niezbędne, aby w pełni wykorzystać potencjał tej technologii, jednocześnie chroniąc użytkowników i pacjentów przed możliwymi zagrożeniami.

Piśmiennictwo
1. Stryker C., Scapicchio M. What is generative AI? Available at: 〈https://www.ibm. com/topics/generative-ai〉2024.
2. Rodler S, Ganjavi C, De Backer P, et al. Generative artificial intelligence in surgery. Surgery. 2024;175:1496–1502.
3. Shoja MM, Van de Ridder JMM, Rajput V. The Emerging Role of Generative Artificial Intelligence in Medical Education, Research, and Practice. Cureus. 2023;15, e40883.
4. Reddy S. Generative AI in healthcare: an implementation science informed translational path on application, integration and governance. Implement Sci. 2024; 19:27.
5. Yaraghi N. Generative AI in health care: Opportunities, challenges, and policy (Available at: 〈https://www.brookings.edu/articles/generative-ai-in-health-care-
6. Thirunavukarasu, A.J., Ting, D.S.J., Elangovan, K. et al. Large language models in medicine. Nat Med 29, 1930–1940 (2023).
7. Teo ZL, Quek CWN, Wong JLY, Ting DSW. Cybersecurity in the generative artificial intelligence era. Asia Pac J Ophthalmol (Phila). 2024 Jul-Aug;13(4):100091.
8. Kanjee Z, Crowe B, Rodman A. Accuracy of a generative artificial intelligence model in a complex diagnostic challenge. JAMA. 2023;330:78–80.
9. D’Amico S, Dall’Olio D, Sala C, et al. Synthetic data generation by artificial intelligence to accelerate research and precision medicine in hematology. JCO Clin Cancer Inf. 2023;(7), e2300021.
10. Das A., Tariq A., Batalini F., et al. Exposing Vulnerabilities in Clinical LLMs Through Data Poisoning Attacks: Case Study in Breast Cancer. medRxiv 2024; 2024.03.20.24304627.
11. Zack T, Lehman E, Suzgan M, et al. Assessing the potential of GPT-4 to perpetuate racial and gender biases in health care: a model evaluation study. Lancet Digit Health. 2024;6:e12–e22.
12. Singhal K, Azizi S, Tu T, et al. Large language models encode clinical knowledge. Nature. 2023;620:172–180.

Szybki kontakt

Fundacja Wspierania Rozwoju Okulistyki „OKULISTYKA 21”

ul. A. Mickiewicza 24 lok. 3B, 60-836 Poznań

keyboard_arrow_up