Fałszywi lekarze w sieci. Jak nie dać się oszukać sztucznej inteligencji?
Szukanie informacji o zdrowiu w sieci stało się naszą codziennością. Jednak obok sprawdzonych źródeł rośnie potężne zagrożenie, gdzie sztuczna inteligencja generuje fałszywych lekarzy i zmyślone schorzenia. Okazuje się, że ta nowa metoda medycznej dezinformacji jest niezwykle przekonująca i trudna do odróżnienia od prawdy, a sposoby obrony przed nią nie są oczywiste.

- Badanie z Uniwersytetu Południowej Australii ujawnia, że aż 88% odpowiedzi od celowo wprowadzanej w błąd AI zawierało dezinformację medyczną
- Realistyczne nagrania wideo z fałszywymi lekarzami to nowe, potężne zagrożenie dla pacjentów
- Naukowcy z Mount Sinai odkryli, że proste ostrzeżenie w poleceniu dla chatbota może zredukować ilość błędów o prawie połowę
- Sztuczna inteligencja jest nie tylko źródłem problemu, ale staje się też skutecznym narzędziem do jego zwalczania
- Badanie z Uniwersytetu Koźmińskiego pokazuje entuzjazm polskich lekarzy, podczas gdy UODO alarmuje o pilnej potrzebie zmian w prawie
Fałszywi lekarze i zmyślone choroby. Jak AI służy medycznej dezinformacji?
Sztuczna inteligencja, w tym popularne chatboty (takie jak ChatGPT), coraz częściej staje się źródłem niepokojących informacji para- i pseudomedycznych. Jak pokazuje analiza przeprowadzona przez naukowców z Mount Sinai, opublikowana na łamach czasopisma „Communications Medicine”, narzędzia te można łatwo zmanipulować. Problem polega na tym, że AI nie tylko powiela nieprawdziwe dane, ale potrafi je twórczo rozwijać, tworząc bardzo przekonujące, choć zupełnie zmyślone, opisy nieistniejących chorób.
Potwierdza to badanie z Uniwersytetu Południowej Australii, którego wyniki pojawiły się w „Annals of Internal Medicine”. Pokazało ono, że aż 88% odpowiedzi od AI, celowo wprowadzonych w błąd, zawierało dezinformację.
Co więcej, w niektórych przypadkach aż cztery na pięć testowanych programów generowało fałszywe treści za każdym razem. W ten sposób promowały niezwykle szkodliwe tezy, na przykład rzekomy związek między szczepionkami a autyzmem, teorie o dietach mających leczyć raka, czy fałszywe twierdzenia o przenoszeniu wirusa HIV drogą powietrzną. To pokazuje, jak potężnym i niebezpiecznym narzędziem w niepowołanych rękach może stać się sztuczna inteligencja, jeśli chodzi o nasze zdrowie.
Problem dezinformacji nie kończy się na tekście generowanym przez AI. Coraz większym zagrożeniem stają się tak zwane deepfake’i - czyli bardzo realistyczne, ale fałszywe filmy tworzone przez AI. Jak ostrzega Australijskie Stowarzyszenie Medyczne, technologia ta pozwala tworzyć nagrania, w których znani lekarze i eksperci rzekomo polecają niesprawdzone produkty lub terapie.
Badacze z Uniwersytetu w Neapolu dodają, że medyczne deepfake’i to nie tylko filmy z lekarzami, ale też komputerowo generowane wypowiedzi fałszywych pacjentów czy zmanipulowane prezentacje wyników badań. Skala zjawiska jest alarmująca, co potwierdzają doniesienia CBS News, według których takie materiały potrafią zdobyć miliony wyświetleń, podważając zaufanie do prawdziwych specjalistów i całego systemu ochrony zdrowia.
Prawo, technologia i proste triki. Jak bronić się przed dezinformacją z AI?
W obliczu tych zagrożeń na szczęście nie jesteśmy bezbronni. Na całym świecie podejmowane są próby prawnego uregulowania tej kwestii. Dobrym przykładem są Stany Zjednoczone, gdzie wprowadzono ustawę TAKE IT DOWN Act. Jak wyjaśnia analiza prawna w „The Regulatory Review”, jest to pierwsze prawo na poziomie federalnym, które uznaje za przestępstwo tworzenie i rozpowszechnianie fałszywych, intymnych materiałów bez zgody przedstawionej osoby, również tych stworzonych przez AI. To ważny krok, który pokazuje, że prawodawcy zaczynają dostrzegać skalę problemu i szukać konkretnych rozwiązań, aby chronić obywateli.
Co ciekawe, eksperci podkreślają, że sztuczna inteligencja może być nie tylko źródłem problemu, ale także częścią jego rozwiązania. W opracowaniu europejskiego oddziału Światowej Organizacji Zdrowia (WHO), które ukazało się w „BMJ Global Health”, czytamy, że odpowiednio wykorzystana AI może pomagać instytucjom publicznym w szybszym wykrywaniu dezinformacji i skuteczniejszym komunikowaniu się ze społeczeństwem w sytuacjach kryzysowych. Kluczowe jest jednak, aby jej użycie było zawsze oparte na jasnych zasadach etycznych i służyło dobru wspólnemu.
Równolegle do działań prawnych rozwijane są zaawansowane technologie do walki z fałszywymi treściami. Naukowcy z Uniwersytetu w Neapolu stworzyli system o nazwie CER, który z dużą skutecznością potrafi wykrywać dezinformację medyczną. Analizuje on nie tylko tekst, ale także nagrania wideo, automatycznie zamieniając mowę na tekst do dalszej weryfikacji. Czasem jednak nawet proste działania przynoszą zaskakująco dobre efekty. Wspomniane już badanie z Mount Sinai pokazało, że dodanie zwykłego ostrzeżenia do polecenia (czyli tzw. promptu) wydawanego chatbotowi może zmniejszyć ilość generowanych przez niego błędów o niemal połowę. Pokazuje to, jak duży wpływ na działanie AI ma nasza własna świadomość i sposób, w jaki się z nią komunikujemy.

Polscy lekarze chcą korzystać z AI. Czy prawo nadąża za technologią?
W Polsce sytuacja związana z AI w medycynie jest bardzo ciekawa i ma dwa oblicza. Z jednej strony panuje duży optymizm. Badanie Uniwersytetu Koźmińskiego, opublikowane w czasopiśmie „Frontiers in Digital Health”, pokazało, że aż 68% polskich lekarzy chętnie wdrożyłoby narzędzia oparte na sztucznej inteligencji.
Taka postawa sprzyja innowacjom, co widać już teraz. Jak informuje „Przegląd Epidemiologiczny”, na naszym rynku z powodzeniem działają certyfikowane rozwiązania, które wspierają diagnostykę, a kolejne firmy rozwijają oprogramowanie do wstępnej oceny objawów.
Z drugiej strony, ten technologiczny entuzjazm zderza się z lukami w prawie. Jak wskazuje analiza portalu Digital Policy Alert, obecne polskie przepisy zapewniają tylko częściową ochronę przed zagrożeniami takimi jak deepfake. Problem ten został już dostrzeżony na najwyższym szczeblu – niedawno Urząd Ochrony Danych Osobowych (UODO) oficjalnie zwrócił się do premiera z propozycją stworzenia specjalnych regulacji.
Ostatecznie kluczem do bezpiecznego korzystania z dobrodziejstw AI jest nasza wspólna odpowiedzialność, świadomość i zdolność do krytycznego myślenia, które zawsze powinny być krokiem przed technologią.
Źródła:
- Mount Sinai
- University of South Australia
- Australian Medical Association (AMA)
- The Regulatory Review
- Frontiers in Digital Health
- Przegląd Epidemiologiczny (PZH)
- Digital Policy Alert
- PubMed
- World Health Organization (WHO)
- PubMed Central (PMC)