Prawo nie nadąża za rozwojem sztucznej inteligencji w medycynie
Sztuczna inteligencja (ang. AI – Artificial Intelligence) dynamicznie się rozwija i stanowi przyszłość medycyny. Nadal brakuje jednak regulacji na poziomie międzynarodowym – zwłaszcza legalnej definicji – określających sztuczną inteligencję i, co się z tym wiąże, jasności co do kwestii odpowiedzialności za ewentualne błędy lekarskie, które powstały przy stosowaniu sprzętu wspomaganego przez AI.
Potencjał AI w medycynie
Narzędzia diagnostyczne, które są wspierane przez sztuczną inteligencję podnoszą jakość i efektywność opieki zdrowotnej. Wykorzystuje się je przede wszystkim przy przeprowadzaniu wywiadu z pacjentem, analizie wyników badań, monitorowaniu stanu leczonej osoby i wykonywaniu wielu innych czynności przez lekarza w celu postawienia odpowiedniej diagnozy. Ich prawidłowe funkcjonowanie zależy głównie od dużej ilości zróżnicowanych informacji, w tym danych szczególnych dotyczących pacjentów.
- Niekontrolowany dostęp do takich informacji może doprowadzić do szkód w indywidualnym interesie jednostki. Sceptycznie wypowiadają się na temat kumulacji danych ośrodki oferujące prywatną opiekę zdrowotną, które nie chcą dzielić się posiadanymi zasobami informacji o swoich pacjentach - Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy.
Obecnie w medycynie korzysta się już z kilku systemów AI. Jednym z nich jest DXplain – program, który po przeanalizowaniu zestawu objawów zaobserwowanych u pacjenta przedstawia listę możliwych diagnoz. Ostateczny wybór pozostawia on jednak lekarzowi. Warto zwrócić uwagę także na Germwatcher. Jest to laboratoryjny system informacyjny, który wykrywa, śledzi oraz bada możliwość występowania zakażeń u osób hospitalizowanych.
Zdecydowanie przełomem było wprowadzenie zrobotyzowanych systemów chirurgicznych. Przy wykorzystaniu systemu DaVinci z robotycznymi ramionami, precyzyjnym ruchem i magnetycznym wzrokiem, lekarze są w stanie przeprowadzić operacje, które nie byłyby możliwe przy wykorzystywaniu standardowych procedur.
Potrzeba regulacji
Parlament Europejski wraz z Europejskim Komitetem Ekonomiczno-Społecznym wskazuje, że konieczne jest wypracowanie precyzyjnej definicji sztucznej inteligencji. Powinna spełniać wymogi dużej ostrości, a co się z tym wiąże nie wprowadzać dodatkowych niejasności, wątpliwości bądź luk prawnych, oraz być na tyle „otwarta” technologicznie, aby nie hamować w przyszłości potencjalnego rozwoju technologii AI.
Definicja legalnej sztucznej inteligencji pozwoliłaby na określenie, kto odpowiada za ewentualne błędy lekarskie, które powstały przy stosowaniu maszyn wspomaganych przez AI.
- Kierując się przepisami prawa cywilnego, aby móc przypisać odpowiedzialność danemu podmiotowi musi zaistnieć, m.in. jedna z przesłanek, adekwatny związek przyczynowy pomiędzy jego działaniem lub zaniechaniem a zdarzeniem, w wyniku którego powstała szkoda. Przypisanie odpowiedzialności cywilnej podmiotowi za działanie powstałe na skutek sztucznej inteligencji wydaje się bardzo trudne. Lekarz nie jest w stanie przewidzieć intencji autonomicznej jednostki. Jest to problem, na który zwracają uwagę zwłaszcza przeciwnicy wykorzystywania AI w medycynie - Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy.
Warto również zwrócić uwagę na to, że opracowywanie diagnoz przez maszyny z zasobami sztucznej inteligencji jest statystycznie skuteczniejsze i szybsze niż przez lekarzy. Eksperci podkreślają jednak, że AI w medycynie powinna być pod ciągłym nadzorem człowieka ze względu na wagę skutków, jakie może przynieść jakiekolwiek zakłócenie. W takim duchu dla przykładu działa amerykańska rządowa Agencja Żywności i Leków (FDA, US Food and Drug Administration) zezwalającą lekarzom na prowadzenie jedynie takich badań z zastosowaniem AI, które cechuje niskie ryzyko.