Przełom w medycynie: AI zwróciła głos kobiecie sparaliżowanej przez udar
Była szczęśliwą 30-letnią nauczycielką matematyki i wychowania fizycznego. Urodziła dziecko, a podczas ślubu wygłosiła 15-minutową przemowę pełną radości. Kochała sport, trenowała koszykówkę i siatkówkę i to właśnie podczas jednej z gry jej los odmienił się na długie lata. Pewnego słonecznego dnia podczas spotkania z przyjaciółmi zagrała w siatkę, a podczas tej zabawy doznała udaru pnia mózgu. Od tamtej pory nie wypowiedziała ani jednego słowa. Dziś z pomocą przychodzi AI.

Po tym jak Ann Johnson doznała udaru pnia mózgu, zdarzenie to spowodowały u niej skrajny paraliż. A to oznacza, że 30-letnia kobieta nie tylko nie mogła poruszać mięśniami, ale również straciła zdolność komunikacji, doszło do afazji, czyli utraty mowy. Ten stan trwał aż 18 lat. Okazuje się, że dzięki sztucznej inteligencji mogła nareszcie znów usłyszeć swój głos.
Afazja po udarze. Jak AI odmieniło losy młodej kobiety?
Na skutek wspomnianego udaru, Ann Johnson doznała rzadkiego schorzenia określanego mianem zespołu zamknięcia (ang. locked-in syndrome). Polega on na tym, że choć pacjent jest przytomny i w pełni świadomy to całe jego ciało jest sparaliżowane, poza ruchem gałek ocznych i powiek. Okazuje się, że 30-latka próbowała mówić, ale jej usta się nie poruszały i nie była w stanie wydać z siebie żadnego dźwięku.
Z pomocą przyszła najnowsza technologia, a ściślej badania kliniczne prowadzone przez naukowców z Uniwersytetu Kalifornijskiego w Berkeley i Uniwersytetu Kalifornijskiego w San Francisco. Ich celem było przywrócenie ludziom zdolności komunikowania się z wykorzystaniem interfejsu mózg-komputer.
Gopala Anumanchipalli, który rozpoczął pracę jako badacz podoktorancki u Edwarda Changa, neurochirurga z Uniwersytetu Kalifornijskiego w San Francisco chciał zrozumieć, jak działa mowa na poziomie procesów zachodzących w mózgu. Analizując to zagadnienie, badacze chcieli ustalić, co sprawia, że jesteśmy w stanie przejść z myślenia o czymś do wypowiedzenia tych myśli na głos. Dzięki prowadzonym pracom udało się lepiej zrozumieć tę część mózgu, która odpowiada za “produkcję mowy”
Rozmawia dzięki AI. Sztuczna inteligencja odmieniła los kobiety po udarze
W kolejnych krokach autorzy badań klinicznych stworzyli model obliczeniowy procesu mowy, by w ten sposób na podstawie aktywności mózgu móc syntezować co konkretnie ktoś próbuje powiedzieć.
Okazuje się, że naukowcom udało się ustalić, w jaki sposób dotrzeć do źródła wiedzy, jakim jest mózg, ale tak, aby móc ominąć zerwane połączenia i następnie przywrócić utracone funkcje. Do tych celów wykorzystano neuroprotezę. Jej zadaniem jest odczytanie danych z tej części mózgu, która odpowiada za przetwarzanie mowy.
Ann Johnson była trzecią uczestniczką badań klinicznych skupiających się właśnie na tym, aby móc przywrócić zdolności komunikacji tym, którzy ją stracili m.in. na skutek udaru mózgu. Jak informuje portal Medical Xpress Ann udało się odzyskać częściową kontrolę nad mięśniami. Obecnie może poruszać szyją, uśmiechać, a nawet śmiać się i płakać.
Może się również komunikować za pomocą ruchu gałek ocznych, wybierając poszczególne litery na ekranie komputera. Niestety to bardzo powolny proces, ponieważ na minutę pozwala napisać wokiem 14 słów. Natomiast mowa konwersacyjna mieści w minucie 160 słów. Tu pojawia się rola AI.
Ann miała możliwość wyboru awatara, a naukowcy, wykorzystując jej nagrane przemówienie ze ślubu za pomocą sztucznej inteligencji dali jej uczucie ucieleśnienia całego procesu. Implant, który wszczepili jej do mózgu, działał, niczym dekoder myśli. Autorzy badań pokazali jej zdania na monitorze i poprosili, aby spróbowała je wypowiedzieć.
Kaylo Littlejohn, doktorant współprowadzący badanie wyjaśnił, że ze względu na obecny paraliż Ann nie mogła wypowiedzieć słów, natomiast mózg wciąż generował sygnały odpowiadające za mowę. Neuronowy implant dekodował i przesyłał informacje do komputera. Tam model sztucznej inteligencji tłumaczył aktywność mózgu na tekst.
Co ważne, choć model potrafił niezawodnie wykryć intencję mówienia i przetłumaczyć to, co próbuje się powiedzieć, nie umiał odczytać błędnych myśli danej osoby. A to oznacza, że działał wyłącznie wtedy, gdy ktoś świadomie starał się coś powiedzieć.
Odzyskanie kontroli i potrzeba zmian. Co dalej z neuroimplantem?
To nie koniec historii Ann Johnson. Okazuje się, że rozwiązanie miało swoje wady. Jedną z nich jest fakt, że za pomocą rozwiązania z wykorzystaniem awatara oraz AI słowa kobiety układały się w śpiewne tony. Nie były one jednak płynne, ponieważ dochodziło do ośmiosekundowych opóźnień pomiędzy komunikatem a momentem gdy zaczyna mówić awatar.
Naukowcom udało się jednak skrócić czas opóźnień. W nowym rozwiązaniu dekoder wykorzystywał model sekwencja-sekwencja. Tym razem użytkownik próbował wypowiedzieć całe zdanie, zanim AI rozpoczęła proces przekształcania je w dźwięk lub grymas twarzy.
Choć ostatecznie Ann Johnson usunęła implant z powodów niezwiązanych z badaniami, to wciąż jest w kontakcie z naukowcami. Korzystając z obecnej technologii, wysyła do naukowców elokwentne e-maile i opisuje w nich co czuła podczas badania klinicznego oraz co chciałaby uzyskać w przyszłych badaniach.
Podkreśliła, że lubi słyszeć swój własny głos, a podejście oparte na syntezie strumieniowej dało jej poczucie kontroli. Chce również, aby implanty były bezprzewodowe, a nie podłączone do komputera, nad czym pracuje zespół badawczy.