Daria Hemmerling, laureatka tegorocznej Nagrody Naukowej POLITYKI: Choroba? To się słyszy!
Dr inż. Daria Hemmerling jest adiunktką w Akademii Górniczo-Hutniczej w Krakowie, gdzie zajmuje się inżynierią biomedyczną oraz biocybernetyką. Skupia się na rozpoznawaniu biomarkerów głosowych mogących mieć znaczenie w wykrywaniu i monitorowaniu leczenia np. chorób Parkinsona lub Alzheimera. Pracuje też nad wykrywaniem niewydolności serca na podstawie analizy twarzy i głosu. Swoje badania prowadzi na styku technologii i medycyny.
MARCIN ROTKIEWICZ: – Zajmuje się pani ludzkim głosem, ale w dość nietypowy sposób: szuka w nim sygnałów różnych chorób i zaburzeń. Dlaczego akurat to panią tak fascynuje?
DARIA HEMMERLING: – Jestem jednym z tych naukowców, których zainteresowania i ścieżkę zawodową w ogromnym stopniu naznaczyła sytuacja rodzinna. Od dzieciństwa byłam świadkiem poważnych problemów zdrowotnych mojego taty – przeszedł wiele udarów. Dlatego wybrałam inżynierię biomedyczną, czyli dziedzinę łączącą wiedzę z zakresu inżynierii, technologii i nauk ścisłych z medycyną i biologią, w szukaniu rozwiązań służących diagnostyce i leczeniu pacjentów.
Dlaczego nie została pani po prostu lekarzem?
Bo fascynowały mnie komputery. Pierwszy dostałam od rodziców, kiedy miałam 13 lat, i cały czas przy nim siedziałam. Rozkręcałam go, coś zmieniałam w środku i ciągle prosiłam: „Kupcie mi więcej pamięci”, bo te czy inne programy nie funkcjonowały. Ogromnie mnie interesowało, jak to wszystko działa.
Po trzech latach rodzice zabrali mi komputer, bo uważali, że spędzam przy nim za dużo czasu i może mi to przeszkadzać w nauce, choć byłam prymuską. Miało to opłakane skutki – moje oceny natychmiast poleciały w dół. Miałam bowiem swój własny system nauki i pracy z komputerem. Kiedy wracałam do domu, to mówiłam do siebie: „Dobra, teraz coś uruchomię i maszynie zajmie to 15 minut, więc mam czas na zrobienie zadania z matematyki, a potem znowu wrócę do komputera”. Rodzice podejrzewali, że bezmyślnie siedzę przed ekranem, podczas gdy była to część mojego procesu kształcenia. Ja po prostu uwielbiałam na nim pracować, to mnie odstresowywało.
A kiedy zainteresowała się pani analizą głosu?
Jeszcze podczas studiów w Akademii Górniczo-Hutniczej wyjechałam do Singapuru, gdzie zajmowałam się automatyczną detekcją udarów mózgu na podstawie zdjęć z tomografii komputerowej. Po obronie pracy magisterskiej okazało się jednak, że nie pracując w żadnej firmie ani instytucie zajmującym się obrazowaniem medycznym, nie mam szans na dostęp do danych z tomografii komputerowej. Postanowiłam więc porozmawiać z prof. Ryszardem Tadeusiewiczem z AGH i poradzić się, jakie dane do badań byłyby o wiele łatwiej dostępne. „Przecież masz głos, wszyscy mają głos” – powiedział mi. Wówczas dotarło do mnie, że przecież przy różnych schorzeniach głos zmienia się, czego świetnym przykładem jest katar, ale i demencja. Zaczęłam więc pracować nad doktoratem związanym właśnie z analizą głosu i – choć początkowo w Polsce jeszcze nie bardzo w to wierzono – widziałam w tym ogromny potencjał. Ponadto do masowego użycia zaczęły wchodzić telefony komórkowe, więc pomyślałam, że ta technologia może przynieść dodatkowe informacje i pomóc w leczeniu pacjentów. Co ciekawe, partnerów do moich badań znalazłam w Kolumbii, dokąd zresztą wyjechałam na pewien czas.
A nie do Stanów Zjednoczonych, które są mekką naukowców?
Okazało się, że to właśnie Kolumbijczycy dysponują pokaźnymi bazami danych głosowych w różnych patologiach, głównie w chorobach neurodegeneracyjnych. Dlatego współpracowaliśmy bardzo ściśle, szukając rozmaitych deformacji – sprawdzaliśmy m.in., jak pacjenci mówią w bardziej zaawansowanych stadiach choroby. Po powrocie do Polski zaczęłam budować własną bazę danych, najpierw zbierając próbki głosu osób cierpiących na parkinsona, a później zajęłam się także depresją, problemami kardiologicznymi i demencją.
Jak wygląda analiza głosu pacjentów?
Algorytm komputerowy sprawdza ponad 1,2 tys. parametrów, a dodatkowo przygląda się pewnym aspektom językowym. Na przykład w chorobach neurodegeneracyjnych skraca się czas wypowiadania samogłosek. Zaobserwowaliśmy też ucinanie końcówek wyrazów czy zmianę stosunku ciszy do mowy, a także głośności wypowiedzi. Z kolei w depresji modyfikacji ulega zakres słownictwa. Pacjenci zaczynają się skupiać na pewnych tematach, ograniczając różnorodność używanych słów.
Jak przebiega badanie pacjenta?
Stosujemy różne zadania diagnostyczne. Na przykład prosimy o opowiedzenie, co robi w ciągu dnia – to pozwala nam ocenić, czy dana osoba prowadzi aktywny tryb życia, czy raczej siedzący. Ta pierwsza będzie opowiadać o zakupach, gotowaniu, opiece nad wnukami, druga skupi się na czynnościach niewymagających ruchu. Wykorzystujemy też specjalne obrazki zawierające elementy statyczne i dynamiczne, obserwując, na co pacjent zwraca uwagę w swojej wypowiedzi – czy dostrzega ruch, interakcje między postaciami, czy skupia się tylko na tych pierwszych.
Czy można tę technologię stosować globalnie, czy różnice językowe stanowią przeszkodę?
Analizy komputerowe trzeba dostosowywać do grup językowych, ponieważ każdy język ma charakterystyczne zakresy częstotliwości. Istnieją jednak wspólne parametry, które działają niezależnie, choć jest ich mniej niż tych specyficznych. Ponieważ naukowcy z różnych krajów zaczęli dzielić się swoimi bazami danych, pojawiła się szansa na tworzenie bardziej uniwersalnych rozwiązań.
Jak skuteczne są tego typu metody diagnostyczne?
To zależy od choroby. Przy parkinsonie trafność rozpoznania przez algorytm osoby już na nią cierpiącej przekracza 90 proc. Przy demencji jest ona trochę niższa – ok. 70–80 proc. Kluczowe znaczenie ma baza danych wykorzystywana do uczenia algorytmów – musi być zbalansowana pod względem płci i wieku, bo kobiety i mężczyźni mówią inaczej, a 70-latek ma inną charakterystykę głosu niż 40-latek.
Czyli na razie komputer jedynie potwierdza diagnozę, ale nie wykrywa choroby, zanim pojawią się jej charakterystyczne symptomy?
W przypadku chorób kardiologicznych jesteśmy jeszcze na etapie badań podstawowych. Jeśli zaś chodzi o choroby neurologiczne i neurodegeneracyjne, to jestem przekonana, że będą one wykrywane dużo wcześniej. Docelowo zmierzamy do tego, by móc diagnozować chorobę, zanim pojawią się klasyczne objawy kliniczne, które skłoniłyby pacjenta do wizyty u lekarza. To stanowi największy potencjał tej technologii.
Czy będzie to jakaś aplikacja w smartfonie?
Tak. I wyobrażam sobie, że wyświetli użytkownikowi informację typu: „Od jakiegoś czasu twoja mowa brzmi troszeczkę gorzej”. Wskaże też konkretne parametry – że np. zmienił się tembr głosu albo skróceniu uległy wypowiedzi. Do tego zasugeruje, czy warto to skonsultować ze specjalistą i konkretnie z którym – neurologiem, kardiologiem, psychologiem czy psychiatrą. Współczesne smartfony mają naprawdę bardzo zaawansowane możliwości: przez przednią kamerkę można sprawdzać nie tylko puls, ale także mikropulsacje w różnych fragmentach skóry na twarzy. Dodając do tego analizę głosu i wzorców ruchu, będziemy mogli tworzyć kompleksowe narzędzia diagnostyczne.
Oczywiście pojawia się tu problem etyczny. Musimy znaleźć odpowiedni sposób przekazywania informacji użytkownikowi, żeby niepotrzebnie go nie straszyć, bo przecież algorytmy mogą się mylić. Maszyny wspierają nas w obserwacji, ale nie są bezbłędne.
Nad czym pracuje pani w tej chwili?
Realizuję grant dotyczący monitorowania i diagnozy chorób neurodegeneracyjnych za pomocą tzw. rozszerzonej rzeczywistości.
Czyli?
W przeciwieństwie do wirtualnej rzeczywistości, która w stu procentach przenosi człowieka do świata cyfrowego, ta polega na użyciu specjalnych gogli, które pozwalają widzieć normalne otoczenie, na które nakładane są dodatkowo obrazy cyfrowe, np. hologramy, napisy, ekrany czy awatary. Wybór ten jest podyktowany względami medycznymi: przy chorobach neurologicznych występują zaburzenia błędnika i założenie gogli VR mogłoby powodować problemy. W rozszerzonej rzeczywistości pacjent widzi zaś swoje otoczenie, więc błędnik „nie szaleje”.
Do czego wykorzystuje pani tę rozszerzoną rzeczywistość?
Służy ona, wraz z różnymi sensorami, do śledzenia nie tylko głosu, ale też ruchów gałek ocznych i kończyn górnych, położenia głowy i przemieszczania się w przestrzeni. To pozwala na bardziej kompleksową diagnostykę. Prowadzimy też badania nad wykrywaniem niewydolności serca na podstawie analizy twarzy i głosu.
Gdyby mogła pani cofnąć się w czasie, to czy z pomocą takich technologii potrafiłaby pani lepiej pomóc swojemu tacie?
Gdybym miała obecną wiedzę dziesięć lat temu, to prawdopodobnie inaczej pokierowalibyśmy jego leczeniem. Kiedy zaczął mu się zmieniać głos, lekarz zdiagnozował zapalenie krtani, choć w rzeczywistości było to zapalenie naczyń krwionośnych w mózgu. Nie wiem, czy bylibyśmy w stanie zatrzymać chorobę, ale może udałoby się ją spowolnić dzięki wcześniejszemu wykryciu, jeszcze zanim zmiany uwidoczniły się na obrazach medycznych. U taty pojawiały się też inne sygnały – miał problem z przejściem przez próg, doświadczał też blokad ruchu podobnych do tych, jakie występują u osób z chorobami neurodegeneracyjnymi – człowiek idzie i nagle się zatrzymuje, mimo że np. bardzo potrzebuje skorzystać z łazienki.
Takie zachowania łatwiej zauważyć, gdy w pobliżu jest rodzina, ale kiedy ktoś mieszka sam, jest trudniej. Pacjenci często też nie przyznają się do swoich problemów, bo są krępujące, lub zapominają o nich podczas wizyty u lekarza – bo przecież ostatecznie sobie poradzili, umyli się i wrócili do normalnego życia. Dlatego mam nadzieję, że aplikacje, nad którymi obecnie pracuję, pomogą naprawdę wielu ludziom.