Du føler dig sløj, men i stedet for at bestille tid hos lægen hiver du mobilen op af lommen og siger: “Hej Siri, fejler jeg noget?” På et øjeblik fortæller den personlige assistent, om du har covid-19, er deprimeret eller lider af parkinson.
Det er din stemme, som afslører, hvad du fejler, og det har læger faktisk benyttet sig af i mange år.
Et af kriterierne for at stille diagnosen bipolar lidelse er eksempelvis, at patienterne i den maniske fase taler meget og hurtigt, mens en hæs og snøvlende stemme er et oplagt tegn på halsbetændelse eller forkølelse.
Men stemmen rummer mange flere facetter, som ændrer sig i forbindelse med en lang række sygdomme, og ændringerne er ofte så små, at lægerne ikke kan høre forskel.
Derfor er de begyndt at få hjælp fra avancerede algoritmer, der benytter kunstig intelligens til at analysere patientens stemme og lytte efter unormale mønstre i stemmeføring, toneleje, talehastighed og ordvalg.
Mobilen redder hjertepatienter
Israelske forskere er tæt på at have udviklet en app til mobiltelefonen, som ved at lytte til hjertepatienters stemme kan vurdere, om patienternes sygdom er ved at udvikle sig kritisk, så de har brug for lægehjælp.

Patienten besvarer spørgsmål
Patienten aktiverer appen, som beder vedkommende svare på tilfældige spørgsmål. Appen optager svaret og stopper, så snart den har registreret 20 sekunder af stemmen – uafhængigt hvad vedkommende har sagt.

Stemmedetaljer former billede
Appen leder efter 223 karakteristiske detaljer i stemmeføringen. Det er fx variationer i tonehøjde eller lydstyrke kombineret med en rystende eller skælvende stemme. Detaljerne bliver lagt i en matrix med farvekoder.

Appen stiller diagnose
Kunstig intelligens sammenligner billedet af patientens stemme med tusinder af stemmebilleder fra andre patienter med kendte diagnoser og sygdomsforløb. Den sandsynligste diagnose for patienten bliver fastlagt.
Ved at sammenligne stemmemønstre fra tusindvis af raske og syge personer kan algoritmerne lære at kende forskel og udpege akkurat de detaljer i stemmen, der afslører, om man lider af en hjertesygdom, har migræne eller er i risiko for at begå selvmord.
Kunstig intelligens lytter med
Allerede i 2017 ansøgte virksomheden Amazon om et patent på en teknologi, der ud fra stemmeanalyse gør firmaets personlige assistent, Alexa, i stand til at afgøre, om en person har ondt i halsen.
Af patentet fremgår det, at Amazon i så fald kan vise brugeren reklamer for forkølelsesmedicin eller tilbyde vedkommende at købe medicinen med levering inden for en time. Heldigvis er det dog ikke kun kommercielle interesser, der driver udviklingen for sammenhængen mellem din stemme og dit helbred.
Når personer ringer til 112, er de ofte paniske og forvirrede, så modtageren på alarmcentralen kan have svært ved at forstå, hvad opkaldet drejer sig om, og hvor alvorlig situationen egentlig er. Derfor har det danske startupfirma Corti udviklet en algoritme, som lytter med ved nødopkald.
Forskerne kunne med 99 pct. sikkerhed afgøre, om en person havde parkinson eller ej, blot ved at lytte efter, når vedkommende sagde “ahhh”.
Alarmsystemets kunstige intelligens søger i realtid efter mønstre i ord og vendinger, der tyder på hjertestop, og informerer akutberedskabet, hvis de optræder.
I fællesskab kan mand og maskine på den måde identificere 95 pct. af de opkald, der drejer sig om hjertestop, mens det kun gælder 73 pct., når personalet ikke får hjælp fra den kunstige intelligens.
En stavelse afslører parkinson
Mens Cortis system til at lytte efter hjerteanfald er baseret på ordvalget og dermed afspejler personens sindstilstand, så lytter andre systemer i stedet efter selve stemmen og er i princippet uinteresserede i, hvad der bliver sagt.
Mange sygdomme påvirker nemlig på den ene eller anden måde evnen til at udtale ord. Forkølelse inficerer stemmebåndene og giver hæshed, mens forfrysninger i læberne fører til læspen. På tilsvarende vis påvirker Parkinsons sygdom mange aspekter af taleevnen.
Bevægelserne hos parkinsonpatienter er svagere, langsommere og mere rykvise, og det gælder også tungen. Talen bliver langsommere og lavere, stemmen begynder at ryste, og patienten udtaler bestemte stavelser på en anderledes måde.
Da hverken laboratorieanalyser, fx blodprøver, eller hjerneskanninger kan stille en sikker parkinsondiagnose, er en række forskere begyndt at undersøge, om stemmeanalyser kan løse opgaven.
Allerede i 2012 optog forskere fra University of Oxford i Storbritannien lyden af 10 raske personer og 33 patienter med parkinson, mens de sagde stavelsen “ahhh”.
Med hjælp fra computerprogrammer til stemmeanalyse identificerede forskerne ikke mindre end 132 forskellige detaljer i måden at udtale den simple stavelse på. Da forskerne sammenlignede de 132 detaljer i stemmen mellem samtlige 43 forsøgspersoner, kunne de udpege 10 fonetiske detaljer i stavelsen, hvor de raske personer og patienterne med parkinson afveg fra hinanden.
Kunstig intelligens redder liv
Læger skal analysere store mængder sundhedsdata og finde detaljer i skanningsbilleder for at stille en korrekt diagnose. Med kunstig intelligens kan en computer hurtigt hjælpe lægen til at stille bedre diagnoser.
Forskellen var så markant, at forskerne med 99 pct. sikkerhed kunne afgøre, om en person havde parkinson eller ej, blot ved at lytte efter, når vedkommende sagde “ahhh”.
Alzheimer kendes på sløv tale
Alzheimer er en anden udbredt hjernesygdom, der kan afsløres på stemmen. Her har patienterne svært ved at finde de rigtige ord, så der opstår pauser imellem dem. Derudover benytter patienterne sig ofte af stedord som fx “han” i stedet for personens navn samt generelle ord som “hus” frem for specifikke betegnelser som “villa” eller “rækkehus”.
Forskere fra University of Toronto, Canada, udførte i 2016 et forsøg med 167 patienter med alzheimer samt 97 raske kontrolpersoner. Med deres egne ord skulle forsøgspersonerne i løbet af 45 sekunder beskrive så mange detaljer som muligt af en tegning, hvor man ser nogle børn stjæle kager fra et skab, mens mor står og vasker op.
Forskerne opstillede nu 400 forskellige parametre for forsøgspersonernes beskrivelser. Det kunne fx være, om de havde brugt ordet “mor”, hvor mange verber de anvendte, hvor lange ordene var i gennemsnit, hvor hurtigt stavelserne blev udtalt efter hinanden, osv.
Diagrammer udpeger sygdom
Computeren omdanner den sædvanlige stemmeoptagelse til et diagram, hvor kunstig intelligens har bedre mulighed for at analysere og sammenligne detaljer. Nu kan computeren holde optagelser med snøvlende, mangelfuld eller besværet tale op mod raske personer.

Raske stemmer er livligere
Tonelejet og ordvalget i raske menneskers stemmer er som udgangspunkt livligt, sprudlende og indeholder mere præcise formuleringer. Den viden kan bruges til at sammenligne raske personer med stemmen fra en patient, der har fået en diagnose eller er blevet syg.

Depressiv stemme er monoton
Stemmeføringen hos personer, der lider af depression, har typisk en mere monoton pitch – dvs. færre variationer i antallet af svingninger, også kendt som frekvensen. Farvekoderne udtrykker stemmens volumen. Jo mørkere farve, og jo mere mørklilla, jo flere decibel.
En computer blev herefter sat til at sammenligne, hvordan parametrene var blevet opfyldt hos henholdsvis de raske og de syge personer. Computeren benyttede maskinlæring til at lede efter mønstre eller sammenhænge i de mange data, der adskilte de to grupper af forsøgspersoner.
Da læringsprocessen var slut, kunne den kunstige intelligens med 82 pct. sikkerhed afgøre, om en person havde alzheimer eller ej, blot ved at se på 35 af de 400 parametre. Siden 2016 har forskerne forbedret deres algoritmer, så den kunstige intelligens nu kan diagnosticere alzheimer med en sikkerhed på 92 pct.
Covid-19 afsløres med host
Lige siden coronapandemien brød ud i starten af 2020, har forskere overalt i verden ikke bare arbejdet på at udvikle en vaccine, de har også været i et sandt kapløb om at nå først i mål med en app til mobilen, som kan stille diagnosen covid-19, blot ved at man taler eller hoster ind i mikrofonen.
Blandt deltagerne i kapløbet er et forskerhold fra Massachusetts Institute of Technology (MIT) i Cambridge, USA. I september 2020 publicerede de et system, som havde lært at kende forskel, når raske personer og personer med en diagnose på covid-19 hostede ind i en mikrofon.
🎬 Forskere opdager kræft vha. machine learning
Computere foretager milliarder af beregninger på de data, forskere finder for at hjælpe med at finde frem til kræftceller og redde liv.
Den kunstige intelligens’ neurale netværk havde lyttet til host fra 4256 personer og øvet sig i at høre forskel på, hvem der var raske eller syge. Derefter præsenterede forskerne systemet for hostelyde fra 1064 nye personer, og blandt dem kunne det neurale netværk på et øjeblik stille den korrekte diagnose i 97 pct. af alle tilfælde.
Hostetesten er dermed næsten lige så pålidelig som den såkaldte PCR-test, regeringer verden over i øjeblikket bruger til at teste befolkningen med for covid-19. Men hvor PCR-testen koster omkring 200 kr. at udføre, kræver et personligt fremmøde og tager to døgn at gennemføre, så er hostetesten gratis, kan udføres derhjemme og giver svar øjeblikkeligt.
Endnu mangler forskerne på MIT at finpudse appen, så den bliver endnu mere pålidelig og kan opnå myndighedernes godkendelse, men så skulle den også være klar til at blive downloadet til mobiler overalt i verden.
Derefter vil andre apps kunne følge trop og gøre det muligt, at man kan diagnosticere sig selv for alverdens sygdomme blot ved at spørge mobilens personlige assistent, hvad man fejler.