Forestil dig en svær matematikopgave. Formlerne giver dig svedige håndflader. Du rynker brynene lidt.
Brynenes ændrede positioner bliver opfanget af et kamera. En computer udstyret med kunstig intelligens analyserer dit ansigt.
Ikke en hvilken som helst kunstig intelligens – en, som forstår, at et rynket bryn i en vis vinkel tyder på overraskelse, mens en anden vinkel signalerer bekymring.
Med andre ord: Den ved, hvad du føler.
I 2029 vil computere have følelsesmæssig intelligens og være lige så overbevisende som mennesker. Ray Kurzweil, opfinder og futurolog
På Hong Kong True Light College er scenariet ikke fremtid. Kunstigt intelligente, følsomme computere følger eleverne og spotter de opgaver, som de har svært ved, så de kan få støtte af underviserne.
Kunstig intelligens har afkodet informationerne i vores ansigter og stemmer i årevis – tag fx ansigtsgenkendelse på de sociale medier eller digitale assistenter som Siri og Alexa – men nu begynder computerne også at reagere på vores følelsesliv.
Computerne aflæser vores følelser, og dét kan hjælpe os med alt fra at køre sikrere i bil til at dæmpe stress – men kan også ramme skævt og bruges til manipulation.
Ansigtet sladrer
Et traditionelt computerprogram behandler data efter en bestemt opskrift og spytter et resultat ud.
Kunstigt intelligente (AI) algoritmer adskiller sig ved at lære ud fra de data, de regner på. En AI-algoritme kan fx lære at genkende et bestemt ansigt i et billede.
Denne metode gør det muligt at låse sin smartphone op ved at vise sit ansigt, mens andres ansigter ikke dur.

Kunstig intelligens kan læse dine tanker
Forskere har udviklet en kunstig intelligens, der ved hjælp af hjerneskanning kan gætte sig frem til, hvad forsøgspersoner tænker. Læs historien her.
Den bagvedliggende teknik kaldes kunstige neurale netværk, da de er opbygget med forbillede i hjernens netværk af nerveceller, neuroner.
Hver “digital neuron” laver beregninger på et billedes pixels og sender resultatet videre i netværket, og til sidst tjekkes analysen op mod et billede, der er gemt i en database.
For hvert billede, netværket analyserer, bliver det “klogere”. Efterhånden behøver data fx ikke at tage 100 pct. samme vej gennem netværket for at give samme resultat.
Teknikken kaldes maskinlæring og gør, at en algoritme fx kan genkende dig fra forskellige vinkler.
Følsomme computere følger samme logik, men fokuserer på tegn, der afslører vores følelser. Derfor kaldes konceptet også “emotion AI”.
Vores tydeligste følelsesmarkør er ansigtsbevægelser. Hver bevægelse i ansigtets muskler kan sammenholdes med et register af bevægelse-følelse-kombinationer, som kunstige neurale netværk bruger som analyseværktøj.

Bestemte bevægelser svarer til bestemte følelser; fx kan et løft af det indre øjenbryn (1) samt et træk nedad i musklerne mellem øjnene (4) være tegn på tristhed.
Ansigtet afslører vores følelser
I 1978 udviklede forskerne Paul Ekman og Wallace Friesen systemet Facial Action Coding System, der deler ansigtsudtryk op i unikke muskelbevægelser, som hver rummer ledetråde til en persons følelser.
Emotion AI er dermed computernes svar på menneskelig empati.
Radiobølger afslører ophidselse
I bilen får følelserne ofte frit løb – tænk blot på såkaldt road rage, en eksplosiv vrede, der udløses af frustrerende situationer bag rattet.
Det amerikanske firma Affectiva har udviklet en følsom kunstig intelligens til at tøjle store følelser hos chauffører.
Programmet følger chaufføren via kameraer i bakspejlene. Hvis ansigtsmusklerne spændes, og armene vifter, bliver chaufføren advaret om stærke følelser, så hun fx kan holde ind til siden og falde til ro.
Og det er ikke kun kropssprog, der afslører følelser.

AI-virksomheden Affectiva udvikler kunstigt intelligente algoritmer, som bl.a. kan bruges til at detektere tegn på såkaldt road rage via et kamera installeret i bilens bakspejl.
Humøret kan også vise sig i samme type signal, som giver dig trådløst internet. Forskere ved MIT har konstrueret en emotion AI-enhed kaldet EQ-Radio, der udsender radiobølger – ligesom din wi-fi-router gør, blot i lidt andre bølgelængder.
Når radiobølgerne rammer et menneske, samler de ny information op, for vejrtrækning og hjerterytme påvirker formen på bølgerne, der bliver reflekteret tilbage til EQ-Radio.

Enheden EQ-Radio udsender radiobølger, der ændrer form som følge af brystets bevægelser forårsaget af hjerterytme og vejrtrækning.
Radiobølger aflurer dit humør
Forskere fra MIT har udviklet en trådløs boks, der bruger radiobølger til at måle hjerterytme og åndedræt, som sladrer om sindstilstande.

1. Trådløst signaler rammer personen
Den såkaldte EQ-Radio sender radiobølger ud. Bølgerne har frekvenser på 5,5-7,2 mia. svingninger i sekundet, gigahertz (GHz) – en almindelig wi-fi-router benytter 2,4 eller 5 GHz. Bølgerne reflekteres tilbage af en person.

2. Bølger bliver fortolket
Vejrtrækning (grøn) og hjerterytme (rød) skaber små bevægelser i kroppen, som påvirker formen på de bølger, der bliver reflekteret og når tilbage til EQ-Radio.

3. Algoritmer afkoder humør
En kunstigt intelligent algoritme analyserer bølgerne og sammenholder dem med en database over, hvilke følelser bestemte bølgeformer svarer til. Sådan bedømmer algoritmen, om en person fx er glad eller trist.
Forskerne bag EQ-Radio vil bl.a. bruge teknologien til at hjælpe folk med at registrere tegn på stress – da kan EQ-Radio automatisk programmeres til at dæmpe belysningen og sætte beroligende musik på.
Ingen af de ovenstående eksempler finder sted i en fjern fremtid, men er teknologier, der allerede findes.
Følsom kunstig intelligens udviklet af firmaet Opsis bliver fx lige nu brugt i Singapore til at hjælpe med at diagnosticere 4.300 ældre med mulig angst, stress og depression. Den kunstige intelligens analyserer bl.a. videooptagelser af de ældres ansigtsudtryk. Og det er kun ét eksempel.
Følsomme computere hjælper autister
Google Glass-brillerne var hypede og debatterede, da de kom på gaden i 2012. Brillen blev bandlyst fra mange caféer og barer, fordi dens videofunktion krænkede folks følelse af privatliv.
Brillen blev aldrig en folkelig succes, men efter at støvet har lagt sig, har forskere identificeret en række områder, hvor Google Glass kan blive et brugbart værktøj.
Og det gælder især, hvis de bliver programmeret med følsom kunstig intelligens.

Dette forskerhold ved Massachusetts Institute of Technology har udviklet software, som analyserer folks humør vha. radiobølger.
Forskere fra Stanford University har udstyret Google Glass-briller med en følsom algoritme, og derefter har autistiske børn brugt brillerne i hverdagen.
Algoritmen registrerer ansigter i omgivelserne og sender en emoji-lignende besked tilbage til barnet om, hvilken følelse personerne har. Det skal hjælpe autisterne med at begå sig socialt, hvilket ellers er en udbredt udfordring, fordi autisme ofte medfører store vanskeligheder ved at tolke andres følelser.
Følsomme computere kan altså gøre livet nemmere. Til gengæld rummer de også faldgruber.
Forsker i psykologi Lisa Feldman Barrett fra Northeastern University i Boston, USA, viser i en videnskabelig artikel fra 2021, at et enkelt ansigtsudtryk kan betyde vrede, glæde eller en helt tredje følelse alt efter situationen, personen indgår i.
Vores følelser kan med andre ord ikke altid kobles direkte til én bestemt indstilling af ansigtsmuskulaturen. En følsom computer kan fejltolke ansigtsudtryk, mener Barrett.
Og selv når en computers analyse rammer plet, kan analysen fra begyndelsen være baseret på et skævvredet verdensbillede. En undersøgelse lavet i 2018 ved University of Maryland i USA viser, at følsomme computere ofte tillægger mørke ansigter mere negative følelser end lyse ansigter, selvom de udviser de samme muskelbevægelser. Med andre ord: Emotion AI kan frembringe racistiske analyser.
Forklaringen er simpel: Algoritmerne bliver udviklet på baggrund af data – billeder af ansigter og tilhørende beskrivelser. Racistiske fordomme findes overalt, og derfor præger de også data.
Selv hvis emotion AI i en utopisk verden bliver 100 pct. fri for skævheder, kan teknologien stadig bruges på mere eller mindre manipulerende måder, fx af virksomheder, der sender skræddersyede feel-good-reklamer til folk, netop som de er nedtrykte og savner opmuntring. Eller politiske partier, der sender skræmmekampagner til folk, imens de udviser tegn på frygt.
Men uanset, om emotion AI bliver et værktøj, der manipulerer med folks følelser, eller en teknologi, der gør computere til empatiske hjælpere, vil den blive en del af vores hverdag.
Som emotion AI-forskeren Rana el Kaliouby sagde til et såkaldt TED-foredrag allerede i 2015:
"Alle vores digitale enheder kommer til at have en følelses-chip, og vi vil ikke kunne huske, hvordan det var, dengang vi kunne rynke på brynene ad vores enhed, uden at den sagde: 'Hmm, det kunne du ikke lide, hva'?'"