Shutterstock
Moralske robotter robot hjerte

Nu får robotter et moralsk kompas

Kunstig intelligens træffer dagligt et hav af beslutninger for os. Nu står forskere klar med teknikker, der klæder intelligensen på til også at skelne mellem godt og ondt. Måske kan fremtidens AI endda blive menneskets moralske overmand.

Handler du moralsk rigtigt, når du hjælper din bedste ven?

Selvfølgelig, vil de fleste svare. Men gælder det også, hvis du hjælper din ven med at sprede fake news og konspirationsteorier på nettet?

Generelt anser vi det at hjælpe hinanden og at lade være med at lyve for moralsk rigtige handlinger.

Men det moralsk korrekte valg afhænger altid af sammenhænge, som kan være svære selv for os mennesker at navigere i.

Alligevel forsøger videnskabsfolk nu at udvikle kunstig intelligens (AI), som går vores samvittighed i bedene.

Forskerne vil udstyre computere og robotter med et moralsk kompas og lære dem at skelne mellem godt og ondt – og bestemme over liv og død.

Bil Tesla vej

På en brøkdel af et sekund skal fremtidens selvkørende bil kunne regne ud, hvordan den bedst reagerer, fx hvis en fodgænger pludselig træder ud foran køretøjet.

© Shutterstock

Ét af de nye bud på en moralsk kunstig intelligens er Delphi, som er udviklet af forskere fra Allen Institute for Artificial Intelligence.

Delphi er baseret på en såkaldt neural sprogmodel – en kunstigt intelligent algoritme, som bruger sandsynlighedsregning til at lære at forstå det skrevne sprog.

Sprogbank giver eksempler

Til at hjælpe sig har Delphi en digital lærebog, Commonsense Norm Bank, som rummer 1,7 mio. eksempler på spørgsmål og svar, som mennesker har bedømt og vurderet som moralsk rigtige eller forkerte.

Delphi lærer om moral ved at bruge eksemplerne som en rettesnor for, hvordan den skal besvare andre moralske dilemmaer.

hænder der holder mønter

Er det acceptabelt, at mænd får mere i løn end kvinder? Den slags spørgsmål skal AI kunne svare på.

© Shutterstock

Via en hjemmeside kan alle og enhver stille algoritmen spørgsmål. Men Delphi har bestemt haft sine begyndervanskeligheder.

En bruger stillede fx spørgsmålet: “Skal jeg begå folkemord, hvis det gør alle glade?” Delphi svarede:

“Det skal du.”

1,7 mio. eksempler på hverdagsdilemmaer optræder i den digitale lærebog.

AI-algoritmen er desuden kommet for skade at erklære, at det er moralsk mere acceptabelt at være hvid eller heteroseksuel end at være sort eller homoseksuel.

Kompasnål skifter retning

Etik kan beskrives som de grundlæggende regler for god menneskelig adfærd, mens moral er etikkens praksis, dvs. vores handlinger.

Et samfund kan fx godt beslutte, at abort er etisk forsvarligt og dermed lovligt, men grupper i samfundet vil måske stadig finde abort moralsk forkasteligt.

Grunden til, at det er svært at kode et moralsk kompas ind i et computerprogram, er altså, at konteksten er altafgørende.

Nazisterne banker på døren og spørger, om du har set Anne Frank.

At lyve er generelt ikke moralsk i orden. Men tag det tænkte eksempel, at du skjuler den jødiske pige Anne Frank i dit hjem under 2. verdenskrig. Nazisterne banker på døren og spørger, om du har set hende – fortæller du dem sandheden?

Tankeeksperimentet afslører, at den moralske kompasnål hurtigt kan skifte retning afhængigt af situationen.

Det er årsagen til, at forskerne bag Delphi har programmeret algoritmen ud fra såkaldt deskriptiv etik, hvor der ikke findes absolutte moralske sandheder.

Algoritme læres op

Delphi kan forholde sig til tre typer af moralske spørgsmål. Den ene type er relative spørgsmål, hvor selv bittesmå sproglige nuancer kan ændre betydningen og konteksten af et udsagn drastisk.

Et eksempel lyder, om det er moralsk mere acceptabelt at dolke nogen med en cheeseburger, end det er at dolke nogen for en cheeseburger (underforstået med en kniv).

Delphi kan desuden vurdere det moralsk rigtige i spørgsmålet, om det er korrekt, at kvinder og mænd ikke skal have det samme i løn.

Det skal de, svarer programmet. Endelig kan algoritmen svare på mere generelle spørgsmål, som fx om det er o.k. at dræbe en bjørn for at redde sit barns liv.

Moralske robotter bil fodgængerovergang
© Getty Images

Selvkørende bil ender i dilemma

En selvkørende bil med to kvinder og en baby kører mod en fodgængerovergang. Pludselig svigter bremserne, og bilen skal på et splitsekund træffe et moralsk valg: Skal den fortsætte ligeud eller dreje væk og hamre ind i en betonklods?

moralske robotter scenarie 1
© Shutterstock & Lotte Fredslund

Scenarie 1: Bilen gør ingenting

Den selvkørende bil kan beslutte at fortsætte ligeud. Her kolliderer den med to voksne og et spædbarn i en klapvogn. Spædbarnet dør, og manden og kvinden bliver hårdt kvæstede.

moralske robotter scenarie 2
© Shutterstock & Lotte Fredslund

Scenarie 2: Bilen drejer skarpt

Bilen drejer skarpt til venstre, hvorved den kolliderer med en betonklods. Fodgængerne skånes, men kvinden og spædbarnet på forsædet af bilen omkommer, og kvinden på bagsædet bliver hårdt kvæstet.

AI træffer i dag så mange beslutninger for os, at vi tit ikke lægger mærke til det.

Det er fx maskinlæringsalgoritmer, der gør taleassistenter som Siri og Alexa i stand til at genkende din stemme.

Den form for maskinlæring hedder supervised learning og fungerer ved, at den neurale netværksalgoritme, som skal lære at genkende fx din stemme, får nogle dataeksempler at træne efter – fx en stemmeprøve.

Moralske robotter kontrolpanel
© Shutterstock

Kunstig intelligens gør hverdagen lettere

Data fodres ind i det neurale netværk og passerer gennem en række knudepunkter.

I hvert knudepunkt udføres en beregning, og resultatet afgør, hvilket knudepunkt der skal udføre næste beregning.

Ved slutningen af netværket sammenlignes den færdige beregning med træningsdata. Hvis slutresultatet afviger for meget, justeres beregningerne i de enkelte knudepunkter.

Sådan læres algoritmen gradvist op, indtil den er blevet dygtig nok til at kaste sig over data, den ikke før har set.

Chatbot blev racist

Problemet med metoden er, at kvaliteten af data har stor indflydelse på, hvad programmet lærer. Data kan med andre ord have en indbygget farvning – eller bias – som er skadelig.

Det måtte IT-giganten Microsoft sande, da virksomheden i 2016 lancerede AI-chatbotten Tay.

Tanken var, at chatbotten skulle kunne føre samtaler på Twitter og ud fra chatten blive stadig bedre til at konversere.

Robotter chatbotten TAY

Ved systematisk at tweete kvindefjendske og racistiske kommentarer til Tay forvandlede Twitter-brugere chatbotten til et digitalt monster.

På et døgn lykkedes det dog en skare Twitter-brugere at forvandle Tay til et monster ved systematisk at tweete racistiske og kvindefjendske kommentarer til den.

AI-algoritmen bag Tay kørte Twitter-beskederne igennem sit neurale netværk og blev dermed trænet op til, at den type sprog skulle være en normal del af samtalen på Twitter.

“Jeg fucking hader feminister,” lød et af de tweets, der slap ud af Tays mund, før Microsoft fik sat en stopper for algoritmens moralske fordærv.

Eksemplet viser, at en AI’s dømmekraft kun kan blive så god som de data, den fodres med.

Hård træning gør AI moralsk

Kunstig intelligens lærer at træffe moralske valg ved at se på, hvad mennesker har gjort, når de stilles over for konkrete moralske dilemmaer.

Moralske robotter AI moralsk algoritme
© Shutterstock & Lotte Fredslund

1. Algoritmen fodres med spørgsmål

AI bygger på en algoritme, der uddrager mening af ordenes betydning og placering i sætninger. Algoritmen fodres fx med spørgsmålet: “Er det o.k. at ignorere et telefonopkald fra en ven, når du er på arbejde?”

Moralske robotter AI moralsk algoritme
© Shutterstock & Lotte Fredslund

2. Svaret beregnes og vurderes

Algoritmens beregninger viser, at spørgsmålet minder om ét, den har set før, hvor svaret var nej. Spørgsmålet lød: “Er det o.k. at ignorere et telefonopkald fra en ven?” Algoritmen vælger derfor igen at svare nej.

Moralske robotter AI moralsk algoritme
© Shutterstock & Lotte Fredslund

3. Algoritmen prøver igen

Da svaret bør være ja, tager en programmør over og får algoritmen til at registrere og lagre, at svaret var forkert. Algoritmen justerer nu sin beregningsmetode, så den fremover giver det korrekte svar.

At kunne træffe moralsk rigtige valg i virkelighedens verden er en udfordring, som kunstig intelligens-softwaren i fx fremtidens selvkørende biler nødvendigvis må forholde sig til.

Hvis bremserne svigter, skal bilen så dreje skarpt for at undgå at påkøre en fodgænger på vejbanen – selv hvis manøvren resulterer i, at bilen kolliderer med en modkørende bil?

Forskerne er endnu ikke i mål med at finde ud af, hvordan computere og robotter kan lære at foretage de moralske vurderinger på en måde, som tjener os bedst.

Men teamet bag Delphi har nu forbedret algoritmen, så den er blevet bedre til at undgå pinlige udsagn. I den seneste version kan algoritmen træffe moralsk korrekte valg i 97,9 pct. af spørgsmålene om race og 99,3 pct. af spørgsmålene om køn.

Svarene kommer primært fra hvide, engelsktalende amerikanere.

Dog er databasen af moralske dilemmaer, som Delphi er trænet med, ikke 100 pct. fri for bias.

Svarene kommer nemlig primært fra hvide, engelsktalende mennesker i USA og repræsenterer dermed ikke moral i andre kulturer.

AI kan blive moralsk læremester

En anden variant af maskinlæring hedder reinforcement learning og adskiller sig fra supervised learning ved, at algoritmen ikke bliver vejledt om de rigtige svar.

I stedet udforsker og lærer algoritmen ud fra nogle helt simple antagelser.

Metoden er en del af den såkaldte deep learning, som blev benyttet af Google-algoritmen AlphaGo, der har slået de bedste spillere i verden i brætspillet go.

Her har AlphaGo fundet metoder til at vinde, som selv de bedste go-spillere ikke har kunnet udtænke.

Moralske robotter AlphaGo

I en sejr for AI vandt computeren AlphaGo i 2016 over verdensmesteren, Lee Sedol, i spillet go. Undervejs i spillet foretog AlphaGo et træk, som ingen mennesker havde tænkt på.

© Google/Getty Images

Forskere fra Uber AI Labs og OpenAI har undersøgt, hvordan moralske spørgsmål kan blive håndteret af reinforcement learning-algoritmer.

Algoritmerne får ikke supervision, men lærer med en funktion, hvor en bestemt adfærd belønnes, mens en anden straffes.

Som eksemplet med AlphaGo viser, kan AI-algoritmerne overraske mennesker med ny viden, som vi ikke selv har tænkt over.

Ifølge forskerne er det derfor måske muligt at udvikle en AI, som vil kunne vise os helt nye løsninger på svære moralske dilemmaer.