Kimberly White/Getty Images

Forsker: Kunstig intelligens diskriminerer kvinder og sorte

INTERVIEW: “Kunstig intelligens bliver brugt til at stadfæste magten hos de magtfulde på bekostning af de marginaliserede,” siger computerforskeren Timnit Gebru. I 2020 blev hun fyret fra Google på grund af sine udtalelser. Nu arbejder hun på at gøre kunstig intelligens mere etisk forsvarlig.

Computere tager fejl af kvinder

Spørgsmål 1: Du har sammen med Joy Buolamwini fra MIT opdaget, at kunstig intelligens er bedst til at identificere hvide mænd. Hvordan nåede I frem til det?

Joy Buolamwini lavede en omfattende gennemgang af en række kommercielle løsninger til ansigtsgenkendelse. Hun undersøgte specifikt såkaldte kønsgenkendelses-API’er – programmer, der via et billede af en person klassificerer personen som enten mand eller kvinde.

Og det fremgik tydeligt, at kvinder med mørk hud langt oftere fik tildelt et forkert køn sammenlignet med hvide mænd. Hos mændene lå fejlraten nede omkring nul procent.

Teknologi afspejler sine skabere

Spørgsmål 2: Favoriserer kunstig intelligens generelt hvide mænd?

Teknologi afspejler de mennesker, der skaber den, og det samfund, den eksisterer i. I betragtning af, at kvinder og minoriteter er et særsyn i techbranchen, og at netop disse grupper af mennesker stadig bliver undertrykt over hele verden, er det også forventeligt, at kunstig intelligens favoriserer hvide mænd.

Teknologien bliver brugt til at stadfæste magten hos de magtfulde på bekostning af de marginaliserede. Og det er åbenlyst et problem.

Video: Forstå faren ved diskriminerende teknologi

Timnit Gebru giver et overblik over konsekvenserne af diskriminerende kunstig intelligens – og kommer med et bud på en løsning.

Algoritmer øver sig på diskriminerende tekster

Spørgsmål 3: Kan du give et par eksempler på, hvordan kunstig intelligens diskriminerer kvinder, ud over ansigtsgenkendelse?

Et godt eksempel er de store sprogmodeller som GPT-3 og dets efterfølgere. Sprogmodeller er blevet trænet til at fuldføre skrevne sætninger på et datasæt bestående af hundredvis af milliarder ord fra internettet, litteratur og andre tekster, som er udvalgt af forskerne bag GPT-3.

Denne teknologi koder beviseligt efter nogle sexistiske og racistiske synspunkter, som favoriserer den hvide klasse og diskriminerer kvinder og marginaliserede grupper.

Kunstig intelligens kan bidrage til undertrykkelse

Spørgsmål 4: Hvilke negative konsekvenser har det for kvinder generelt, at kunstig intelligens diskriminerer dem?

Kunstig intelligens kan i værste tilfælde bruges til at undertrykke kvinders rettigheder og chikanere dem. Det sidste ser vi fx med udbredelsen af falske videoer og billeder – såkaldte deepfakes – der støvsuger internettet og sociale medier for billeder af kvinders ansigter og bruger dem til at skabe falske pornografiske videoer.

I det større perspektiv risikerer kunstig intelligens at blive en konservativ kraft, der forhindrer samfundet i at gøre fremskridt – når formålet jo burde være det modsatte.

Kunstig intelligens kan tage dit ansigt fra et billede og lave en overbevisende falsk video med dig – en såkaldt deepfake-video.

© Shutterstock

Nyt institut skal løse problemerne

Spørgsmål 5: I 2021 lancerede du instituttet DAIR for at studere kunstig intelligens uafhængigt af store teknologivirksomheder. Hvordan vil du arbejde for kunstig intelligens, der er mindre diskriminerende?

DAIR tager udgangspunkt i menneskene og deres behov, ikke i teknologierne. Kunstig intelligens er ikke uundgåelig. Vi skal ikke udvikle disse teknologier, blot fordi det er muligt. Vores mål er at arbejde med befolkningen i lokalområder og afdække deres behov, før vi eventuelt bygger en kunstig intelligens.

Og så skal det være muligt at advare folk om skaderne ved eksisterende teknologier uden at blive ramt af uberettiget kritik og fordømmelse, som jeg og min tidligere kollega, Margaret Mitchell, oplevede, da vi arbejdede for Google.

Diskrimination er ikke et teknisk problem

Spørgsmål 6: Du har udtalt, at fejlene i kunstig intelligens ikke er tekniske problemer, men et symptom på det miljø, som teknologien er udviklet i. Hvorfor er denne skelnen vigtig?

I rapporten Fairness and Abstraction in Sociotechnical Systems står der, at tekniske løsninger kan være “ineffektive, unøjagtige og nogle gange faretruende uegnede til opgaven, når de optræder i en samfundsmæssig sammenhæng”.

Hvis du kun tænker på et teknisk system som et abstrakt begreb og ikke overvejer, hvordan det bruges, eller hvem der udvikler det, bliver din analyse af skaderne meget enøjet. Som minimum skal man stille sig selv spørgsmålet: “Skal denne teknologi overhovedet eksistere?”

Vi har selv magten til at sige stop

Spørgsmål 7: Kunstig intelligens bliver stadig for det meste skabt af hvide mænd. Håber du på, at teknologien vil være mindre favoriserende over for hvide mænd i fremtiden?

Jeg vil have folk til at huske, at kunstig intelligens ikke er en autonom enhed, der kontrollerer sig selv og ligger uden for menneskets kontrol. Alt, hvad vi skaber, er styret af samfundets motivationer og overvejelser, og jo mere vi har den sandhed for øje, jo bedre bliver vi også i stand til at lave løsninger, der ikke gør mere skade end gavn.

Vi har selv magten til at trække en streg i sandet og råbe højt, hvis vi mener, en specifik teknologi ikke bør eksistere – eller arbejde for at omdanne den, så det tjener både samfundet og menneskets bedste.