Forskere: Sprogmodeller har sexistiske og stereotype kønsbeskrivelser

Sprogmodeller, som bruges til blandt andet Googles søgemaskine, kommer med sexistiske og stereotype beskrivelser af kønnene, viser nyt forskningsprojekt.

Forskere: Sprogmodeller har sexistiske og stereotype kønsbeskrivelser

Sprogmodeller, som bruges når eksempelvis Google foreslår at færdiggøre din søgefrase, har en lang række kønsbestemte fordomme over og stereotype forestillinger om både kvindelige og mandlige politikere.

Sådan lyder det fra et igangværende forskningsprojekt, som forskere fra Københavns Universitet, Universität Zürich og Cambridge Universitet arbejder på. Forskningsprojektet undersøger, hvordan 250.000 politikere beskrives i forskellige sprogmodeller på henholdsvis engelsk, arabisk, hindi, spansk, russisk og kinesisk.

Læs også: Sådan former teknologi samfundet og kaprer menneskers hjerne

Stor forskel på mænd og kvinders beskrivelser i sprogmodeller

Forskningsprojektet har gjort brug af en liste over de 250.000 politikere på vidensbasen wikidata. Politikernes navne er indsat i en sprogmodel, som er trænet til at forudsige det næste mest sandsynlige tillægsord i en sætning.

De hidtidige resultater viser, at sprogmodeller er sexistiske, når de skal beskrive både mænd og kvinder. Det er ofte udseende, svagheder og familiemæssig status, der bliver kædet sammen med kvindelige politikere, mens det for mandlige politikeres vedkommende ofte er deres handlekraft og politiske overbevisning.

Ord som ”skilsmisse”, ”ugift”, ”gravid”, ”mor”, ”blond” og ”smuk” bliver ofte associeret med de kvindelige politikere, mens det for de mandlige politikeres vedkommende er ord som ”kapitalist”, ”stærk”, ”bolsjevik” og ”militant”.

Og det er et stort problem, lyder det fra en af forskerne.

“Hvor kvinderne beskrives med ord som ‘hysterisk’ og ‘skrøbelig’, bliver de mandlige politikere behæftet med ord som ‘selvstændig’ og ‘modig’. Og det er et problem for ligestillingen i vores samfund. Sprogmodeller, der behandler kønnene uens, kan nemlig forstærke den måde, vi tænker og taler om hinanden på ude i virkeligheden,” siger Isabelle Augenstein, der er lektor på Datalogisk Institut på Københavns Universitet og leder af sektionen Natural Language Processing.

Læs også: Sådan påvirker teknologi menneskers beslutningstagen

Løsningen er ikke lige til

Sprogmodeller trækker på data fra en lang række eksisterende hjemmesider, sociale medier og Wikipedia. Den menneskelige bias, der måtte være i sproget, overføres derfor til de algoritmer, der anvendes i sprogmodellerne, der bruges på blandt andet Google og andre søgemaskiner. Algoritmerne kan så igen påvirke os yderligere ved at foreslå stereotype forestillinger om – i dette tilfælde – politikere ud fra deres køn.

Så hvordan kommer man problemet til livs?

“Løsningen er dobbeltsidig. Vi skal forsøge at holde en god tone, når vi skriver på nettet. Samtidig bør vi overveje at basere sprogmodeller på data, der i mindre grad indeholder sexistiske og racistiske vendinger. Herhjemme kunne man eksempelvis basere modellerne på tekstdata fra kilder med høj kvalitet, eksempelvis Danmarks Radio, hvor de sproglige standarder generelt er højere end på sociale medier, og andre lande kunne gøre noget tilsvarende,” slutter hun.

Den danske del af forskningsprojektets analyse er endnu ikke klar. Forskningsprojektet kan læses her.

Se også: Nyheder om mennesket og teknologi