Hvordan smarte højttaler AI'er såsom Alexa og Siri forstærker kønsbias
Unesco opfordrer teknologifirmaer til at tilbyde kønsneutrale versioner af deres stemmeassistenter

Apples HomePod er drevet af Siri stemmeassistent
Justin Sullivan/Getty Images
Smarte højttalere drevet af stemmeassistenter med kunstig intelligens (AI), der lyder kvindelige, forstærker kønsbias, ifølge en ny FN-rapport.
Forskning fra Unesco (FN's Uddannelses-, Videnskabelige og Kulturelle Organisation) viste, at AI-assistenter som Amazons Alexa og Apples Siri fastholder ideen om, at kvinder skal være underdanige og tolerante over for dårlig behandling, fordi systemerne er forpligtende og ivrige efter at behage, Daily Telegraph rapporter.
Rapporten - kaldet I'd blush if I could, med henvisning til en sætning udtalt af Siri efter en seksuel kommentar - siger, at teknologivirksomheder, der som standard gør deres stemmeassistenter til kvinder, antyder, at kvinder er føjelige hjælpere, der kan være tilgængelige ved berøring på en knap, tilføjer avisen.
Agenturet anklager også teknologivirksomheder for at undlade at indbygge ordentlige sikkerhedsforanstaltninger mod fjendtligt, krænkende og kønsbestemt sprogbrug, rapporterer Randen .
I stedet reagerer de fleste AI'er på aggressive kommentarer med en snedig vittighed, bemærker det tekniske nyhedswebsted. Hvis man bliver bedt om at lave en sandwich, siger Siri for eksempel: Det kan jeg ikke. Jeg har ingen krydderier.
Virksomheder som Apple og Amazon, bemandet af overvældende mandlige ingeniørteams, har bygget AI-systemer, der får deres feminiserede digitale assistenter til at hilse på verbalt misbrug med catch-me-if-you-can flirt, siger Unesco-rapporten.
Hvad har anden forskning fundet?
Unesco-rapporten citerer et væld af undersøgelser, herunder forskning fra det amerikanske teknologifirma Robin Labs, der tyder på, at mindst 5 % af interaktioner med stemmeassistenter er utvetydigt seksuelt eksplicit.
Og virksomheden, der udvikler digitale assistenter, mener, at tallet sandsynligvis vil være meget højere på grund af vanskeligheder med at opdage seksuelt antydende tale, The Guardian rapporter.
FN-agenturet peger også på en undersøgelse foretaget af analysefirmaet Gartner, som forudsiger, at folk vil have flere samtaler med stemmeassistenten i deres smarte højttaler end deres ægtefæller i 2020.
Stemmeassistenter administrerer allerede anslået en milliard opgaver om måneden, lige fra at spille sange til at kontakte nødtjenesterne.
Selvom nogle systemer tillader brugere at ændre køn på deres stemmeassistent, aktiverer flertallet åbenlyst kvindestemmer som standard, BBC rapporter.
Unesco-rapporten konkluderer, at denne tilsyneladende kønsbias kræver øjeblikkelig opmærksomhed.
Hvordan kunne teknologivirksomheder tackle problemet?
Unesco argumenterer for, at virksomheder bør være forpligtet til at få deres stemmeassistenter til at annoncere, at de ikke er mennesker, når de interagerer med mennesker, rapporterer Sunday Times .
Bureauet foreslår også, at brugerne skal have mulighed for at vælge køn på deres stemmeassistent, når de får en ny enhed, og at en kønsneutral mulighed skal være tilgængelig, tilføjer avisen.
Derudover bør tech-firmaer programmere stemmeassistenter til at fordømme verbale overgreb eller seksuel chikane med svar som nej eller det er ikke passende, siger Unesco.
Teknologiske virksomheder har endnu ikke svaret på undersøgelsen.