Hvordan det nuværende design af virtuelle assistenter forstærker kønsvold

EN kønsvold det er til stede på forskellige områder af samfundet, og mange kvinder lider af det hver dag. Desværre ikke engang virtuelle assistenter formår at undgå at opleve det.

Det viser sig, at assistenter som Siri, Alexa, Cortana og Google Assistant har en tendens til at reagere mildt på anmodninger om seksuelle tjenester, og de er ofte endda taknemmelige. Fordi de har kvindestemmer – dem alle sammen – forstærker disse svar en alvorlig kønsstereotype. Dette viser bare, hvor langt teknologier stadig skal gå for at overvinde disse stereotyper.

se mere

Advarsel: DENNE giftige plante landede en ung mand på hospitalet

Google udvikler AI-værktøj til at hjælpe journalister i...

Det er hvad Beatriz Caetano – UX Writer fra chatbots – siger i et interview: "Kunstig intelligens-værktøjer styrker ideen om, at kvinder er hjælpsomme, føjelige, servile og tolerante over for enhver behandling".

Emnet er så vigtigt, at det var genstand for et panel på The Developer's Conference (TDV) Innovation, som fandt sted i Florianópolis – SC og har rejst alarm hos Unesco om de nødvendige ændringer i denne scenarie.

Ifølge en undersøgelse foretaget af organisationen, som blev offentliggjort i 2019, fokuserede næsten halvdelen af ​​samtalerne folk havde med bots på fysisk udseende. Og denne form for samtale sker for det meste med kvindelige bots. Undersøgelsen viste også, at 18 % af disse interaktioner er relateret til seksuelle problemer.

”At præsentere en bot som kvinde kan give mennesker, især mænd, mulighed for at bryde seksuelle tabuer og grænser. uden at bekymre dig om konsekvenserne", sagde Beatriz for at retfærdiggøre folks præference for bots med en stemme eller udseende feminin.

De fleste af de store virksomheder, der producerer denne type teknologi, giver allerede teknologien en feminint udseende fra fabrikken, og det tillader ikke engang kønsskifte.

Men ifølge Beatriz er denne type teknologi stadig under udvikling, og dens udviklingsteam skal introducere adfærdskodekser for at dæmme op for denne type vold i det teknologiske miljø for også at ændre adfærd i verden ægte.

Dette var en af ​​de foranstaltninger, som Bradesco-banken tog efter at have bemærket den høje grad af chikane, som dens virtuelle assistent, Bia, blev udsat for i løbet af et år. Banken besluttede at oprette en kampagne mod seksuel chikane, ud over at programmere stærke svar, som assistenten skulle give i disse sager.

"Vi kan gøre det på mange måder. For det første undgå kønsbestemmelse eller personificere bots. Det er også vigtigt at diversificere teamene, herunder kvinder i udviklingen af ​​disse produkter; fremme etiske diskussioner i virksomheder og stimulere støtteværktøjer til identifikation af kønsbias i designet af chatbots”, forklarede Beatriz.

Elsker af film og serier og alt hvad der involverer biograf. En aktiv nysgerrig på netværkene, altid forbundet med information om nettet.

Historisk! Arkæologer gør FASCINERENDE opdagelser i udkanten af ​​Jerusalem; se

Historisk! Arkæologer gør FASCINERENDE opdagelser i udkanten af ​​Jerusalem; se

Arkæologer af Forsvarsministeriet lavede en Fascinerende opdagelse i udkanten af ​​Jerusalem, men...

read more
Vinteren 2023 er ifølge skøn blandt de varmeste siden 1961

Vinteren 2023 er ifølge skøn blandt de varmeste siden 1961

O Vinteren 2023 i Brasilien vil blive registreret som en af ​​de varmeste siden 1961, og denne st...

read more
Hvad kan lande med højere levealder lære os?

Hvad kan lande med højere levealder lære os?

Dokumentarfilmen "How to Live to 100: The Secrets of the Blue Zones", tilgængelig på Netflix, har...

read more
instagram viewer