EN kønsvold det er til stede på forskellige områder af samfundet, og mange kvinder lider af det hver dag. Desværre ikke engang virtuelle assistenter formår at undgå at opleve det.
Det viser sig, at assistenter som Siri, Alexa, Cortana og Google Assistant har en tendens til at reagere mildt på anmodninger om seksuelle tjenester, og de er ofte endda taknemmelige. Fordi de har kvindestemmer – dem alle sammen – forstærker disse svar en alvorlig kønsstereotype. Dette viser bare, hvor langt teknologier stadig skal gå for at overvinde disse stereotyper.
se mere
Advarsel: DENNE giftige plante landede en ung mand på hospitalet
Google udvikler AI-værktøj til at hjælpe journalister i...
Det er hvad Beatriz Caetano – UX Writer fra chatbots – siger i et interview: "Kunstig intelligens-værktøjer styrker ideen om, at kvinder er hjælpsomme, føjelige, servile og tolerante over for enhver behandling".
Emnet er så vigtigt, at det var genstand for et panel på The Developer's Conference (TDV) Innovation, som fandt sted i Florianópolis – SC og har rejst alarm hos Unesco om de nødvendige ændringer i denne scenarie.
Ifølge en undersøgelse foretaget af organisationen, som blev offentliggjort i 2019, fokuserede næsten halvdelen af samtalerne folk havde med bots på fysisk udseende. Og denne form for samtale sker for det meste med kvindelige bots. Undersøgelsen viste også, at 18 % af disse interaktioner er relateret til seksuelle problemer.
”At præsentere en bot som kvinde kan give mennesker, især mænd, mulighed for at bryde seksuelle tabuer og grænser. uden at bekymre dig om konsekvenserne", sagde Beatriz for at retfærdiggøre folks præference for bots med en stemme eller udseende feminin.
De fleste af de store virksomheder, der producerer denne type teknologi, giver allerede teknologien en feminint udseende fra fabrikken, og det tillader ikke engang kønsskifte.
Men ifølge Beatriz er denne type teknologi stadig under udvikling, og dens udviklingsteam skal introducere adfærdskodekser for at dæmme op for denne type vold i det teknologiske miljø for også at ændre adfærd i verden ægte.
Dette var en af de foranstaltninger, som Bradesco-banken tog efter at have bemærket den høje grad af chikane, som dens virtuelle assistent, Bia, blev udsat for i løbet af et år. Banken besluttede at oprette en kampagne mod seksuel chikane, ud over at programmere stærke svar, som assistenten skulle give i disse sager.
"Vi kan gøre det på mange måder. For det første undgå kønsbestemmelse eller personificere bots. Det er også vigtigt at diversificere teamene, herunder kvinder i udviklingen af disse produkter; fremme etiske diskussioner i virksomheder og stimulere støtteværktøjer til identifikation af kønsbias i designet af chatbots”, forklarede Beatriz.
Elsker af film og serier og alt hvad der involverer biograf. En aktiv nysgerrig på netværkene, altid forbundet med information om nettet.