Hur den nuvarande utformningen av virtuella assistenter förstärker könsvåld

protection click fraud

A könsvåld det finns på olika områden i samhället och många kvinnor lider av det varje dag. Tyvärr inte ens virtuella assistenter lyckas undvika att uppleva det.

Det visar sig att assistenter som Siri, Alexa, Cortana och Google Assistant tenderar att svara mildt på förfrågningar om sexuella tjänster och är ofta till och med tacksamma. Eftersom de har kvinnliga röster – alla av dem – förstärker dessa svar en allvarlig könsstereotyp. Detta visar bara hur långt tekniken fortfarande behöver gå för att övervinna dessa stereotyper.

se mer

Varning: DENNA giftiga växt landade en ung man på sjukhuset

Google utvecklar AI-verktyg för att hjälpa journalister i...

Det är vad Beatriz Caetano – UX Writer från chatbots – säger i en intervju: "Artificiell intelligens stärker idén att kvinnor är hjälpsamma, fogliga, servila och toleranta mot all behandling".

Ämnet är så viktigt att det var föremål för en panel på The Developer’s Conference (TDV) Innovation, som ägde rum i Florianópolis – SC och har larmat på Unesco om nödvändiga förändringar i detta scenario.

instagram story viewer

Enligt undersökningar av organisationen, som publicerades 2019, fokuserade nästan hälften av samtalen människor hade med bots på fysiskt utseende. Och den här typen av konversation sker mest med kvinnliga bots. Undersökningen visade också att 18 % av dessa interaktioner är relaterade till sexuella problem.

”Att presentera en bot som kvinna kan ge människor, särskilt män, möjligheten att bryta sexuella tabun och gränser. utan att oroa sig för konsekvenserna", sa Beatriz för att motivera människors preferens för bots med röst eller utseende feminin.

De flesta av de stora företagen som producerar denna typ av teknik ger redan tekniken ett feminint utseende från fabriken, och det tillåter inte ens könsbyte.

Men enligt Beatriz är den här typen av teknik fortfarande under utveckling, och dess utvecklingsteam måste introducera uppförandekoder för att stävja denna typ av våld i den tekniska miljön, för att även ändra beteendet i världen verklig.

Detta var en av de åtgärder som Bradesco bank vidtog efter att ha märkt den höga graden av trakasserier som dess virtuella assistent, Bia, utsattes för under ett år. Banken bestämde sig för att skapa en kampanj mot sexuella trakasserier, förutom att programmera starka svar som assistenten ska ge i dessa fall.

"Vi kan göra det här på många sätt. Först, undvika könsbestämning eller personifiera bots. Det är också viktigt att diversifiera teamen, inklusive kvinnor i utvecklingen av dessa produkter; främja etiska diskussioner i företag och stimulera stödverktyg för att identifiera könsfördomar i utformningen av chatbots”, förklarade Beatriz.

Älskar av filmer och serier och allt som rör film. En aktiv nyfiken på nätverken, alltid kopplad till information om webben.

Teachs.ru

Varför har tangenterna 'J' och 'F' två streck? Du kommer att bli förvånad över svaret.

Har du någonsin lagt märke till de små höjderna som finns på tangenterna "F" och "J". tangentbord...

read more

Sluta nu! 6 saker du inte ska be om ursäkt för

Många gånger kommer vi på att vi ber om ursäkt för saker vi inte borde. Den där trendatt ständigt...

read more

2022 nådde mat högre värden över hela världen

År 2022, shoppa på Marknad blev en anledning till stor rädsla för många människor runt om i värld...

read more
instagram viewer