Hur den nuvarande utformningen av virtuella assistenter förstärker könsvåld

A könsvåld det finns på olika områden i samhället och många kvinnor lider av det varje dag. Tyvärr inte ens virtuella assistenter lyckas undvika att uppleva det.

Det visar sig att assistenter som Siri, Alexa, Cortana och Google Assistant tenderar att svara mildt på förfrågningar om sexuella tjänster och är ofta till och med tacksamma. Eftersom de har kvinnliga röster – alla av dem – förstärker dessa svar en allvarlig könsstereotyp. Detta visar bara hur långt tekniken fortfarande behöver gå för att övervinna dessa stereotyper.

se mer

Varning: DENNA giftiga växt landade en ung man på sjukhuset

Google utvecklar AI-verktyg för att hjälpa journalister i...

Det är vad Beatriz Caetano – UX Writer från chatbots – säger i en intervju: "Artificiell intelligens stärker idén att kvinnor är hjälpsamma, fogliga, servila och toleranta mot all behandling".

Ämnet är så viktigt att det var föremål för en panel på The Developer’s Conference (TDV) Innovation, som ägde rum i Florianópolis – SC och har larmat på Unesco om nödvändiga förändringar i detta scenario.

Enligt undersökningar av organisationen, som publicerades 2019, fokuserade nästan hälften av samtalen människor hade med bots på fysiskt utseende. Och den här typen av konversation sker mest med kvinnliga bots. Undersökningen visade också att 18 % av dessa interaktioner är relaterade till sexuella problem.

”Att presentera en bot som kvinna kan ge människor, särskilt män, möjligheten att bryta sexuella tabun och gränser. utan att oroa sig för konsekvenserna", sa Beatriz för att motivera människors preferens för bots med röst eller utseende feminin.

De flesta av de stora företagen som producerar denna typ av teknik ger redan tekniken ett feminint utseende från fabriken, och det tillåter inte ens könsbyte.

Men enligt Beatriz är den här typen av teknik fortfarande under utveckling, och dess utvecklingsteam måste introducera uppförandekoder för att stävja denna typ av våld i den tekniska miljön, för att även ändra beteendet i världen verklig.

Detta var en av de åtgärder som Bradesco bank vidtog efter att ha märkt den höga graden av trakasserier som dess virtuella assistent, Bia, utsattes för under ett år. Banken bestämde sig för att skapa en kampanj mot sexuella trakasserier, förutom att programmera starka svar som assistenten ska ge i dessa fall.

"Vi kan göra det här på många sätt. Först, undvika könsbestämning eller personifiera bots. Det är också viktigt att diversifiera teamen, inklusive kvinnor i utvecklingen av dessa produkter; främja etiska diskussioner i företag och stimulera stödverktyg för att identifiera könsfördomar i utformningen av chatbots”, förklarade Beatriz.

Älskar av filmer och serier och allt som rör film. En aktiv nyfiken på nätverken, alltid kopplad till information om webben.

Dessa är de 8 VÄRSTA livsmedel för sura uppstötningar

Sura uppstötningar är inget mer, inget mindre, än ett magbesvär där innehållet i magen stiger och...

read more

Upptäck 3 fördelar med körsbär för din hälsa och ditt välbefinnande

Körsbärssäsongen närmar sig och många undrar om dessa frukter, förutom att de är vackra och läckr...

read more

3 växter som bidrar till god sömn

När du inreder ett rum bör du tänka på alla egenskaper hos föremålen för att göra ditt rum, förut...

read more