In che modo l'attuale design degli assistenti virtuali rafforza la violenza di genere

protection click fraud

UN violenza di genere è presente in vari ambiti della società, e molte donne ne soffrono ogni giorno. Purtroppo nemmeno assistenti virtuali riuscire a evitare di sperimentarlo.

Si scopre che assistenti come Siri, Alexa, Cortana e Google Assistant tendono a rispondere con indulgenza alle richieste di favori sessuali e spesso sono persino grati. Poiché hanno voci femminili – tutte – queste risposte rafforzano una severa stereotipo di genere. Questo dimostra solo fino a che punto le tecnologie devono ancora spingersi per superare questi stereotipi.

Vedi altro

Avviso: QUESTA pianta velenosa ha portato un giovane in ospedale

Google sviluppa uno strumento AI per aiutare i giornalisti in...

Ecco da cosa nasce Beatriz Caetano – UX Writer chatbot – dice in un'intervista: “Gli strumenti di intelligenza artificiale rafforzano l'idea che le donne siano disponibili, docili, servili e tolleranti di qualsiasi trattamento”.

L'argomento è così importante che è stato oggetto di un panel alla The Developer's Conference (TDV) Innovation, che ha avuto luogo a Florianópolis – SC e ha allertato l'Unesco sui cambiamenti necessari in questo scenario.

instagram story viewer

Secondo una ricerca dell'organizzazione, pubblicata nel 2019, quasi la metà delle conversazioni che le persone hanno avuto con i robot si sono concentrate sull'aspetto fisico. E questo tipo di conversazione avviene principalmente con bot donne. Il sondaggio ha anche mostrato che il 18% di queste interazioni sono legate a problemi sessuali.

“Presentare un bot come una donna può dare alle persone, in particolare agli uomini, l'opportunità di infrangere tabù e confini sessuali. senza preoccuparsi delle conseguenze", ha detto Beatriz per giustificare la preferenza delle persone per i bot con voce o aspetto femminile.

La maggior parte delle grandi aziende che producono questo tipo di tecnologia danno già alla tecnologia un aspetto femminile dalla fabbrica e non consente nemmeno il cambio di sesso.

Ma, secondo Beatriz, questo tipo di tecnologia è ancora in fase di sviluppo e i suoi team di sviluppo devono introdurre codici di condotta per frenare questo tipo di violenza nell'ambiente tecnologico, al fine di modificare anche il comportamento nel mondo vero.

Questa è stata una delle misure che la banca Bradesco ha preso dopo aver notato l'alto tasso di molestie che il suo assistente virtuale, Bia, ha subito nel periodo di un anno. La banca ha deciso di creare una campagna contro le molestie sessuali, oltre a programmare risposte forti che l'assistente deve dare in questi casi.

“Possiamo farlo in molti modi. In primo luogo, evitare il genere o la personificazione dei robot. È anche importante diversificare i team, includendo le donne nello sviluppo di questi prodotti; promuovere discussioni etiche nelle aziende e stimolare strumenti di supporto nell'identificazione dei pregiudizi di genere nella progettazione dei chatbot”, ha spiegato Beatriz.

Amante di film e serie e di tutto ciò che riguarda il cinema. Un curioso attivo sulle reti, sempre connesso alle informazioni sul web.

Teachs.ru

Dave's Hot Chicken: la nuova catena di fast food in continua crescita

Le grandi catene di fast food sono tra le attività più redditizie al mondo, ma sembra che siamo s...

read more

Se hai problemi con il GPS, scopri di più su Google Maps VPS

Oggi è comune utilizzare il GPS per localizzare i luoghi. Ma è anche normale che le persone si pe...

read more
Sfidiamo il tuo cervello? Trova il gufo in questa foresta in soli 4 secondi

Sfidiamo il tuo cervello? Trova il gufo in questa foresta in soli 4 secondi

Come è il tuo stato d'animo? Sei stato di cattivo umore ultimamente? Se è così, abbiamo una grand...

read more
instagram viewer