UN violenza di genere è presente in vari ambiti della società, e molte donne ne soffrono ogni giorno. Purtroppo nemmeno assistenti virtuali riuscire a evitare di sperimentarlo.
Si scopre che assistenti come Siri, Alexa, Cortana e Google Assistant tendono a rispondere con indulgenza alle richieste di favori sessuali e spesso sono persino grati. Poiché hanno voci femminili – tutte – queste risposte rafforzano una severa stereotipo di genere. Questo dimostra solo fino a che punto le tecnologie devono ancora spingersi per superare questi stereotipi.
Vedi altro
Avviso: QUESTA pianta velenosa ha portato un giovane in ospedale
Google sviluppa uno strumento AI per aiutare i giornalisti in...
Ecco da cosa nasce Beatriz Caetano – UX Writer chatbot – dice in un'intervista: “Gli strumenti di intelligenza artificiale rafforzano l'idea che le donne siano disponibili, docili, servili e tolleranti di qualsiasi trattamento”.
L'argomento è così importante che è stato oggetto di un panel alla The Developer's Conference (TDV) Innovation, che ha avuto luogo a Florianópolis – SC e ha allertato l'Unesco sui cambiamenti necessari in questo scenario.
Secondo una ricerca dell'organizzazione, pubblicata nel 2019, quasi la metà delle conversazioni che le persone hanno avuto con i robot si sono concentrate sull'aspetto fisico. E questo tipo di conversazione avviene principalmente con bot donne. Il sondaggio ha anche mostrato che il 18% di queste interazioni sono legate a problemi sessuali.
“Presentare un bot come una donna può dare alle persone, in particolare agli uomini, l'opportunità di infrangere tabù e confini sessuali. senza preoccuparsi delle conseguenze", ha detto Beatriz per giustificare la preferenza delle persone per i bot con voce o aspetto femminile.
La maggior parte delle grandi aziende che producono questo tipo di tecnologia danno già alla tecnologia un aspetto femminile dalla fabbrica e non consente nemmeno il cambio di sesso.
Ma, secondo Beatriz, questo tipo di tecnologia è ancora in fase di sviluppo e i suoi team di sviluppo devono introdurre codici di condotta per frenare questo tipo di violenza nell'ambiente tecnologico, al fine di modificare anche il comportamento nel mondo vero.
Questa è stata una delle misure che la banca Bradesco ha preso dopo aver notato l'alto tasso di molestie che il suo assistente virtuale, Bia, ha subito nel periodo di un anno. La banca ha deciso di creare una campagna contro le molestie sessuali, oltre a programmare risposte forti che l'assistente deve dare in questi casi.
“Possiamo farlo in molti modi. In primo luogo, evitare il genere o la personificazione dei robot. È anche importante diversificare i team, includendo le donne nello sviluppo di questi prodotti; promuovere discussioni etiche nelle aziende e stimolare strumenti di supporto nell'identificazione dei pregiudizi di genere nella progettazione dei chatbot”, ha spiegato Beatriz.
Amante di film e serie e di tutto ciò che riguarda il cinema. Un curioso attivo sulle reti, sempre connesso alle informazioni sul web.