Comment la conception actuelle des assistants virtuels renforce la violence sexiste

UN violence sexiste elle est présente dans divers domaines de la société et de nombreuses femmes en souffrent au quotidien. Malheureusement, même pas assistants virtuels parvient à éviter de le vivre.

Il s'avère que des assistants comme Siri, Alexa, Cortana et Google Assistant ont tendance à répondre avec indulgence aux demandes de faveurs sexuelles, et sont même souvent reconnaissants. Parce qu'ils ont des voix féminines - tous - ces réponses renforcent une grave stéréotype de genre. Cela montre à quel point les technologies doivent encore aller pour dépasser ces stéréotypes.

voir plus

Alerte: CETTE plante vénéneuse a débarqué un jeune homme à l'hôpital

Google développe un outil d'IA pour aider les journalistes à…

C'est ce que Beatriz Caetano – Rédactrice UX de chatbots – dit dans une interview: « Les outils d'intelligence artificielle renforcent l'idée que les femmes sont serviables, dociles, serviles et tolérantes à tout traitement ».

Le sujet est tellement important qu'il a fait l'objet d'un panel à The Developer's Conference (TDV) Innovation, qui a eu lieu à Florianópolis – SC et a alerté l'Unesco sur les changements nécessaires dans ce scénario.

Selon une étude de l'organisation, publiée en 2019, près de la moitié des conversations que les gens ont eues avec des bots se sont concentrées sur l'apparence physique. Et ce genre de conversation se produit principalement avec des robots féminins. L'enquête a également montré que 18% de ces interactions sont liées à des problèmes sexuels.

"Présenter un bot comme une femme peut donner aux gens, en particulier aux hommes, l'opportunité de briser les tabous et les limites sexuelles. sans se soucier des conséquences », a déclaré Beatriz pour justifier la préférence des gens pour les bots avec une voix ou une apparence féminin.

La plupart des grandes entreprises qui produisent ce type de technologie donnent déjà à la technologie un apparence féminine de l'usine, et il ne permet même pas le changement de sexe.

Mais, selon Beatriz, ce type de technologie est encore en développement, et ses équipes de développement doivent introduire des codes de conduite pour freiner ce type de violence dans l'environnement technologique, afin de modifier également les comportements dans le monde réel.

C'est l'une des mesures que la banque Bradesco a prises après avoir constaté le taux élevé de harcèlement subi par son assistant virtuel, Bia, au cours d'une période d'un an. La banque a décidé de créer une campagne contre le harcèlement sexuel, en plus de programmer des réponses fortes à donner par l'assistante dans ces cas.

« Nous pouvons le faire de plusieurs façons. Tout d'abord, éviter de sexuer ou de personnifier les bots. Il est également important de diversifier les équipes, en incluant des femmes dans le développement de ces produits; promouvoir les discussions éthiques dans les entreprises et stimuler les outils d'aide à l'identification des préjugés sexistes dans la conception des chatbots », a expliqué Beatriz.

Amateur de films et de séries et de tout ce qui touche au cinéma. Un curieux actif sur les réseaux, toujours connecté aux informations sur le web.

Faillite – Júlia Lopes de Almeida: résumé des travaux

Faillite – Júlia Lopes de Almeida: résumé des travaux

la faillite est le livre le plus célèbre de l'écrivain Júlia Lopes de Almeida. Il raconte l'histo...

read more
Milton Hatoum: biographie, caractéristiques, oeuvres

Milton Hatoum: biographie, caractéristiques, oeuvres

Milton Hatoum est un écrivain brésilien contemporain. Né le 19 août 1952, dans la ville de Manaus...

read more
Vies sèches: analyse de l'œuvre de Graciliano Ramos

Vies sèches: analyse de l'œuvre de Graciliano Ramos

Vies séchées est un livre de l'écrivain brésilien Graciliano Ramos et a été publié pour la premiè...

read more