Comment la conception actuelle des assistants virtuels renforce la violence sexiste

UN violence sexiste elle est présente dans divers domaines de la société et de nombreuses femmes en souffrent au quotidien. Malheureusement, même pas assistants virtuels parvient à éviter de le vivre.

Il s'avère que des assistants comme Siri, Alexa, Cortana et Google Assistant ont tendance à répondre avec indulgence aux demandes de faveurs sexuelles, et sont même souvent reconnaissants. Parce qu'ils ont des voix féminines - tous - ces réponses renforcent une grave stéréotype de genre. Cela montre à quel point les technologies doivent encore aller pour dépasser ces stéréotypes.

voir plus

Alerte: CETTE plante vénéneuse a débarqué un jeune homme à l'hôpital

Google développe un outil d'IA pour aider les journalistes à…

C'est ce que Beatriz Caetano – Rédactrice UX de chatbots – dit dans une interview: « Les outils d'intelligence artificielle renforcent l'idée que les femmes sont serviables, dociles, serviles et tolérantes à tout traitement ».

Le sujet est tellement important qu'il a fait l'objet d'un panel à The Developer's Conference (TDV) Innovation, qui a eu lieu à Florianópolis – SC et a alerté l'Unesco sur les changements nécessaires dans ce scénario.

Selon une étude de l'organisation, publiée en 2019, près de la moitié des conversations que les gens ont eues avec des bots se sont concentrées sur l'apparence physique. Et ce genre de conversation se produit principalement avec des robots féminins. L'enquête a également montré que 18% de ces interactions sont liées à des problèmes sexuels.

"Présenter un bot comme une femme peut donner aux gens, en particulier aux hommes, l'opportunité de briser les tabous et les limites sexuelles. sans se soucier des conséquences », a déclaré Beatriz pour justifier la préférence des gens pour les bots avec une voix ou une apparence féminin.

La plupart des grandes entreprises qui produisent ce type de technologie donnent déjà à la technologie un apparence féminine de l'usine, et il ne permet même pas le changement de sexe.

Mais, selon Beatriz, ce type de technologie est encore en développement, et ses équipes de développement doivent introduire des codes de conduite pour freiner ce type de violence dans l'environnement technologique, afin de modifier également les comportements dans le monde réel.

C'est l'une des mesures que la banque Bradesco a prises après avoir constaté le taux élevé de harcèlement subi par son assistant virtuel, Bia, au cours d'une période d'un an. La banque a décidé de créer une campagne contre le harcèlement sexuel, en plus de programmer des réponses fortes à donner par l'assistante dans ces cas.

« Nous pouvons le faire de plusieurs façons. Tout d'abord, éviter de sexuer ou de personnifier les bots. Il est également important de diversifier les équipes, en incluant des femmes dans le développement de ces produits; promouvoir les discussions éthiques dans les entreprises et stimuler les outils d'aide à l'identification des préjugés sexistes dans la conception des chatbots », a expliqué Beatriz.

Amateur de films et de séries et de tout ce qui touche au cinéma. Un curieux actif sur les réseaux, toujours connecté aux informations sur le web.

Les entreprises utilisent l'intelligence artificielle pour filtrer les CV; comprendre

L'Intelligence Artificielle est le sujet brûlant du moment, s'étant rapidement développé dans plu...

read more

Le décret sur le plancher salarial des enseignants de SP a été publié

Samedi dernier, le 18, le gouvernement de l'État de São Paulo a publié le décret au Journal offic...

read more
L'iPhone de première génération se vend plus de 300 000 $

L'iPhone de première génération se vend plus de 300 000 $

Ces dernières années, il a été possible d'observer la croissance des collectionneurs d'objets « v...

read more
instagram viewer