A gender geweld het is aanwezig in verschillende delen van de samenleving en veel vrouwen hebben er elke dag last van. Helaas niet eens virtuele assistenten erin slagen om het niet te ervaren.
Het blijkt dat assistenten als Siri, Alexa, Cortana en Google Assistant geneigd zijn mild te reageren op verzoeken om seksuele gunsten en vaak zelfs dankbaar zijn. Omdat ze allemaal vrouwenstemmen hebben, versterken deze reacties een ernstige genderstereotype. Dit laat alleen maar zien hoe ver technologieën nog moeten gaan om deze stereotypen te overwinnen.
Bekijk meer
Alert: DEZE giftige plant heeft een jonge man in het ziekenhuis gebracht
Google ontwikkelt AI-tool om journalisten te helpen bij…
Dat is waar Beatriz Caetano - UX Writer van is chatbots - zegt in een interview: "Hulpmiddelen voor kunstmatige intelligentie versterken het idee dat vrouwen behulpzaam, volgzaam, slaafs en tolerant zijn ten opzichte van elke behandeling".
Het onderwerp is zo belangrijk dat het onderwerp was van een panel op The Developer's Conference (TDV) Innovation, die plaatsvond in Florianópolis – SC en alarmeert bij Unesco over de noodzakelijke veranderingen hierin scenario.
Volgens onderzoek van de organisatie, dat in 2019 werd gepubliceerd, ging bijna de helft van de gesprekken die mensen met bots voerden over het uiterlijk. En dit soort conversatie gebeurt meestal met vrouwelijke bots. Uit het onderzoek bleek ook dat 18% van deze interacties verband houdt met seksuele problemen.
“Een bot presenteren als vrouw kan mensen, vooral mannen, de kans geven om seksuele taboes en grenzen te doorbreken. zonder je zorgen te maken over de gevolgen", zei Beatriz om de voorkeur van mensen voor bots met een stem of uiterlijk te rechtvaardigen vrouwelijk.
De meeste grote bedrijven die dit soort technologie produceren, geven de technologie al een vrouwelijke uitstraling van de fabriek, en het staat zelfs geen geslachtswisseling toe.
Maar volgens Beatriz is dit soort technologie nog in ontwikkeling en moeten de ontwikkelingsteams deze introduceren gedragscodes om dit soort geweld in de technologische omgeving te beteugelen, om ook het gedrag in de wereld te veranderen echt.
Dit was een van de maatregelen die de Bradesco-bank nam nadat ze had opgemerkt dat haar virtuele assistent, Bia, in een jaar tijd veel werd lastiggevallen. De bank besloot een campagne tegen seksuele intimidatie op te zetten, naast het programmeren van krachtige reacties van de assistent in deze gevallen.
“Dat kunnen we op veel manieren doen. Ten eerste, het vermijden van gendering of personificatie van bots. Het is ook belangrijk om de teams te diversifiëren, inclusief vrouwen bij de ontwikkeling van deze producten; ethische discussies in bedrijven bevorderen en ondersteuningstools stimuleren bij het identificeren van gendervooroordelen bij het ontwerpen van chatbots”, legt Beatriz uit.
Liefhebber van films en series en alles wat met cinema te maken heeft. Een actieve nieuwsgierigheid op de netwerken, altijd verbonden met informatie over internet.