A przemoc ze względu na płeć występuje w różnych obszarach życia społecznego i codziennie cierpi na nią wiele kobiet. Niestety, nawet nie wirtualni asystenci udaje się uniknąć jej doświadczania.
Okazuje się, że asystenci tacy jak Siri, Alexa, Cortana i Asystent Google zazwyczaj łagodnie odpowiadają na prośby o przysługi seksualne, a często są nawet wdzięczni. Ponieważ mają kobiece głosy – wszystkie – te reakcje wzmacniają surowość stereotyp płci. To tylko pokazuje, jak daleko technologie muszą jeszcze zajść, aby przezwyciężyć te stereotypy.
Zobacz więcej
Uwaga: TA trująca roślina spowodowała, że młody mężczyzna wylądował w szpitalu
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Od tego pochodzi Beatriz Caetano – UX Writer chatboty – mówi w jednym z wywiadów: „Narzędzia sztucznej inteligencji wzmacniają przekonanie, że kobiety są pomocne, uległe, służalcze i tolerancyjne wobec każdego traktowania”.
Temat jest tak ważny, że był tematem panelu podczas The Developer’s Conference (TDV) Innovation, która miała miejsce w Florianópolis – SC i ostrzega Unesco o koniecznych zmianach w tym zakresie scenariusz.
Według badań organizacji, które zostały opublikowane w 2019 roku, prawie połowa rozmów ludzi z botami dotyczyła wyglądu fizycznego. A tego rodzaju konwersacje mają miejsce głównie z żeńskimi botami. Badanie wykazało również, że 18% tych interakcji dotyczy kwestii seksualnych.
„Przedstawienie bota jako kobiety może dać ludziom, zwłaszcza mężczyznom, możliwość przełamania seksualnych tabu i granic. bez martwienia się o konsekwencje”, powiedziała Beatriz, aby uzasadnić preferencje ludzi dla botów głosem lub wyglądem kobiecy.
Większość dużych firm, które produkują tego typu technologię, już zapewnia technologię kobiecy wygląd z fabryki i nie pozwala nawet na zmianę płci.
Ale według Beatriz ten typ technologii jest wciąż w fazie rozwoju, a jego zespoły programistyczne muszą wprowadzić kodeksy postępowania mające na celu ograniczenie tego typu przemocy w środowisku technologicznym, aby także modyfikować zachowania w świecie prawdziwy.
Był to jeden ze środków, które bank Bradesco podjął po uświadomieniu sobie wysokiego wskaźnika nękania, jakiego doznała jego wirtualna asystentka, Bia, w okresie jednego roku. Bank zdecydował się stworzyć kampanię przeciwko molestowaniu seksualnemu, oprócz zaprogramowania stanowczych odpowiedzi udzielanych przez asystenta w takich przypadkach.
„Możemy to zrobić na wiele sposobów. Po pierwsze, unikanie botów związanych z płcią lub personifikacją. Ważne jest również zróżnicowanie zespołów, włączenie kobiet w rozwój tych produktów; promować etyczne dyskusje w firmach i stymulować narzędzia wspierające w identyfikacji uprzedzeń ze względu na płeć w projektowaniu chatbotów” – wyjaśniła Beatriz.
Miłośnik filmów i seriali oraz wszystkiego co związane z kinem. Aktywny ciekawski w sieci, zawsze podłączony do informacji o sieci.