Har du noen gang hørt om følelsesgjenkjenning av Microsoft? Azure Face-programvaren, som drives gjennom kunstig intelligens (AI), ble laget for å gjenkjenne en persons følelser fra videoer og bilder. Imidlertid har selskapet kunngjort at det vil trekke tilbake denne funksjonen. Forstå årsakene!
Les mer: De 4 beste appene for å tjene penger i 2022
se mer
Erstattet av ChatGPT på jobben, bruker kvinnen tre måneder...
Mot kunstig intelligens: Apple planlegger å integrere chatbot i...
Microsofts følelsesgjenkjenning
Aktivister og akademikere har reist bekymringer i årevis, og hevdet at ansiktsgjenkjenningsprogramvare som hevder å være i stand til å identifisere kjønn, alder og følelsesmessig tilstand til et menneske kan være ganske partisk, upålitelig og invasiv – og av den grunn bør det ikke være solgt.
Microsofts verktøy ble kritisert for å bagatellisere den såkalte «emotion recognition». Ifølge eksperter er ansiktsuttrykkene som anses som universelle av applikasjonen forskjellige fra avhenger av populasjoner, derfor er det ikke mulig å sette likhetstegn mellom ytre uttrykk for følelser med følelser mer dyp.
Natasha Crampton, direktør med ansvar for AI-verktøyet, skrev i et innlegg som kunngjorde nyheten om at eksperter både innenfra og utenfra fra utenfor selskapet pekte på mangelen på vitenskapelig konsensus angående definisjonen av følelser, så vel som de utbredte resultatproblemene.
Microsoft har allerede sluttet å tilby funksjoner for følelsesgjenkjenning til nye kunder. Men for de som allerede har brukt tjenesten, må tilgangen trekkes tilbake innen juni 2023.
Tilgang til verktøyet vil fortsatt være tillatt i noen tilfeller
Verktøyet kan fortsatt brukes i enkelte situasjoner. Fra nå av må brukere registrere seg for å bruke Azure Face, og fortelle Microsoft hvordan, hvor og til hvilket formål systemene skal brukes.
På denne måten vil brukstilfeller som har mindre skadelig potensial (som f.eks. automatisk uskarpe ansikter i videoer og bilder) forbli tilgjengelig.
Beslutningen om å avbryte den vilkårlige bruken av verktøyet er en del av en lang gjennomgang av Microsofts etiske retningslinjer angående kunstig intelligens. I tillegg har selskapet til hensikt å begrense tilgangen til noen andre funksjoner, samt fjerne andre fullstendig fra listen over applikasjoner.