Har du nogensinde hørt om følelsesgenkendelse af Microsoft? Azure Face-softwaren, som drives gennem kunstig intelligens (AI), blev skabt til at genkende en persons følelser fra videoer og fotos. Virksomheden har dog meddelt, at den vil trække denne funktion tilbage. Forstå årsagerne!
Læs mere: De 4 bedste apps til at tjene penge i 2022
se mere
Erstattet af ChatGPT på arbejdet, bruger kvinde tre måneder...
Mod kunstig intelligens: Apple planlægger at integrere chatbot i...
Microsofts følelsesgenkendelse
Aktivister og akademikere har rejst bekymringer i årevis og hævdet, at ansigtsgenkendelsessoftware, der hævder at være i stand til at identificere et menneskes køn, alder og følelsesmæssige tilstand kan være ret forudindtaget, upålidelige og invasive – og af den grund bør det ikke være solgt.
Microsofts værktøj blev kritiseret for at bagatellisere den såkaldte "emotion recognition". Ifølge eksperter er de ansigtsudtryk, der anses for universelle af applikationen, forskellige fra afhænge af befolkninger, derfor er det ikke muligt at sætte lighedstegn mellem ydre udfoldelser af følelser og følelser mere dyb.
Natasha Crampton, direktør med ansvar for AI-værktøjet, skrev i et indlæg, der bebudede nyheden om, at eksperter både indefra og udefra udefra pegede virksomheden på manglen på videnskabelig konsensus om definitionen af følelser, samt de udbredte resultatproblemer.
Microsoft er allerede holdt op med at tilbyde følelsesgenkendelsesfunktioner til nye kunder. Men for dem, der allerede har brugt tjenesten, skal adgangen tilbagekaldes senest juni 2023.
Adgang til værktøjet vil stadig være tilladt i nogle tilfælde
Værktøjet kan stadig bruges i nogle situationer. Fra nu af skal brugere tilmelde sig for at bruge Azure Face, og fortælle Microsoft hvordan, hvor og til hvilket formål systemerne vil blive brugt.
På denne måde vil brugssager, der har mindre skadeligt potentiale (såsom automatisk slørede ansigter i videoer og billeder, for eksempel) forblive med tilgængelig adgang.
Beslutningen om at stoppe den vilkårlige brug af værktøjet er en del af en lang gennemgang af Microsofts etiske politikker vedrørende kunstig intelligens. Derudover har virksomheden til hensigt at begrænse adgangen til nogle andre funktioner, samt helt fjerne andre fra sin liste over applikationer.