Avez-vous déjà entendu parler de la reconnaissance des émotions de Microsoft? Le logiciel Azure Face, qui est alimenté par le intelligence artificielle (AI), a été créé pour reconnaître l'émotion d'une personne à partir de vidéos et de photos. Cependant, la société a annoncé qu'elle retirerait cette fonctionnalité. Comprenez les raisons !
En savoir plus: Les 4 meilleures applications pour gagner de l'argent en 2022
voir plus
Remplacée par ChatGPT au travail, la femme passe trois mois…
Vers l'intelligence artificielle: Apple envisage d'intégrer un chatbot dans…
Reconnaissance des émotions Microsoft
Les militants et les universitaires s'inquiètent depuis des années, affirmant qu'un logiciel de reconnaissance faciale qui prétend être capable d'identifier le sexe, l'âge et l'état émotionnel d'un être humain peuvent être assez biaisés, peu fiables et envahissants - et pour cette raison, ils ne devraient pas être vendu.
L'outil de Microsoft a été critiqué pour avoir banalisé la soi-disant "reconnaissance des émotions". Selon les experts, les expressions faciales considérées comme universelles par l'application sont différentes des dépendent des populations, par conséquent, il n'est pas possible d'assimiler les manifestations extérieures d'émotion à des sentiments plus profond.
Natasha Crampton, directrice en charge de l'outil d'IA, a écrit dans un article annonçant la nouvelle que des experts de l'intérieur et de l'extérieur de l'extérieur de l'entreprise ont souligné l'absence de consensus scientifique concernant la définition des émotions, ainsi que les problèmes de résultats généralisés.
Microsoft a déjà cessé d'offrir des fonctionnalités de reconnaissance des émotions aux nouveaux clients. Cependant, pour ceux qui ont déjà utilisé le service, l'accès doit être révoqué d'ici juin 2023.
L'accès à l'outil sera toujours autorisé dans certains cas
L'outil peut toujours être utilisé dans certaines situations. Désormais, les utilisateurs devront s'inscrire pour utiliser Azure Face, indiquant à Microsoft comment, où et dans quel but les systèmes seront utilisés.
De cette façon, les cas d'utilisation qui présentent un potentiel moins nocif (comme les visages automatiquement floutés dans les vidéos et les images, par exemple) resteront avec un accès disponible.
La décision de mettre fin à l'utilisation aveugle de l'outil fait partie d'un long examen des politiques d'éthique de Microsoft concernant l'intelligence artificielle. De plus, la société a l'intention de limiter l'accès à certaines autres fonctionnalités, ainsi que d'en supprimer complètement d'autres de sa liste d'applications.