Hai mai sentito parlare del riconoscimento delle emozioni di Microsoft? Il software Azure Face, alimentato tramite il intelligenza artificiale (AI), è stato creato per riconoscere l'emozione di una persona da video e foto. Tuttavia, la società ha annunciato che ritirerà questa funzione. Capire i motivi!
Per saperne di più: Le 4 migliori app per guadagnare nel 2022
Vedi altro
Sostituita da ChatGPT al lavoro, la donna trascorre tre mesi...
Verso l'intelligenza artificiale: Apple prevede di integrare il chatbot in...
Riconoscimento delle emozioni Microsoft
Attivisti e accademici hanno sollevato preoccupazioni per anni, sostenendo che il software di riconoscimento facciale che afferma di essere in grado di identificare il genere, l'età e lo stato emotivo di un essere umano possono essere piuttosto prevenuti, inaffidabili e invasivi - e per questo motivo non dovrebbe essere venduto.
Lo strumento di Microsoft è stato criticato per aver banalizzato il cosiddetto "riconoscimento delle emozioni". Secondo gli esperti, le espressioni facciali considerate universali dall'applicazione sono diverse da dipendono dalle popolazioni, quindi, non è possibile equiparare maggiormente le manifestazioni esterne di emozione ai sentimenti profondo.
Natasha Crampton, direttore responsabile dello strumento AI, ha scritto in un post annunciando la notizia che esperti sia interni che esterni dall'esterno dell'azienda ha evidenziato la mancanza di consenso scientifico sulla definizione delle emozioni, nonché i diffusi problemi di risultati.
Microsoft ha già smesso di offrire funzionalità di riconoscimento delle emozioni ai nuovi clienti. Tuttavia, per coloro che hanno già usufruito del servizio, l'accesso dovrà essere revocato entro giugno 2023.
L'accesso allo strumento sarà comunque consentito in alcuni casi
Lo strumento può ancora essere utilizzato in alcune situazioni. D'ora in poi, gli utenti dovranno registrarsi per utilizzare Azure Face, comunicando a Microsoft come, dove e per quale scopo verranno utilizzati i sistemi.
In questo modo, i casi d'uso che presentano un potenziale meno dannoso (come i volti sfocati automaticamente nei video e nelle immagini, ad esempio) rimarranno con accesso disponibile.
La decisione di interrompere l'uso indiscriminato dello strumento fa parte di una lunga revisione delle politiche etiche di Microsoft in materia di intelligenza artificiale. Inoltre, la società intende limitare l'accesso ad alcune altre funzionalità, nonché rimuoverne completamente altre dal proprio elenco di applicazioni.