Haben Sie schon einmal von der Emotionserkennung gehört? Microsoft? Die Azure Face-Software, die über die betrieben wird künstliche Intelligenz (KI) wurde entwickelt, um die Emotionen einer Person anhand von Videos und Fotos zu erkennen. Das Unternehmen hat jedoch angekündigt, diese Funktion einzustellen. Verstehen Sie die Gründe!
Weiterlesen: Die 4 besten Apps zum Geldverdienen im Jahr 2022
Mehr sehen
Frau wird bei der Arbeit durch ChatGPT ersetzt und verbringt drei Monate…
Auf dem Weg zur künstlichen Intelligenz: Apple plant die Integration von Chatbots in…
Microsoft-Emotionserkennung
Aktivisten und Wissenschaftler äußern seit Jahren Bedenken und behaupten, dass Gesichtserkennungssoftware angeblich in der Lage sei, Menschen zu identifizieren Geschlecht, Alter und emotionaler Zustand eines Menschen können ziemlich voreingenommen, unzuverlässig und aufdringlich sein – und aus diesem Grund sollten sie es auch nicht sein verkauft.
Microsofts Tool stand in der Kritik, die sogenannte „Emotionserkennung“ zu verharmlosen. Experten zufolge unterscheiden sich die Gesichtsausdrücke, die die Anwendung als universell erachtet, von hängen von der Bevölkerung ab, daher ist es nicht möglich, äußere Gefühlsäußerungen stärker mit Gefühlen gleichzusetzen tief.
Natasha Crampton, die für das KI-Tool zuständige Direktorin, schrieb in einem Beitrag, in dem sie die Neuigkeiten verkündete, dass Experten von innen und außen Von außerhalb des Unternehmens wurde auf den fehlenden wissenschaftlichen Konsens hinsichtlich der Definition von Emotionen sowie auf die weit verbreiteten Ergebnisprobleme hingewiesen.
Microsoft hat bereits aufgehört, Neukunden Funktionen zur Emotionserkennung anzubieten. Für diejenigen, die den Dienst bereits genutzt haben, muss der Zugang jedoch bis Juni 2023 widerrufen werden.
Der Zugriff auf das Tool wird in einigen Fällen weiterhin gestattet sein
Das Tool kann in einigen Situationen weiterhin verwendet werden. Von nun an müssen sich Benutzer für die Nutzung von Azure Face anmelden und Microsoft mitteilen, wie, wo und zu welchem Zweck die Systeme verwendet werden.
Auf diese Weise bleiben Anwendungsfälle mit weniger schädlichem Potenzial (z. B. automatisch unscharfe Gesichter in Videos und Bildern) weiterhin zugänglich.
Die Entscheidung, die wahllose Nutzung des Tools einzustellen, ist Teil einer langen Überprüfung der Ethikrichtlinien von Microsoft in Bezug auf künstliche Intelligenz. Darüber hinaus beabsichtigt das Unternehmen, den Zugriff auf einige andere Funktionen einzuschränken und andere vollständig aus seiner Anwendungsliste zu entfernen.