Wissenschaftler der University of West Scotland (UWS) haben ein Tool entwickelt, das dazu in der Lage ist Emotionserkennung mit künstlicher Intelligenz (KI), die Menschen mit Erkrankungen helfen kann neurodivers, einschließlich Autismus.
Traditionell ist die Emotionserkennung ein anspruchsvolles und komplexes Forschungsgebiet in der Psychiatrie, Neurologie und Psychoanalyse.
Mehr sehen
Untersuchungen zeigen, dass das Gehirn von Teenagern „verdrahtet“ ist mit …
Die „Kräfte“ von Haferbrei: Entdecken Sie die Vorteile von Hafer in…
Nutzen Sie jedoch die jüngsten Fortschritte in der Sehverarbeitung, beim Hören und bei erschwinglichen Geräten wie Elektroenzephalogramm- (EEG) und Elektrokardiogramm-Sensoren (EKG) arbeiteten UWS-Forscher zusammen, um eine künstliche Intelligenz zu entwickeln, die in der Lage ist, emotionsbezogene Signale aus Gehirn- und Gesichtsanalysen zu interpretieren.
Eine Maschine, die „Gefühle liest“
Die Ebenen der Emotionen waren in der Neurowissenschaft schon immer ein unklares Feld, weil sie so breit gefächert und vielfältig sind. Allerdings verbessern Technologie und aktuelle Forschung zunehmend die Möglichkeiten, die Funktionsweise von Gehirnsignalen zu verstehen, die zu Emotionen führen.
Professor Naeem Ramzan, Direktor des Center for Research on Affective and Human Computing for SMART Environments an der UWS, erklärte:
„Emotionen sind grundlegende Aspekte der menschlichen Erfahrung und das Verständnis der Signale, die unterschiedliche Emotionen auslösen, kann tiefgreifende Auswirkungen auf viele Bereiche unseres Lebens haben. Unsere aktuelle Studie führte zur Erstellung umfassender Daten, die mit tragbarer Technologie kombiniert werden können. Verwendung mehrerer Sensoren und künstlicher Intelligenz, um ein wichtiges Erkennungsinstrument bereitzustellen Emotionen.“
Das System nutzt eine von denselben UWS-Forschern entwickelte multimodale Datenbank, die aus Signalen besteht, die während einer Studie mit audiovisuellen Reizen aufgezeichnet wurden.
Die Teilnehmer von lernen zeichneten ihre emotionalen Reaktionen auf jeden Reiz auf und bewerteten sie unter Berücksichtigung von Verhalten, Stimulation und Beherrschung.
Diese Signale wurden von einer Kamera und einem drahtlosen tragbaren Gerät erfasst und könnten den Einsatz von Affective Computing in alltäglichen Anwendungen ermöglichen.
Dieser Fortschritt könnte Klinikern, Therapeuten und Betreuern ein neues Werkzeug bieten, um die emotionalen Zustände des Einzelnen besser zu verstehen. mit unterschiedlichen neurodiversen Erkrankungen, verbessert die Beurteilung der psychischen Gesundheit und ermöglicht frühzeitige Interventionen bei Herausforderungen emotional.
Darüber hinaus ebnet es den Weg für die Entwicklung von Technologien wie Augmented Reality, virtuell und robotisch, speziell entwickelt, um Menschen beim Verstehen und Ausdrucken zu helfen Emotionen.