In den letzten Jahren hat die Emotionserkennungstechnologie im kommerziellen Bereich zunehmend an Bedeutung gewonnen, ihre wissenschaftlichen und ethischen Fragen sind jedoch äußerst umstritten. Viele Unternehmen behaupten, dass ihre KI-Software zur Emotionserkennung menschliche Emotionen genau beurteilen kann, doch zahlreiche Studien haben darauf hingewiesen, dass diese Technologie schwerwiegende Mängel aufweist und ihre Genauigkeit weitaus geringer ist als beworben.
In den letzten Jahren hat sich in der Technologiebranche nach und nach die Technologie zur Emotionserkennung herausgebildet. Viele Technologieunternehmen haben KI-gesteuerte Emotionserkennungssoftware auf den Markt gebracht und behaupten, anhand biometrischer Daten den emotionalen Zustand einer Person, einschließlich Glück, Traurigkeit, Wut und Frustration, bestimmen zu können. Eine wachsende Zahl wissenschaftlicher Untersuchungen zeigt jedoch, dass diese Technologien nicht so zuverlässig sind wie beworben.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Neuesten Forschungsergebnissen zufolge steht die Emotionserkennungstechnologie vor ernsthaften Problemen hinsichtlich der wissenschaftlichen Validität. Viele Unternehmen behaupten, diese Systeme seien objektiv und basierten auf wissenschaftlichen Methoden, doch in Wirklichkeit stützen sie sich oft auf veraltete Theorien. Diese Theorien gehen davon aus, dass Emotionen quantifiziert werden können und auf der ganzen Welt die gleichen Erscheinungsformen haben. Tatsächlich wird der Ausdruck von Emotionen jedoch stark von Kultur, Umwelt und individuellen Unterschieden beeinflusst. Beispielsweise kann die Hautfeuchtigkeit einer Person steigen, sinken oder gleich bleiben, wenn sie wütend ist, was es einem einzelnen biologischen Indikator unmöglich macht, Emotionen genau zu beurteilen.
Gleichzeitig bergen diese Technologien zur Emotionserkennung auch rechtliche und soziale Risiken, insbesondere am Arbeitsplatz. Nach den neuen EU-Vorschriften ist der Einsatz von KI-Systemen, die Emotionen ableiten, am Arbeitsplatz verboten, es sei denn, es liegen medizinische oder sicherheitstechnische Gründe vor. In Australien hat die Regulierung in diesem Bereich noch nicht aufgeholt. Während einige Unternehmen versucht haben, Gesichtsemotionsanalysen bei der Personalbeschaffung einzusetzen, haben die Wirksamkeit und Ethik dieser Technologien weitreichende Fragen aufgeworfen.
Darüber hinaus birgt die Emotionserkennungstechnologie auch potenzielle Voreingenommenheitsprobleme. Diese Systeme können bei der Erkennung von Emotionen eine Diskriminierung von Menschen unterschiedlicher Rasse, Geschlechter und Behinderung aufweisen. Einige Untersuchungen zeigen beispielsweise, dass Emotionserkennungssysteme schwarze Gesichter eher als wütend identifizieren, obwohl beide Personen auf die gleiche Weise lächeln.
Während Technologieunternehmen das Problem der Voreingenommenheit bei der Emotionserkennung anerkennen, betonen sie, dass Voreingenommenheit in erster Linie von den Datensätzen herrührt, die zum Trainieren dieser Systeme verwendet werden. Als Reaktion auf dieses Problem sagte inTruth Technologies, dass es sich für die Verwendung vielfältiger und inklusiver Datensätze einsetzt, um Voreingenommenheit zu reduzieren.
Die öffentliche Meinung zur Emotionserkennungstechnologie ist nicht optimistisch. Eine kürzlich durchgeführte Umfrage ergab, dass nur 12,9 % der australischen Erwachsenen den Einsatz gesichtsbasierter Emotionserkennungstechnologie am Arbeitsplatz befürworten, wobei viele dies als Eingriff in die Privatsphäre betrachten.
Zusammenfassend lässt sich sagen, dass die Entwicklung der Technologie zur Emotionserkennung vor großen Herausforderungen steht. Seine wissenschaftliche Gültigkeit, ethische Risiken und soziale Voreingenommenheit erfordern umfassende Aufmerksamkeit und eine eingehende Diskussion. Vor dem Einsatz einer Technologie müssen deren mögliche negative Auswirkungen priorisiert und entsprechende Regulierungsmaßnahmen entwickelt werden.