В последние годы технология распознавания эмоций стала все более широко использоваться в коммерческой сфере, однако ее научные и этические вопросы весьма противоречивы. Многие компании утверждают, что их программное обеспечение для распознавания эмоций с помощью искусственного интеллекта может точно оценивать человеческие эмоции, однако многочисленные исследования показали, что эта технология имеет серьезные недостатки и ее точность намного ниже рекламируемой.
В последние годы в технологической отрасли постепенно появилась технология распознавания эмоций. Многие технологические компании запустили программное обеспечение для распознавания эмоций на основе искусственного интеллекта, утверждая, что могут определять эмоциональное состояние человека, включая счастье, печаль, гнев и разочарование, на основе биометрических данных. Однако все большее количество научных исследований показывает, что эти технологии не так надежны, как рекламируется.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и разрешено поставщиком услуг Midjourney.
Согласно последним исследованиям, технология распознавания эмоций сталкивается с серьезными проблемами научной обоснованности. Многие компании заявляют, что эти системы объективны и основаны на научных методах, но на самом деле они часто опираются на устаревшие теории. Эти теории предполагают, что эмоции можно измерить количественно и они имеют одинаковые проявления по всему миру, но на самом деле на выражение эмоций глубоко влияют культура, окружающая среда и индивидуальные различия. Например, влажность кожи человека может повышаться, падать или оставаться неизменной, когда он злится, что делает невозможным использование единого биологического индикатора для точной оценки эмоций.
В то же время эти технологии распознавания эмоций также создают юридические и социальные риски, особенно на рабочем месте. Согласно новым правилам ЕС, использование систем искусственного интеллекта, определяющих эмоции, на рабочем месте запрещено, за исключением случаев, связанных с медицинскими соображениями или соображениями безопасности. В Австралии регулирование в этой области еще не пришло в норму. Хотя некоторые компании пытались использовать анализ эмоций по лицу при подборе персонала, эффективность и этика этих технологий вызвали множество вопросов.
Кроме того, технология распознавания эмоций также имеет потенциальные проблемы с предвзятостью. Эти системы могут демонстрировать дискриминацию людей разных рас, пола и инвалидности при распознавании эмоций. Например, некоторые исследования показывают, что системы распознавания эмоций с большей вероятностью распознают черные лица как злые, даже если оба человека улыбаются одинаково.
Хотя технологические компании признают проблему предвзятости в распознавании эмоций, они подчеркивают, что предвзятость в первую очередь связана с наборами данных, используемыми для обучения этих систем. В ответ на эту проблему компания inTruth Technologies заявила, что стремится использовать разнообразные и инклюзивные наборы данных для уменьшения предвзятости.
Общественное мнение о технологии распознавания эмоций не оптимистично. Недавний опрос показал, что только 12,9% взрослых австралийцев поддерживают использование технологии распознавания эмоций по лицу на рабочем месте, причем многие рассматривают это как вторжение в частную жизнь.
Подводя итог, можно сказать, что развитие технологии распознавания эмоций сталкивается с огромными проблемами. Ее научная обоснованность, этические риски и проблемы социальной предвзятости требуют широкого внимания и углубленного обсуждения. Прежде чем применять технологию, необходимо определить ее потенциальные негативные последствия и разработать соответствующие меры регулирования.