Последняя модель искусственного интеллекта Google PaliGemma2 утверждает, что способна распознавать человеческие эмоции посредством анализа изображений, что вызывает широкие споры. Модель основана на открытой модели Gemma и способна генерировать подробные описания изображений, включая поведение персонажей и эмоции. Однако эксперты сильно усомнились в научности и безопасности этой технологии, полагая, что ее базовая теория слаба и может иметь серьезные предвзятости и этические риски.
Google недавно запустил новое семейство моделей искусственного интеллекта PaliGemma2, самой привлекательной особенностью которых является их способность «распознавать» человеческие эмоции посредством анализа изображений. Это утверждение быстро вызвало широкую дискуссию и серьезные сомнения среди ученых и экспертов по технологической этике.
Эта система искусственного интеллекта, основанная на открытой модели Gemma, может генерировать подробные описания изображений, а не только просто распознавать объекты, но также пытаться описать поведение и эмоции персонажей на изображениях. Однако многие авторитетные эксперты выступили с серьезными предупреждениями о науке и потенциальных рисках этой технологии.
Сандра Вахтер, профессор этики данных из Оксфордского института Интернета, прямо заявляет, что пытаться «читать» человеческие эмоции с помощью ИИ — это все равно, что «просить совета у волшебной восьмерки». Эта метафора ярко раскрывает абсурдность технологии распознавания эмоций.
На самом деле, сама научная основа распознавания эмоций чрезвычайно хрупка. Ранняя теория шести основных эмоций, предложенная психологом Полом Экманом, была подвергнута сомнению последующими исследованиями. Существуют значительные различия в том, как люди из разных культур выражают эмоции, что делает универсальное распознавание эмоций практически невыполнимой задачей.
Майк Кук, исследователь искусственного интеллекта из Университета Королевы Марии, выражает это более прямо: Обнаружение эмоций невозможно в общем смысле. Хотя люди часто верят, что могут судить об эмоциях других посредством наблюдения, эта способность гораздо более сложна и ненадежна, чем можно себе представить.
Еще большее беспокойство вызывает то, что такие системы ИИ часто имеют серьезные предубеждения. Многочисленные исследования показали, что модели анализа лица могут давать разные эмоциональные суждения людям с разным цветом кожи, что, несомненно, усугубит существующую социальную дискриминацию.
Хотя Google утверждает, что тщательно протестировал PaliGemma2 и показал хорошие результаты в некоторых тестах, эксперты по-прежнему настроены скептически. Они считают, что само по себе ограниченное тестирование не может полностью оценить этические риски, которые может представлять эта технология.
Самое опасное то, что этой открытой моделью можно злоупотреблять в таких ключевых сферах, как занятость, образование, правоохранительная деятельность и т. д., нанося реальный вред уязвимым группам. Как предупреждает профессор Вахтер, это может привести к ужасающему «безудержному» будущему: возможности трудоустройства, кредитования и образования людей будут определяться «эмоциональным суждением» ненадежной системы искусственного интеллекта.
Сегодня, с быстрым развитием искусственного интеллекта, технологические инновации важны, но нельзя игнорировать этику и безопасность. Появление PaliGemma2 еще раз подчеркивает необходимость сохранения четкого и критического взгляда на технологию искусственного интеллекта.
Споры вокруг PaliGemma2 напоминают нам, что нам нужно относиться к технологиям искусственного интеллекта с осторожностью, особенно в областях, связанных с человеческими эмоциями и социальной справедливостью. В будущем развитии ИИ этическим соображениям следует отдать приоритет, чтобы избежать неправильного использования технологий и непоправимых социальных последствий.