Последняя модель искусственного интеллекта Google PaliGemma2 способна анализировать изображения и создавать подписи, а также отвечать на вопросы об эмоциях и поведении людей на фотографиях. Модель основана на семействе открытых моделей Gemma и обеспечивает более глубокое описание изображения, чем традиционное распознавание объектов, способна идентифицировать эмоции и генерировать подробные описания, соответствующие контексту. Однако этические и социальные последствия этой технологии вызвали обеспокоенность среди экспертов, при этом в центре внимания оказались надежность ее возможностей распознавания эмоций и потенциальные риски злоупотреблений. В этой статье будут рассмотрены технические особенности, этические противоречия и будущее развитие PaliGemma2.
Недавно Google выпустила модель искусственного интеллекта нового поколения — PaliGemma2, которая может анализировать изображения и генерировать подписи, одновременно отвечая на вопросы об эмоциях и действиях людей на фотографиях. PaliGemma2 основана на серии открытых моделей Google Gemma и обеспечивает более глубокое описание изображений, чем традиционное распознавание объектов. Он может распознавать эмоции и генерировать подробные описания, соответствующие контексту. Однако, хотя эта технология кажется революционной инновацией, эксперты высказали серьезные предупреждения о ее потенциальных этических и социальных последствиях.
Распознавание эмоций не является стандартной функцией PaliGemma2, но достигается путем тонкой настройки. Хотя Google заявляет, что провела «обширное тестирование» и превзошла отраслевые стандарты по демографической предвзятости, эксперты выразили обеспокоенность по поводу надежности технологии. Профессор Сандра Вахтер из Оксфордского университета считает, что «существуют серьезные проблемы с «чтением» человеческих эмоций с помощью искусственного интеллекта» и что этот процесс слишком сильно зависит от предположений, которые могут привести к ошибочным суждениям и предвзятости.
Технология распознавания эмоций уже давно является предметом споров в технологическом сообществе. В то время как ранние исследования, такие как теория эмоций Пола Экмана, предлагали шесть основных эмоций, последующие исследования показали, что выражение эмоций сильно различается в зависимости от культуры и контекста. Исследователь Майк Кук из Университета Королевы Марии в Великобритании отметил, что «сложность эмоционального опыта делает точное обнаружение эмоций практически невозможным». Кроме того, исследования показывают, что существующие системы анализа выражения лица часто имеют предвзятое отношение к определенным эмоциям, таким как улыбка или различия в выражениях лица между расовыми группами.
Поскольку технология распознавания эмоций постепенно становится коммерциализированной, риск злоупотреблений, который она может принести, привлек внимание всех сторон. Некоторые эксперты обеспокоены тем, что этот тип технологий может быть использован в правоохранительных органах, вербовке и других областях, что еще больше усугубляет социальное неравенство. Законопроект ЕС об искусственном интеллекте уже налагает строгие ограничения на технологии распознавания эмоций, особенно при использовании в средах высокого риска.
Google настаивает на том, что PaliGemma2 полностью учла вопросы этики и безопасности на этапе тестирования, особенно безопасность детей и контента. Однако адекватность этих гарантий еще предстоит тщательно изучить. Доктор Хейди Клааф из Института AI Now заявила, что распознавание эмоций — это не только визуальная проблема, но и затрагивающая глубокие социальные и культурные корни. «Эмоции невозможно точно определить только по чертам лица».
С публичным выпуском этой технологии PaliGemma2 не только будет способствовать применению искусственного интеллекта в области распознавания изображений, но и создаст новые проблемы для социальной этики и конфиденциальности данных, что срочно потребует внимания и вмешательства соответствующих регулирующих органов.
Появление PaliGemma2, несомненно, способствовало развитию технологии распознавания изображений с помощью искусственного интеллекта, но оно также выявило ограничения и потенциальные риски технологии распознавания эмоций. В будущем применение технологий должно найти баланс между инновациями и этикой, а также усилить контроль, чтобы гарантировать, что ими не злоупотребляют, чтобы лучше служить обществу.