Недавно редактор Downcodes узнал, что группа художников, участвовавших в тестировании новой модели ИИ OpenAI для преобразования текста в видео Sora, публично выразила протест и раскрыла права раннего доступа к модели, поскольку были недовольны методом сотрудничества OpenAI. Они полагают, что OpenAI использует художников для бесплатных исследований и разработок и связей с общественностью, рассматривая художников только как «бесплатные тестеры ошибок, инструменты рекламы, обучающие данные или жетоны проверки», что вызвало широкую обеспокоенность в отрасли по поводу прав художников при разработке ИИ. модели.
Художники опубликовали открытое письмо на платформе Hugging Face, в котором подробно изложили свое недовольство, отметив, что OpenAI обеспечивает только «художественный авторитет» без соответствующего материального вознаграждения, а также строгие ограничения на требования Соры к проверке контента. OpenAI ответила, что участие в тесте является добровольным, и пообещала продолжать поддерживать участвующих художников. Однако этот инцидент также заставил людей задуматься об этике и бизнес-моделях при разработке моделей ИИ, а также обсуждении того, как лучше защищать права художников.
Художники не выступают против применения технологий искусственного интеллекта в художественном творчестве, но они решительно осуждают использование OpenAI своей программы раннего доступа для эксплуатации труда художников. Они считают, что OpenAI должна предоставлять художникам справедливую оплату и уважение, а не рассматривать их как простые инструменты для достижения целей компании.
В открытом письме художники заявили: «Дорогие лорды Enterprise AI Lords! Когда нам предоставили доступ к Sora, нам обещали стать первыми тестировщиками и творческими партнерами. Однако мы считаем, что нас просто заманили в «искусство». Они подчеркнули, что художник не является для компании «бесплатным тестером ошибок, рекламным инструментом, обучающими данными или жетоном проверки».
Эти художники не против использования технологии искусственного интеллекта в качестве инструмента художественного творчества, но они недовольны программой раннего доступа OpenAI, которая, по их мнению, использует творчество художников в качестве неоплачиваемого труда.
Они раскритиковали OpenAI за то, что она предоставила им «художественный кредит» в проектах, не отвечая взаимностью на работу. В частности, они возражали против требований OpenAI по модерации контента Соры, заявив, что каждый созданный контент должен быть одобрен командой OpenAI, прежде чем им можно будет поделиться.
В ответ на запрос представителей СМИ OpenAI не подтвердила подлинность утечки информации о Sora, но подчеркнула, что художники, участвующие в «предварительном исследовании», были добровольными и не были обязаны предоставлять отзывы или использовать инструмент. Представитель OpenAI заявил: «Sora все еще находится на стадии исследования, и мы усердно работаем над тем, чтобы сбалансировать творчество и меры безопасности. Участие сотен художников помогает нам расставить приоритеты в отношении новых функций и мер безопасности. Кроме того, OpenAI обещает продолжать поддерживать». компания посредством грантов, мероприятий и поддержки участвующих художников другими способами.
Ранее Мира Мурати, бывший технический директор OpenAI, заявила, что Sora, как ожидается, выйдет до конца года, но не выпустит ничего, в чем не уверены во влиянии модели.
В недавнем ответе на вопросы Reddit директор по продукту Кевин Вейл упомянул, что причина, по которой Sora еще не выпущена, заключается в необходимости расширить ее возможности, обеспечить безопасность и предотвратить проблемы с самозванцами.
Этот инцидент еще раз подчеркивает важность этики и морали в развитии искусственного интеллекта, а также напоминает нам о необходимости обратить внимание на гуманистическую заботу, стоящую за технологическим прогрессом. Как сбалансировать технологические инновации и права художников — это вопрос, который требует серьезного рассмотрения в будущем развитии ИИ. Редактор Downcodes продолжит следить за дальнейшим развитием инцидента.