Магазин GPT, запущенный OpenAI, нацелен на предоставление разнообразных настраиваемых версий ChatGPT, но в его механизме просмотра контента, похоже, есть лазейки. Недавно в магазинах появилось большое количество чат-ботов с искусственным интеллектом, которые нарушают политику использования, что вызывает обеспокоенность по поводу возможностей платформы по управлению контентом. В статье будут проанализированы проблемы контроля контента, с которыми сталкиваются магазины GPT, и вытекающие отсюда мысли по этическим проблемам, таким как спутники с искусственным интеллектом и эмоциональная зависимость.
Генеральный директор OpenAI Сэм Альтман заявил на конференции, что в новом магазине, похоже, возникают проблемы с управлением контентом, несмотря на то, что правила GPTStore запрещают это. Долгожданный GPTStore наконец-то был запущен. Однако поиск «девушки» на новом рынке выявил как минимум восемь романтических чат-ботов с искусственным интеллектом, что нарушает политику использования OpenAI. Хотя в политике четко указано, что GPT, пропагандирующие романтические отношения, не допускаются, OpenAI не отреагировала на проблему незаконного контента в новом магазине. В последние годы, с появлением платформ-компаньонов с искусственным интеллектом, привлекло внимание явление, когда пользователи устанавливают эмоциональную зависимость от своих спутников с искусственным интеллектом. Спустя более чем два месяца после того, как OpenAI официально запустила магазин GPT, пользователи создали более 3 миллионов индивидуальных версий чат-ботов ChatGPT.Быстрое развитие магазинов GPT и отставание в надзоре за контентом обнажили противоречие между развитием технологий искусственного интеллекта и построением этических норм. Как эффективно контролировать контент ИИ и предотвращать его использование для создания нездоровых спутников искусственного интеллекта — это задача, с которой должны столкнуться OpenAI и вся отрасль. В будущем будет крайне важно усилить технические средства и ручную проверку, усовершенствовать соответствующие законы и правила, а также установить надежные этические стандарты ИИ.