Недавно Anthropic выпустила систему подсказок для своих моделей серии Claude, но она вызвала споры из-за отсутствия описания последней функции Artifacts. Исследователи отмечают, что этот недостаток влияет на полное понимание поведения модели. В Anthropic ответили, что функция «Артефакты» была запущена позже, чем было подсказано системой, поэтому она не была включена, и пообещали добавить полную информацию в ближайшие несколько недель. Этот инцидент подчеркивает важность раскрытия подсказок системы моделей ИИ и проблемы, с которыми сталкиваются разработчики с точки зрения прозрачности.
На прошлой неделе Anthropic выпустила системные подсказки для своих моделей серии Claude, которые представляют собой инструкции по эксплуатации модели, но этот выпуск является неполным. В ответ на эту проблему Anthropic пообещала в ближайшие недели объявить системные подсказки для своей последней функции «Артефакты». Ранее исследователи отмечали, что в последнюю версию не вошли советы, связанные с артефактами.
Представитель Anthropic подтвердил, что они «добавят более подробную информацию о системных подсказках, включая информацию об артефактах, в ближайшие недели». Стоит отметить, что функция «Артефакты» была открыта для всех пользователей Claude только на прошлой неделе, что позволяет пользователям запускать фрагменты кода рядом с интерфейсом чата Claude.
Выпуск Anthropic системной подсказки Claude был оценен средствами массовой информации как компания, которая находится на переднем крае прозрачности, но такие исследователи, как Мохаммед Сахли, считают, что заявлению компании недостает полноты, главным образом потому, что системная подсказка Artifacts была исключена.
Anthropic объяснил, что системное приглашение для Артефактов не появилось в выпуске на прошлой неделе, главным образом потому, что до прошлой недели эта функция была недоступна для всех пользователей Claude. Фактически, «Артефакты» были обнародованы после того, как система сделала объявление.
Итак, насколько важны системные подсказки?
Хотя разработчики моделей ИИ не обязаны публиковать системные подсказки для больших языковых моделей, раскрытие этих инструкций по эксплуатации стало «развлечением» для многих энтузиастов ИИ. Это не только помогает разработчикам лучше понять ожидаемое поведение модели, но и позволяет пользователям понять, почему модель отклоняет определенные запросы.
Согласно файлу системных подсказок, выпущенному Anthropic, Claude3.5Sonnet является самой продвинутой версией в серии, подчеркивающей точность и простоту ответов на вопросы. Модель не помечает информацию явно как конфиденциальную и избегает использования лишних слов-вставок или извинений.
Claude3Opus — это более крупная модель с базой знаний, обновляемой до августа 2023 года, которая позволяет обсуждать спорные темы и предоставляет несколько точек зрения, но позволяет избежать стереотипов и обеспечивает баланс точек зрения. Самая маленькая версия, Claude3Haiku, ориентирована на скорость и не имеет поведенческих рекомендаций, таких как Claude3.5Sonnet.
Что касается системного приглашения Артефактов, то его конкретное содержание пока неизвестно. Сахли упомянул в своем сообщении на Medium, что эта функция может быть направлена на систематическое решение сложных проблем и сосредоточение внимания на кратких ответах.
Выделять:
- ? Anthropic обещает в ближайшие несколько недель выпустить систему артефактов для модели Клода, чтобы ответить на вопросы исследователей.
- ? Функция «Артефакты», которая позволяет пользователям запускать фрагменты кода рядом с интерфейсом чата Клода, стала доступна всем пользователям только на прошлой неделе.
- ? Раскрытие системных подсказок помогает пользователям понять поведение модели и побуждает разработчиков ИИ быть прозрачными.
В целом, этот инцидент отражает важность раскрытия подсказок крупномасштабной языковой модели системы, а также отражает вопросы прозрачности и ответственности в области исследований и разработок в области искусственного интеллекта. Последующие действия Anthropic окажут существенное влияние на ее репутацию и доверие пользователей. Мы надеемся, что оно как можно скорее дополнит информацию и продолжит сохранять лидирующие позиции по прозрачности в сфере искусственного интеллекта.