OpenAI разрабатывает технологию водяных знаков, которая может идентифицировать текст, сгенерированный ChatGPT, с целью борьбы с распространением контента, создаваемого ИИ. Эта технология обеспечивает возможность отслеживания путем внедрения в текст невидимых водяных знаков и внесения тонких изменений в выбор слов. Хотя в некоторых ситуациях эта технология работает хорошо, она менее эффективна перед лицом таких вещей, как подделка текста, и может непропорционально повлиять на определенные группы. Поэтому OpenAI придерживается осторожного подхода и тем временем изучает другие решения, такие как классификаторы и метаданные.
По данным Wall Street Journal, OpenAI разработала инструмент для высокоточного распознавания текста, сгенерированного ChatGPT, но официально он еще не выпущен. Инструмент планирует идентифицировать контент, созданный ChatGPT, путем внедрения в текст невидимых водяных знаков, но эта технология по-прежнему сталкивается со многими проблемами, такими как проблемы сбоев при изменении и переводе текста, а также потенциальная дискриминация определенных групп людей. OpenAI подчеркивает, что эта технология является лишь одним из многих решений, которые они изучают, и что они будут осторожно продвигать эти исследования и уделять приоритетное внимание разработке инструментов аутентификации для аудиовизуального контента. Этот шаг вызвал в отрасли обширные дискуссии по вопросам идентификации и управления контентом, созданным с помощью ИИ, и в центре внимания стало то, как найти баланс между защитой инноваций и предотвращением рисков.
OpenAI заявляет, что водяные знаки в тексте — это лишь одно из нескольких решений, которые она изучает, включая классификаторы и метаданные, направленные на определение происхождения текста. Хотя в некоторых случаях технология нанесения водяных знаков на текст работает хорошо, ее эффективность снижается, когда он сталкивается с несанкционированными действиями, такими как перевод, переписывание или вставка специальных символов. Кроме того, технология может непропорционально повлиять на определенные группы, например, на тех, для кого английский язык не является родным.
Учитывая вышеперечисленные сложные факторы и их потенциальное влияние на всю экосистему, OpenAI заявила, что будет осторожно продвигать исследования в области технологии атрибуции текста и уделять приоритетное внимание разработке инструментов аутентификации для аудиовизуального контента.
Это решение вызвало в отрасли широкие дискуссии по вопросам идентификации и управления контентом, созданным с помощью ИИ. В условиях быстрого развития технологий искусственного интеллекта вопрос о том, как найти баланс между защитой инноваций и предотвращением рисков, оказался в центре внимания всех сторон.
Осторожное отношение OpenAI к технологии отслеживания контента AI отражает сложность и этические проблемы технологического развития. В будущем то, как эффективно идентифицировать и управлять контентом, созданным ИИ, станет ключевым вопросом, вызывающим постоянную озабоченность в области искусственного интеллекта, требующим совместных усилий технологий, политики и этики.