OpenAI разработала передовую технологию, которая может обнаруживать контент, созданный ChatGPT, с точностью 99,9%, но технология не была публично представлена, что вызвало широкое обсуждение и споры. В этой статье мы углубимся в дилемму, с которой столкнулся OpenAI: как найти баланс между технической прозрачностью, лояльностью пользователей, технической справедливостью и социальной ответственностью, а также острую потребность в этой технологии в образовательном сообществе.
Перед OpenAI стоит серьезная проблема: как бороться со студентами, использующими ChatGPT для мошенничества. Хотя компания разработала надежный метод обнаружения статей или исследовательских отчетов, написанных ChatGPT, это происходит на фоне широко распространенной обеспокоенности по поводу того, что студенты используют ИИ для мошенничества. еще не обнародовано.
OpenAI успешно разработала надежную технологию обнаружения контента, созданного ChatGPT. Эта технология обеспечивает точность обнаружения до 99,9% за счет внедрения водяных знаков в текст, сгенерированный искусственным интеллектом. Однако вызывает недоумение тот факт, что эта технология, которая могла бы решить насущную потребность, не была обнародована. По словам инсайдеров, этот проект обсуждался в рамках OpenAI уже почти два года и был готов к выпуску год назад.
Факторы, препятствующие выпуску этой технологии, сложны. Во-первых, перед OpenAI стоит дилемма: придерживаться обязательств компании по обеспечению прозрачности или сохранять лояльность пользователей. Внутренний опрос компании показывает, что почти треть лояльных пользователей ChatGPT выступают против технологии борьбы с мошенничеством. Эти данные, несомненно, оказывают большое давление на принятие решений компанией.
Во-вторых, OpenAI обеспокоена тем, что эта технология может оказать непропорционально негативное влияние на определенные группы, особенно на тех, для кого английский язык не является родным. Эта обеспокоенность отражает основной вопрос этики ИИ: как обеспечить справедливость и инклюзивность технологии ИИ?
Однако в то же время потребность в этой технологии в образовании растет. Согласно опросу Центра демократии и технологий, 59% учителей средних и старших классов убеждены, что ученики уже используют ИИ для выполнения домашних заданий, что на 17 процентных пунктов больше, чем в предыдущем учебном году. Преподавателям срочно нужны инструменты для решения этой задачи и поддержания академической честности.
Колебания OpenAI вызвали внутренние разногласия. Сотрудники, поддерживающие выпуск этого инструмента, говорят, что опасения компании меркнут по сравнению с огромными социальными выгодами, которые может принести технология. Эта перспектива подчеркивает противоречие между технологическим развитием и социальной ответственностью.
Есть также некоторые потенциальные проблемы с самой технологией. Несмотря на высокую точность обнаружения, все еще есть сотрудники, которые обеспокоены тем, что водяные знаки могут быть удалены простыми техническими средствами, например, с помощью программного обеспечения для перевода или редактирования человеком. Эта обеспокоенность отражает проблемы, с которыми сталкиваются технологии искусственного интеллекта в практическом применении.
Кроме того, актуальным вопросом является и то, как контролировать масштабы использования этой технологии. Слишком узкое использование снизит ее полезность, а слишком широкое использование может привести к взлому технологии. Этот баланс требует тщательного проектирования и управления.
Стоит отметить, что и другие технологические гиганты также предпринимают шаги в этой области. Google разработала SynthID, инструмент для создания водяных знаков, который обнаруживает текст, генерируемый искусственным интеллектом Gemini, хотя он все еще находится в стадии бета-тестирования. Это отражает важность, которую вся индустрия искусственного интеллекта придает проверке подлинности контента.
OpenAI также уделяет приоритетное внимание разработке технологий аудио и визуальных водяных знаков, особенно в год выборов в США. Это решение подчеркивает необходимость того, чтобы компании, занимающиеся искусственным интеллектом, учитывали более широкие социальные последствия развития технологий.
Ссылка: https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?st=ejj4hy2haouysas&reflink=desktopwebshare_permalink.
Решение OpenAI отражает общую проблему, с которой сталкиваются при разработке технологий искусственного интеллекта: баланс между технологическим прогрессом и этической ответственностью. Как избежать технических злоупотреблений и несправедливости, обеспечивая при этом академическую честность, станет ключевым вопросом, который OpenAI и вся индустрия искусственного интеллекта должны продолжать исследовать и решать в будущем.