Недавно две статьи о генеративном искусственном интеллекте (ИИ) вызвали бурные дискуссии, в которых отмечалось, что тексты, генерируемые ИИ, часто являются «ерундой». Эти два документа представляют собой углубленный анализ потенциального вреда обществу, причиненного дезинформацией, создаваемой ИИ, с точки зрения основных характеристик ИИ и недостатков действующих законов и правил, а также призывают к более эффективным мерам по предотвращению рисков. Авторы статьи считают, что ошибочно просто приписывать ошибки ИИ «иллюзиям» и что для описания этого явления следует использовать более точные термины, тем самым улучшая осведомленность и понимание общественностью технологии ИИ и способствуя реализации соответствующих законов и правила.
Недавно две исследовательские группы опубликовали документы, которые привлекли всеобщее внимание, прямо заявив, что содержание продуктов генеративного искусственного интеллекта (ИИ) по сути можно рассматривать как «ерунду». В документе под названием «ChatGPT — это ерунда» отмечается, что игнорирование генеративным ИИ точности при предоставлении информации создает множество проблем для государственных служащих, особенно для чиновников, которые по закону обязаны говорить правду.
Авторы Майкл Таунсен Хикс, Джеймс Хамфрис и Джо Слейтер подчеркивают, что дезинформацию, генерируемую генеративным ИИ, нельзя просто описать как «ложь» или «иллюзии». В отличие от лжи, которая намеренно вводит в заблуждение, чушь относится к форме выражения, которая не заботится об истине в попытке произвести определенное впечатление. Они утверждают, что называние ошибок ИИ «галлюцинациями» лишь вводит общественность в заблуждение, заставляя думать, что эти машины все еще каким-то образом пытаются сообщить то, во что они «верят».
«Назвать эти ошибки «ерундой», а не «иллюзиями», было бы не только точнее, но и помогло бы улучшить понимание технологии обществом», — заявили они. Этот отрывок подчеркивает важность использования более точных терминов для описания ошибок ИИ. особенно в нынешнем контексте, когда научно-техническая коммуникация остро нуждается в совершенствовании.
Между тем, еще одна исследовательская работа, посвященная моделям большого языка (LLM), посвящена правовой и этической среде ЕС по этому вопросу. Вывод статьи заключается в том, что действующие законы и положения об ИИ все еще недостаточно совершенны, чтобы эффективно предотвратить вред, причиняемый «ерундой», создаваемой этими ИИ. Авторы Сандра Вахтер, Брент Миттельштадт и Крис Рассел предлагают ввести правила, аналогичные тем, которые применяются в издательском деле, с упором на избежание «случайной речи», которая может нанести социальный вред.
Они отмечают, что это обязательство подчеркивает, что ни одна организация, государственная или частная, не должна быть единоличным арбитром истины. Они также предполагают, что «случайная речь» генеративного ИИ может превратить истину в вопрос частоты и мнения большинства, а не в реальные факты.
В целом, эти два документа совместно раскрывают потенциальные риски генеративного ИИ и призывают все слои общества обратить внимание и принять меры по совершенствованию соответствующих законов и правил, стандартизации разработки технологий ИИ и обеспечению того, чтобы технология ИИ могла лучше служить человеческое общество.