Новое исследование Центра цифровой журналистики Tow Колумбийского университета выявило серьезные проблемы с цитированием источников новостей ChatGPT. Исследователи протестировали 200 цитат из новостей от 20 издателей и обнаружили, что до 76,5% цитат ChatGPT содержали ошибки или частичные ошибки и редко признавали недостающую информацию. Это исследование вызвало обеспокоенность по поводу надежности поисковых служб искусственного интеллекта и подняло вопросы о безопасности приложений искусственного интеллекта в области распространения новостей. Его выводы имеют важные предупреждающие последствия как для средств массовой информации, так и для компаний, занимающихся искусственным интеллектом.
Новое исследование Центра цифровой журналистики Колумбийского университета бьет тревогу по поводу поисковых служб искусственного интеллекта. Исследования показывают, что у ChatGPT есть серьезные проблемы с точностью при цитировании источников новостей, даже для издателей, которые работают напрямую с OpenAI. Исследовательская группа провела комплексное тестирование 200 новостных цитат от 20 различных издателей, и результаты были шокирующими: в колоссальных 153 случаях ChatGPT содержал неверную или частично неверную исходную информацию. Еще более тревожно то, что система редко заранее признавала отсутствие информации, признавая только в семи попытках, что не удалось найти источник.
Исследователи отметили, что для поддержания удобства взаимодействия с пользователем ChatGPT скорее будет придумывать ответы, чем признавать недостаток информации. Что еще более серьезно, система представляет эти ложные источники с тревожной уверенностью, не выказывая никакой неопределенности. Даже такие известные издательства, как New York Post и The Atlantic, имеющие прямое партнерство с OpenAI, не застрахованы от этой проблемы. В некоторых случаях ChatGPT даже ссылался на веб-сайты, которые без разрешения копировали статьи целиком, а не на первоначальный источник.
Главный редактор MIT Technology Review Мэтт Хонан прокомментировал это: «Как издатели, мы определенно не хотим видеть такую ситуацию, и доступные средства правовой защиты в настоящее время крайне ограничены».
OpenAI довольно осторожно отреагировала на эти тревожные выводы. Компания подчеркнула, что ChatGPT еженедельно обслуживает 250 миллионов пользователей, и заявила, что работает с партнерами над повышением точности цитирования.
Окончательный вывод исследования ясен: в настоящее время у издателей нет гарантии, что поиск ChatGPT будет точно отображать их контент, независимо от того, есть ли у них партнерство с OpenAI. Это открытие, несомненно, будет способствовать дальнейшему обсуждению и повышению достоверности информации искусственного интеллекта.
Результаты отрезвляют и подчеркивают важность критического мышления и проверки фактов при использовании технологий искусственного интеллекта для получения информации. В будущем необходимо еще больше усилить надзор и совершенствование моделей искусственного интеллекта, чтобы обеспечить точность и надежность предоставляемой ими информации и избежать введения общественности в заблуждение.