Источник: Обзор технологий MIT.
В конце октября News Corp подала иск против популярной поисковой системы с искусственным интеллектом Perplexity AI. На первый взгляд в этом нет ничего необычного. В конце концов, это один из многих случаев, когда от разработчиков ИИ требуется указать авторство, получить согласие или выплатить компенсацию за использование данных. Однако этот иск отличается от других и может оказаться самым значимым из всех.
В основе этих дебатов лежит будущее поиска с использованием искусственного интеллекта, а именно чат-ботов, способных извлекать и обобщать контент из информации в сети. По мере роста популярности эти «системы ответов» на базе искусственного интеллекта могут стать воротами в Интернет, которые заменят традиционные поисковые системы. В отличие от обычных чат-ботов с искусственным интеллектом, которые обучены только воспроизводить информацию (хотя зачастую и ненадежно), поисковые инструменты с искусственным интеллектом, такие как Perplexity, Gemini от Google или недавно выпущенный SearchGPT от OpenAI, предназначены для получения и переупаковки информации со сторонних веб-сайтов, чтобы предоставить пользователям возможность предоставлять краткие сводки ссылки на несколько источников, от исследовательских работ до статей в Википедии и стенограмм YouTube. Система ИИ выполняет чтение и запись, но информация поступает извне.
В лучшем случае поиск с помощью ИИ может лучше определять намерения пользователя, повышать качество контента и интегрировать информацию из нескольких источников. Но если ИИ-поиск станет нашим главным входом в Интернет, это окажет влияние на и без того хрупкую цифровую экономику. В настоящее время производство онлайн-контента опирается на хрупкие стимулы, связанные с виртуальным трафиком: реклама, подписки, пожертвования, продажи или узнаваемость бренда. Если поиск ИИ скрывает веб-контент за «всезнающими» чат-ботами, это может лишить создателей трафика и внимания, необходимых им для выживания.
Если поиск ИИ нарушит эту экосистему, существующие законы могут не помочь. Правительства осознали, что контент «полн лазеек» в правовой системе, и начинают использовать другие методы для регулирования потоков онлайн-ценностей. В этот узкий промежуток времени индустрия искусственного интеллекта должна активно создавать более разумный рынок контента, чтобы избежать государственного вмешательства, которое неэффективно, приносит пользу лишь немногим или ограничивает свободное движение идей в Интернете.
Авторское право не решит разрушительное воздействие поиска с использованием ИИ
News Corp заявила, что использование ее контента для извлечения информации для использования в поиске ИИ равносильно нарушению авторских прав, и заявила, что Perplexity AI «конкурирует за читателей, одновременно предоставляя бесплатную поездку». Эту точку зрения может также разделить газета New York Times, которая в середине октября направила в компанию Perplexity AI письмо о прекращении противоправных действий.
В некотором смысле обвинения против AI Search более строгие, чем другие дела, связанные с обучением искусственного интеллекта. Обучение ИИ обычно изучает обобщенные модели поведения на основе большого количества повторяющегося контента, а вклад одного фрагмента контента часто ограничен. Но в поиске ценность контента заключается в его новизне или уникальности, либо в уникальном авторитете создателя. Поиск с помощью ИИ предназначен для воспроизведения определенных характеристик исходных данных, ссылки на авторитет оригинального автора и действия в качестве суррогата исходного контента.
Несмотря на это, News Corp по-прежнему сталкивается с трудной задачей: доказать, что Perplexity AI нарушил авторские права при обработке и обобщении информации. Закон об авторском праве не защищает «просто факт» или результаты творческой, журналистской или научной деятельности. Суды США исторически отдавали предпочтение обвиняемым в сфере технологий, которые используют контент в достаточно искаженных целях, и эта тенденция, вероятно, продолжится. И если News Corp добьется успеха, влияние этого прецедента намного превзойдет Perplexity AI. Ограничение использования насыщенного информацией контента в нетворческих или невыразительных целях может ограничить использование богатых, разнообразных и высококачественных данных и помешать более широким усилиям по повышению безопасности и надежности систем искусственного интеллекта.
Правительства учатся регулировать распределение ценностей в Интернете
Если существующие законы не смогут решить эти проблемы, правительства могут искать новые законы. Вдохновленные разногласиями с традиционными поисковыми платформами и социальными сетями, правительства могут последовать примеру законов о переговорах со СМИ, принятых в Австралии и Канаде, или аналогичных программ, предложенных Калифорнией и Конгрессом в США. Реформы вынуждают определенные платформы платить некоторым медиаорганизациям за показ их контента, например, новостных сегментов или панелей знаний. ЕС наложил аналогичные обязательства посредством реформы авторского права, а Великобритания ввела широкие полномочия в области конкуренции, чтобы при необходимости принудить к переговорам.
Однако принудительные переговоры являются грубым решением этой сложной проблемы. Эти реформы отдают предпочтение конкретным новостным организациям и основаны на предположении, что такие платформы, как Google и Meta, эксплуатируют издателей. На практике сложно определить, какая часть трафика платформы на самом деле приходится на новости: оценки варьируются от 2% до 35%, при этом новостной контент в социальных сетях составляет всего 3%. В то же время платформы принесли значительные преимущества в расширении контента издателей, но единого консенсуса относительно надлежащего распределения этой двусторонней ценности не существует. Еще более спорно то, что эти правила переговоров не только нацелены на воспроизведение контента, но также налагают ограничения на индексацию и ссылки, угрожая возможности «свободных ссылок», которая лежит в основе Интернета. Кроме того, законы о переговорах, ориентированные на традиционные СМИ, применяются только к 1400 изданиям в Канаде, 1500 в Европейском Союзе и 62 организациям в Австралии, игнорируя многих создателей и пользователей, которые каждый день вносят свой вклад в трафик платформы.
Отрасль должна воспользоваться ограниченными возможностями для создания справедливой системы вознаграждения.
Однако сама угроза вмешательства может иметь большее воздействие, чем реальная реформа. Компании, занимающиеся искусственным интеллектом, осознали риск того, что судебные разбирательства могут перерасти в регулирование. Например, Perplexity AI, OpenAI и Google начали заключать сделки с издателями и контент-платформами, некоторые из которых касаются обучения ИИ, а другие — поиска с помощью ИИ. Но, как и в случае с более ранними законами о переговорах, эти соглашения приносят выгоду лишь горстке компаний, а некоторые из них, такие как Reddit, еще не взяли на себя обязательство делиться доходами со своими создателями.
Эта политика выборочных уступок неустойчива. Он игнорирует подавляющее большинство онлайн-создателей, которые не могут легко отказаться от поиска с помощью ИИ и не обладают переговорной силой, как традиционные издатели. Эта тактика ослабляет безотлагательность реформы, успокаивая ее самых громких критиков. Легитимизация горстки компаний, занимающихся искусственным интеллектом, посредством сложных деловых соглашений, которые затрудняют получение равного обращения или эквивалентного иммунитета новым участникам рынка, может еще больше укрепить новую волну поисковых гигантов. В долгосрочной перспективе это может создать порочные стимулы для компаний, занимающихся искусственным интеллектом, отдавать предпочтение дешевым и некачественным источникам, а не более дорогим и качественным новостям или контенту, что приведет к все более неразборчивой культуре потребления информации.
Вместо этого индустрия искусственного интеллекта должна инвестировать в структуры, которые позволят создателям всех типов извлекать выгоду из обмена качественным контентом. От YouTube до TikTok и X — технологические платформы доказали, что они могут предоставить инновационные механизмы вознаграждения создателям на сложных рынках контента. Фактически, более справедливая монетизация повседневного контента является основной целью движения «web3», продвигаемого венчурными капиталистами. Эта логика также применима к поиску ИИ. Если запрос приводит к существенному вовлечению, но пользователь не переходит к исходному источнику, коммерческие поисковые платформы искусственного интеллекта должны найти способы приписать эту ценность создателю и распространить ее более широко.
Конечно, также возможно, что наша цифровая экономика была несовершенной с самого начала. Опора на спорадические доходы от рекламы может быть неустойчивой, а экономика внимания нанесла существенный ущерб конфиденциальности, целостности информации и онлайн-демократии. Поддержка высококачественной журналистики и свежего контента может потребовать других форм инвестиций или стимулов.
Но мы не должны отказываться от стремления к более справедливой цифровой экономике. Поиск с помощью ИИ делает обсуждение контента более актуальным и осуществимым, чем когда-либо. Пионеры в отрасли искусственного интеллекта должны воспользоваться этой возможностью, чтобы заложить основу для создания умных, справедливых и масштабируемых систем вознаграждения. Если они не смогут действовать, у правительств уже есть возможность и уверенность в том, чтобы навязать ту систему общих ценностей, которую они себе представляют.
Бенджамин Брукс — научный сотрудник Гарвардского центра Беркмана Кляйна, где он занимается нормативными и законодательными мерами по реагированию на искусственный интеллект. Ранее он руководил работой по государственной политике в компании Stability AI, которая разрабатывает открытые модели для генерации изображений, языка, аудио и видео. Его взгляды не отражают позицию какой-либо дочерней организации.