Недавно New York Times и «Daily News» подали иск против Openai, обвинив его в использовании своей работы для обучения модели ИИ без разрешения. В центре внимания этого дела было то, что инженер Openai неожиданно удалил доказательства того, что дело было жизненно важным для дела, что привело к широкому вниманию. Это не только влияет на процесс испытательного дела, но также выявляет потенциальные риски и этические проблемы обработки данных при обучении модели с крупным языком. В этой статье будут подробно проанализировать тонкости этого инцидента и подробно исследуют его влияние на развитие индустрии искусственного интеллекта.
В последнее время New York Times и Daily News совместно подали в суд на Openai и обвинили их в использовании своих работ для обучения моделей искусственного интеллекта без разрешения.
Развитие этого дела вызвала внимание общественности, потому что команда юристов истца указала в последних судебных документах, которые инженеры Openai случайно удалили доказательства того, что это может оказать важное влияние на дело при рассмотрении соответствующих данных.
Сообщается, что OpenAI согласилась предоставить две виртуальные машины этой осенью, чтобы команда истца смогла искать, содержит ли его учебные данные содержание авторских прав. Виртуальная машина - это виртуальный компьютер, работающий в компьютерной операционной системе, которая обычно используется для тестирования, резервного копирования данных и запуска приложений. С 1 ноября New York Times и юридический консультант The Daily News и экспертов, которых они наняли, работали более 150 часов на данных обучения Openai.
Однако 14 ноября инженеры Openai случайно очистили данные поиска, хранящиеся на одной из виртуальных машин. Согласно письму адвоката истца, хотя Openai пытался восстановить потерянные данные и преуспел в большинстве случаев, поскольку структура папок и имя файла «нельзя восстановить», восстановленные данные не могут быть использованы для определения статей Газета Истец.
Юридический консультант истца отметил, что они не думают, что удаление было преднамеренным, но инцидент показал, что Openai «находится в лучшем положении в поиске их наборов данных и поиске потенциального содержания нарушения». Это означает, что OpenAI должен использовать свои собственные инструменты для более эффективного поиска связанных нарушений.
В этом случае и в других подобных случаях OpenAI всегда настаивал на том, что использование общественных доступных данных для обучения модели является разумным использованием. Это означает, что OpenAI считает, что ему не нужно платить плату за авторские права за использование этих примеров, хотя он извлекает выгоду из этих моделей.
Стоит отметить, что OpenAI подписал уполномоченное соглашение со все большим и большим количеством новых средств массовой информации, включая Associated Press, Business Inspection, Financial Times и т. Д. Однако конкретные условия этих соглашений не были обнародованы. Сообщается, что партнер по контенту Дотдаш получает не менее 16 миллионов долларов в год.
Хотя существует противоречие по правовым вопросам, OpenAI не подтвердил и не опровергла, что использование конкретных работ авторских прав без разрешения на обучение искусственного интеллекта.
Очки:
OpenAI был обвинен в удалении возможных важных доказательств в судебных процессах об авторском праве.
Истец сказал, что для восстановления данных они потратили много времени и рабочей силы.
Openai настаивает на том, что использование публичных данных в учебной модели является разумным.
Этот инцидент подчеркивает сложность исходных и авторских проблем с обучением модели искусственного интеллекта, а также вызывает обеспокоенность по поводу безопасности данных и управления доказательствами. Составляет ли поведение OpenAI нарушение и как определить границы «разумного использования», будет важной проблемой, которую необходимо обсудить в будущем. Окончательный результат этого случая окажет глубокое влияние на развитие индустрии искусственного интеллекта.