Чтобы повысить прозрачность в области искусственного интеллекта (ИИ), Ассоциация индустрии компьютеров и коммуникаций (CCIA) совместно выпустила в Брюсселе и Вашингтоне шаблон глобального отчета о прозрачности отрасли. Этот шаг направлен на повышение доверия общественности и понимания общих данных обучения модели искусственного интеллекта (GPAI). Шаблон требует от компаний раскрывать тип, источник и методы проверки данных и применения данных обучения, чтобы обеспечить прозрачность информации, одновременно защищая безопасность модели. деловая конфиденциальность. Это дополняет законопроект об искусственном интеллекте, формулируемый Европейским Союзом, а также отражает акцент CCIA на согласованности глобальных стандартов.
Стремясь к прозрачности в области искусственного интеллекта (ИИ), Ассоциация индустрии компьютеров и коммуникаций (CCIA) совместно объявила в Брюсселе и Вашингтоне о запуске новой новаторской инициативы — Шаблона отчетности о прозрачности глобальной отрасли. Этот шаблон предназначен для повышения общественного доверия и понимания общих данных обучения модели искусственного интеллекта (GPAI).
Выпущенный на этот раз «Шаблон прозрачности данных для обучения модели ИИ» требует от компаний раскрывать типы данных, используемых для обучения конкретных моделей GPAI, таких как подкасты, книги и т. д., а также необходимо уточнить основные источники данных, такие как открытые источники данных. получать доступ к архивам и большим наборам общедоступных данных или сканированным данным с общедоступных веб-сайтов. Кроме того, компаниям необходимо подробно объяснить, как эти данные отбираются и используются для обучения модели.
CCIA подчеркнула, что этот шаблон прозрачности основан на восьми основных принципах, признанных его компаниями-членами, которые гарантируют, что, предоставляя прозрачную информацию, он защищает безопасность моделей искусственного интеллекта, бизнес-тайны и конфиденциальную информацию связанных третьих сторон. «Мы хотим способствовать ответственному публичному раскрытию данных обучения ИИ. Наш шаблон прозрачности обеспечивает краткий и эффективный способ отчета о данных обучения, обеспечивая при этом безопасность моделей ИИ и ценных коммерческих тайн компании».
Кроме того, CCIA также упомянула, что этот шаблон дополняет план реализации Закона об искусственном интеллекте, который в настоящее время формулируется ЕС, а также уделяет внимание глобальным событиям. CCIA подчеркивает, что ЕС должен соответствовать международным стандартам и избегать изолированной разработки стандартов.
Джошуа Ландау, старший советник по инновационной политике CCIA, сказал: «Меры прозрачности могут максимизировать потенциал ИИ, но они должны быть технически обоснованными и пропорциональными. Поиск баланса имеет решающее значение для укрепления доверия, обеспечивая при этом соблюдение правовых и этических стандартов и поощрение инноваций. в области искусственного интеллекта».
Поскольку технологии искусственного интеллекта продолжают развиваться, важность прозрачности становится все более заметной. Шаблон прозрачности, запущенный CCIA, не только обеспечивает стандартизированную структуру отчетности для предприятий, но также является важным ориентиром для регулирующих органов при формулировании соответствующей политики, способствуя развитию всей отрасли в более открытом и прозрачном направлении.
Новые меры CCIA установили новый ориентир для развития индустрии искусственного интеллекта. Балансируя прозрачность и безопасность данных, они способствуют ответственным инновациям в области технологий искусственного интеллекта. Я верю, что они заслуживают внимания и изучения. более подобные меры для содействия здоровому развитию индустрии искусственного интеллекта в будущем.