Постройте будущее искусственного интеллекта с помощью системы управления безопасностью
Автор:Eve Cole
Время обновления:2024-11-22 11:00:02
В условиях быстрого развития науки и технологий искусственный интеллект стал одной из ключевых сил, способствующих социальному прогрессу. Однако по мере того, как сценарии применения искусственного интеллекта продолжают расширяться, проблемы безопасности и риски, с которыми он сталкивается, становятся все более сложными. 9 сентября на главном форуме Национальной недели рекламы кибербезопасности 2024 года Национальный технический комитет по стандартизации кибербезопасности опубликовал версию 1.0 «Системы управления безопасностью искусственного интеллекта» (далее «Система»). , который, несомненно, дает решения проблем этой эпохи. Важные идеи решения проблем.![](https://images.downcodes.com/uploads/20241122/img_673ff3b216fe530.png)
Безопасность – необходимое условие развития. Эндогенные риски, такие как безопасность алгоритмов модели, безопасность данных и безопасность системы, а также риски безопасности приложений в сетевом домене, реальном домене, когнитивной области и этической области, могут показаться незначительными проблемами, но они могут вызвать цепную реакцию и вызвать серьезные воздействия. Например, в Южной Корее недавно технология дипфейков была использована для создания ложной информации, что представляет угрозу общественному порядку и частной жизни. Очевидно, что перед лицом быстро меняющихся технологий искусственного интеллекта нам необходимо не только уделять внимание развитию самой технологии, но также принимать во внимание социальные, этические, правовые и другие факторы, а также использовать комплексную структуру для управления искусственным интеллектом. управление разведывательной безопасностью. Присмотритесь к этой «Рамочной системе», которая разделена на четыре основных раздела: риски безопасности, технические контрмеры, комплексные меры управления и рекомендации по безопасной разработке и применению. Она не только разъясняет основные принципы управления безопасностью искусственного интеллекта, но и. уточняет требования к разработчикам алгоритмов моделей искусственного интеллекта. Правила безопасности для различных организаций, таких как поставщики услуг, пользователи в ключевых областях и общественность, содержат базовые и рамочные технические рекомендации для содействия здоровому развитию и стандартизированному применению искусственного интеллекта. Особо стоит отметить, что эта «Рамочная основа» выдвигает принцип управления «инклюзивность, осмотрительность и обеспечение безопасности». В нем четко указано, что развитие и инновации поощряются, а также принимается инклюзивное отношение к исследованиям, разработкам и применению искусственного интеллекта. В то же время строго соблюдаются основные принципы безопасности и своевременно принимаются меры против рисков, которые могут возникнуть. ставят под угрозу национальную безопасность, социальные общественные интересы, а также законные права и интересы общественности. Следует сказать, что это не только оставляет достаточно места для свободного изучения технологий искусственного интеллекта, но и создает прочную защиту от возможных рисков. Как говорили древние: «Мудрые меняются в зависимости от времени, а мудрые меняются в зависимости от обстоятельств». Управление искусственным интеллектом также должно быть тщательным и расслабленным. Разъясняя правила безопасности и технические стандарты, руководство здоровым развитием индустрии искусственного интеллекта не только поможет повысить общую конкурентоспособность индустрии искусственного интеллекта моей страны, но также внесет китайскую мудрость и китайские решения в развитие глобального искусственного интеллекта. Конечно, выпуск Framework — это только первый шаг. Управление безопасностью с помощью искусственного интеллекта требует совместного участия правительств, предприятий, научно-исследовательских учреждений и общественности. Например, правительственные ведомства должны усилить надзор за безопасным развитием искусственного интеллекта; компании должны увеличить инвестиции в технологические исследования и разработки для повышения безопасности и надежности искусственного интеллекта; научно-исследовательские учреждения должны проводить углубленные исследования по вопросам безопасности искусственного интеллекта; предоставлять решения практических проблем, общественность должна также повышать осведомленность о безопасности, правильно использовать продукты искусственного интеллекта и совместно создавать безопасную, надежную, справедливую и прозрачную среду разработки искусственного интеллекта. Технология ориентирована на людей. На волне искусственного интеллекта мы должны иметь смелость оседлать волну и мудрость, чтобы подготовиться к дождливым дням. Теперь, создав надежную систему управления безопасностью, мы, очевидно, более уверены в том, что сможем справиться с проблемами, вызванными искусственным интеллектом, и совместно двигаться к более безопасному и устойчивому будущему искусственного интеллекта.