Обеспечение безопасности, надежности и управляемости искусственного интеллекта способствует прогрессу человеческой цивилизации и является важным вопросом, который необходимо решить для развития искусственного интеллекта. В «Решении» третьего пленума ЦК 20-го созыва были приняты важные меры, такие как «создание системы надзора за безопасностью искусственного интеллекта» и «совершенствование механизма разработки и управления генеративным искусственным интеллектом». Как усилить управление искусственным интеллектом, эффективно предотвращать и устранять различные риски безопасности, вызванные развитием искусственного интеллекта, а также постоянно улучшать институционализацию и легализацию надзора за безопасностью искусственного интеллекта? Данное научное издание посвящено этим вопросам.
Генеральный секретарь Си Цзиньпин отметил: «Искусственный интеллект является важной движущей силой нового витка научно-технической революции и промышленной трансформации и окажет глубокое влияние на глобальное экономическое и социальное развитие и прогресс человеческой цивилизации». под интеллектом понимается создание искусственного интеллекта на основе алгоритмов, моделей и правил. Технология для текста, изображений, звуков, видео, кодов и другого контента. Опираясь на огромные объемы данных и мощные вычислительные мощности, генеративный искусственный интеллект, способный понимать, говорить и взаимодействовать, быстро итеративно совершенствуется, демонстрируя такие характеристики, как хорошая интерактивность, высокая универсальность и интеллектуальная генеративность, и работает со всеми слоями общества. сформировались более жесткие, высокочастотные, повсеместные и глубокие связи, что также приводит ко все более реальным потенциальным рискам. В «Решении» третьего Пленума ЦК 20-го созыва ЦК Коммунистической партии Китая научно сформулированы закономерности и особенности развития искусственного интеллекта, предложено «создать систему надзора за безопасностью искусственного интеллекта» и «усовершенствовать развитие и Механизм управления генеративным искусственным интеллектом», что отражает необходимость более скоординированного развития и безопасности. Это объективная необходимость указать путь вперед для содействия технологическому прогрессу, промышленному развитию и безопасности в области искусственного интеллекта.
Техническую работу генеративного искусственного интеллекта можно разделить на три этапа: подготовительный этап предварительного обучения и ручной аннотационной модернизации алгоритма, расчетный этап ввода данных для обработки алгоритма для получения сгенерированных продуктов и сгенерированный продукты, поступающие в общество для использования. Мы должны глубоко проанализировать механизм действия генеративного искусственного интеллекта, понять особенности формирования и развития рисков безопасности на каждом этапе, использовать правовые средства для укрепления системного управления и обеспечить, чтобы огромная сила, заключенная в генеративном искусственном интеллекте, всегда играла свою роль. на пути к верховенству закона.
На этапе подготовки к созданию генеративного искусственного интеллекта риски безопасности данных могут возникать часто и быть более заметными. Генеративный искусственный интеллект уточняет информацию и прогнозирует тенденции посредством обучения, обработки и анализа данных. Это требует соответствующей классификации данных и установления моделей использования и методов защиты для различных типов данных, чтобы правильно реагировать на соответствующие риски безопасности данных и избегать незаконного использования или неправильного раскрытия данных, что приводит к спорам о нарушении прав. Например, правительственные данные, формируемые в процессе правительственной обработки, являются ключевым элементом цифрового правительства. Чтобы сделать относительно точные выводы, генеративный искусственный интеллект неизбежно собирает и анализирует правительственные данные. Необходимо уточнить правовые правила сбора и использования правительственных данных с помощью генеративного искусственного интеллекта, что не только отвечает потребностям использования правительственных данных на службе общества, но и решительно поддерживает разработку, обучение и применение крупных моделей управления искусственным интеллектом. услуг и повышает интеллектуальный уровень государственных услуг и социального управления, а также стандартизировать методы обработки, чтобы результаты, полученные от использования государственных данных, не нарушали права личности и не нарушали социальный и общественный порядок; Что касается персональных данных, генеративный искусственный интеллект исследует их потенциальную ценность посредством комбинированного анализа, а сбор и использование персональных данных и его результатов могут нарушать гражданские права. На практике генеративный искусственный интеллект имеет тенденцию собирать слишком много личных данных для повышения точности выводов, например, путем анализа медицинских данных и данных о здоровье для определения личного местонахождения и прогнозирования траекторий личной жизни. С этой целью мы должны настаивать на сборе в соответствии с законом, собирать персональные данные в минимальном объеме, требуемом технологией, устанавливать разумную глубину обработки данных и избегать чрезмерного использования потенциальной информации. Таким образом, классифицированные и иерархические требования по надзору за безопасностью данных должны быть встроены в стадию подготовки генеративного искусственного интеллекта, чтобы предотвратить перерастание рисков безопасности данных в конкретные юридические последствия.
На этапе вычислений генеративного искусственного интеллекта риск алгоритмической предвзятости, присущий крупным моделям искусственного интеллекта, заслуживает бдительности. Генеративный искусственный интеллект в основном анализирует и обрабатывает данные с помощью алгоритмических моделей. В отличие от традиционных моделей алгоритмов, генеративный искусственный интеллект не только выполняет машинное обучение, но также использует большое количество ручных аннотаций для исправления выводов машинного обучения и содействия развитию искусственного интеллекта. Однако «машинное обучение + ручное аннотирование» как основа технологии алгоритмов также приведет к тому, что воля и предпочтения человека будут иметь большее влияние, чем чистое машинное обучение. Влияние личных предпочтений накладывается на предвзятость самой модели алгоритма, что удваивает негативные последствия алгоритмической предвзятости, затрудняя отслеживание и предотвращение возникновения алгоритмической предвзятости. Чтобы предотвратить и устранить риск алгоритмической предвзятости, необходимо осуществлять целевое управление на основе принципов и мест, где возникает алгоритмическая предвзятость. Необходимо глубоко внедрить требования правовых норм в алгоритмическую модель генеративного искусственного интеллекта, продвигать технологии во благо, устранять предвзятость алгоритмов, обеспечивать рациональное использование алгоритмов генеративного искусственного интеллекта и распределять вычислительные ресурсы. Основываясь на концепции объединения технологий и управления, мы усилим полный цикл надзора за безопасностью алгоритмов и внедрим требования правовых норм во весь процесс работы генеративного искусственного интеллекта. В начале настройки алгоритма необходимо соблюдать соответствующие правовые правила и технические стандарты, реализовать нормативные требования «машинное обучение + ручное аннотирование», просмотреть рискованные модули алгоритма и лучше выявить технические риски в алгоритме генеративного искусственного интеллекта. модель; при обнаружении. Когда возникает врожденная алгоритмическая предвзятость, по закону требуется удалить врожденную алгоритмическую предвзятость из алгоритма генеративного искусственного интеллекта. Внесите исправления, чтобы гарантировать, что модифицированный алгоритм может работать нормально; если впоследствии возникнут проблемы, отследите источник алгоритма искусственного интеллекта для достижения точной атрибуции и исправления, содействуйте совершенствованию стандартов контроля алгоритмов для генеративного искусственного интеллекта и восполните пробелы в предыдущих решениях. превентивный обзор Недостаточно технических и правовых средств, которые должны использоваться параллельно, чтобы добиться равного внимания к развитию и управлению.
На этапе создания генеративного искусственного интеллекта существуют различные риски, такие как риски интеллектуальной собственности, связанные с созданными продуктами, и риски неправильного использования созданных продуктов. Поскольку генеративный искусственный интеллект обладает высоким интеллектом, он может осуществлять автоматическую компиляцию контента, интеллектуальную полировку, мультимодальное преобразование и творческую генерацию, напрямую изменяя метод производства и модель подачи контента. По сравнению с предыдущими системами искусственного интеллекта произошли революционные изменения, которые привели к революционным изменениям. привело к таким проблемам, как владение правами интеллектуальной собственности и защита интеллектуальной собственности на продукты, созданные с помощью генеративного искусственного интеллекта. Некоторые полагают, что продукты генеративного искусственного интеллекта являются выводами алгоритмов обработки данных, которые по сути являются расчетами и имитациями, а не интеллектуальным трудом, и не могут стать объектом прав интеллектуальной собственности. Оппоненты считают, что генеративный искусственный интеллект моделирует структуру нейронных сетей человеческого мозга для получения и вывода данных, а также контролирует собственную разработку и производство с помощью сверточных нейронных сетей. Его оригинальные и инновационные продукты должны быть защищены законами об интеллектуальной собственности. В то же время генеративный искусственный интеллект также увеличивает риск споров об интеллектуальной собственности и сложность защиты. Некоторые созданные продукты могут содержать контент, нарушающий права интеллектуальной собственности других лиц, или могут быть упакованы в оригинальные произведения с полными правами интеллектуальной собственности. путем обработки и другими способами, вызывая связанные с этим споры о правах интеллектуальной собственности. Для своевременного решения связанных вопросов технические модели и технические принципы генеративного искусственного интеллекта должны быть предметно проанализированы в соответствии со стандартами законодательства об интеллектуальной собственности. Если технология требует вмешательства человеческой воли, чтобы позволить созданным продуктам создаваться. производить оригинальность и инновации, должны быть предоставлены права интеллектуальной собственности. И уточнить право собственности и усилить систематическую защиту прав интеллектуальной собственности в области генеративного искусственного интеллекта. В то же время необходимо разумно определить объем защиты созданного интеллектуальной собственности; права собственности, чтобы избежать неограниченного расширения объема защиты и препятствовать продвижению, применению и технологическому развитию генеративного искусственного интеллекта. Также необходимо усилить управление рисками неправильного использования продукции. Например, работы должны четко определять роль генеративного искусственного интеллекта в творчестве автора, а также будет усилен точный и нормированный надзор за глубокой подделкой, изменением лица с помощью ИИ и другими созданными продуктами, которые могут быть связаны с незаконными преступлениями, и т. д.
Генерирующий искусственный интеллект оказывает множество размытых последствий в социальных приложениях. Помимо вышеупомянутых рисков, существует множество других типов рисков, таких как усиление информационной асимметрии, расширение цифрового разрыва и нанесение ущерба интересам групп, находящихся в неблагоприятном положении с цифровыми технологиями. Ответные меры должны приниматься с учетом реальных условий, чтобы свести к минимуму негативное воздействие новых технологий на социальное развитие.
Генеральный секретарь Си Цзиньпин подчеркнул: «Придерживаться гуманности и мудрости во благо». В настоящее время технологии искусственного интеллекта меняются с каждым днем, что не только коренным образом меняет производство и образ жизни людей, ускоряет процесс экономического и социального развития, но и оказывает влияние на правовые нормы, моральную этику, государственное управление и т. д. Среди них угрозы конфиденциальности и безопасности личной информации являются важными вопросами, заслуживающими внимания. В «Решении» третьего пленума Центрального комитета Коммунистической партии Китая 20-го созыва были приняты важные меры по «созданию системы надзора за безопасностью искусственного интеллекта». Защита прав на неприкосновенность частной жизни и безопасность личной информации является неотъемлемой частью надзора за безопасностью искусственного интеллекта. . Защита конфиденциальности в эпоху искусственного интеллекта должна быть усилена, чтобы обеспечить безопасность личной информации.
В эпоху искусственного интеллекта права на неприкосновенность частной жизни сталкиваются с серьезными проблемами. Конфиденциальность относится к миру и личному пространству частной жизни физического лица, частной деятельности и частной информации, которую он не хочет, чтобы другие знали. Гражданский кодекс гласит: «Физические лица имеют право на неприкосновенность частной жизни. Ни одна организация или частное лицо не может нарушать права на неприкосновенность частной жизни других посредством шпионажа, вторжения, утечки информации, раскрытия информации и т. д. Право на неприкосновенность частной жизни является основным элементом права на неприкосновенность частной жизни». права личности, является важной основой для построения личного достоинства. Неразглашение и неизвестность являются основными требованиями прав на неприкосновенность частной жизни. В настоящее время искусственный интеллект незаметно участвует во всех аспектах производства и жизни людей, что приводит к появлению множества сценариев применения, таких как интеллектуальная медицинская помощь, умный транспорт и умные рекомендации. Нельзя игнорировать определенные недостатки в самой технологии и несовершенные правила. Избегайте проблем, связанных с нарушением конфиденциальности. Например, незаконно собирать и использовать личную информацию, использовать и анализировать эту личную информацию для частого продвижения так называемой «персонализированной» «точной рекламы», передавать личную информацию третьим лицам, что приводит к частому вторжению в личную жизнь спама с использованием личной информации; информация для проведения «больших данных» «убивает знакомство» для достижения точной ценовой дискриминации «один клиент, одна цена», Граждане несут имущественный ущерб; десенсибилизированная личная информация переидентифицируется, данные утекают из-за ненадлежащих мер защиты, распространена незаконная покупка и продажа личной информации, а безопасность личной информации используется для глубокой подделки, имитации голоса, Изменение лица ИИ и т. д. означает совершение незаконных и преступных действий, таких как мошенничество и т. д.; Это показывает, что нарушение прав на неприкосновенность частной жизни не только ущемляет личное достоинство граждан, но и вызывает другие серьезные социальные последствия.
Технические особенности деприватизации усугубляют риски безопасности личной информации. В начале применения искусственного интеллекта, основанного на больших данных, многие люди смотрели на эту новую технологию с выжидательной позицией и скептицизмом. Поскольку искусственный интеллект продолжает улучшать впечатления пользователей от продукта и психологические ощущения посредством антропоморфных внешних форм, персонализированного предоставления услуг и захватывающих интерактивных процессов, все больше и больше людей постепенно становятся лояльными пользователями искусственного интеллекта и наслаждаются всеми видами удобств, которые искусственный интеллект приносит. ты. С популяризацией технологий Интернета вещей для взаимодействия человека и компьютера и взаимосвязи всех вещей сценарии применения искусственного интеллекта, такие как «умные дома», «умные офисы», «умные заводы» и «умное вождение», также постоянно расширяются. цифровое пространство в виде цифровых людей, а также бессознательно передавать личную информацию искусственному интеллекту. Любые следы, оставленные людьми в цифровом пространстве, оцифровываются для формирования личной информации и играют важную функцию «средства связи с миром» для людей. В то же время искусственный интеллект также имеет тенденцию чрезмерно собирать и использовать личную информацию для улучшения качества обслуживания. Все это придает искусственному интеллекту отличительные деприватизационные технические характеристики. Кроме того, именно в потоке личной информации, к которому привыкли пользователи искусственного интеллекта, большие данные, смешанные с общедоступными и частными данными, добываются, интегрируются, анализируются и используются. Людям трудно обнаружить своими собственными органами чувств конфиденциальность. права были нарушены, а личная информация была нарушена. Безопасность подвергается более высокому риску.
Уважайте индивидуальный выбор и настаивайте на информированном согласии. Разные люди имеют разные уровни признания и использования личной информации. Следует уважать индивидуальные пожелания, а принцип «информированного согласия» следует реализовывать научно и рационально. Принцип информированного согласия включает в себя два аспекта: информированное согласие и согласие должно быть информированным. Без полного знания и понимания не может быть истинного согласия. Информация, понимание и добровольность — три элемента принципа информированного согласия. Будучи полностью «информированным», люди могут самостоятельно выразить свое «согласие». Для этого необходимо предоставить понятные и четкие инструкции при использовании пользователями искусственного интеллекта, а также получить согласие пользователей на сбор и использование личной информации. Если личная информация будет передаваться между разными платформами, пользователи должны быть проинформированы о масштабах, целях и границах использования этого потока. Для удобства и удобства работы пользователям также может быть предоставлена возможность авторизации за один раз или поэтапно. Пользователи должны быть проинформированы об объеме, методе и цели сбора личной информации и о том, кому передается личная информация, а также пользователи должны иметь возможность отказаться от сбора личной информации в любое время. При анализе личной информации пользователям следует предлагать обратить внимание и авторизоваться в режиме реального времени через всплывающие окна или другие формы. Настройка жизненного цикла данных и своевременное удаление личной информации также являются эффективными способами защиты безопасности личной информации.
Совершенствуйте технические средства, чтобы обеспечить разведку навсегда. Для проблем, вызванных технологиями, мы должны хорошо находить идеи для решения проблем с технической точки зрения. В эпоху искусственного интеллекта права на неприкосновенность частной жизни сталкиваются с проблемами, и прямой причиной этого является развитие технологий. От аналитического искусственного интеллекта до генеративного искусственного интеллекта — каждое итеративное обновление технологии искусственного интеллекта может оказать новое влияние на права на неприкосновенность частной жизни. Поэтому технические решения должны занимать ключевое место, а межсетевые экраны, защищающие права на конфиденциальность и безопасность личной информации, должны быть установлены путем улучшения безопасности баз данных, шифрования основных данных, снижения чувствительности персональных данных и других технологий. Персональная информация обычно проходит три этапа сбора, хранения и использования, и эти три этапа могут включать в себя риски нарушения прав на неприкосновенность частной жизни и безопасности личной информации. Эффективная техническая защита должна осуществляться в зависимости от различных ситуаций личной информации на разных этапах. На этапе сбора личной информации усилить продвижение и применение технологии анонимизации. Хотя сбор личной информации неизбежен, пока она анонимна и не соответствует личной информации личности, право на неприкосновенность частной жизни не будет нарушено. На этапе хранения личной информации необходимо усовершенствовать технологию шифрования. В настоящее время существует два основных способа хранения данных: хранилище базы данных и облачное хранилище. Внешнее вторжение и кража, а также несанкционированный просмотр, использование и утечка инсайдерами являются основными угрозами безопасности личной информации на этапе хранения. Необходимо усилить шифрование данных и строго контролировать права доступа к данным. На этапе использования личной информации необходимо технически усилить вмешательство, вмешательство и блокирование незаконного использования личной информации в режиме реального времени, чтобы добавить дополнительный уровень защиты прав на неприкосновенность частной жизни и безопасности личной информации.
Поскольку правовые нормы моей страны все более совершенствуются, а защита продолжает усиливаться, особенно Гражданский кодекс и Закон о защите личной информации, которые содержат подробные положения о правах на неприкосновенность частной жизни и защите личной информации, разъясняя границы прав и обязанностей при обработке личной информации. , моя страна в эпоху искусственного интеллекта. Правовая защита прав на неприкосновенность частной жизни и безопасность личной информации, несомненно, выйдет на более высокий уровень, обеспечивая надежную правовую защиту для здорового развития искусственного интеллекта и большей пользы людям.
Процветание науки и техники обеспечит процветание нации, а сильная наука и техника сделают страну сильной. Со времени 18-го Национального конгресса Коммунистической партии Китая моя страна придает большое значение развитию искусственного интеллекта, активно способствует глубокой интеграции Интернета, больших данных, искусственного интеллекта и реальной экономики, культивирует и расширяет интеллектуальные отрасли. ускорило развитие новых производительных сил, придало новый импульс качественному развитию. Генеральный секретарь Си Цзиньпин отметил: «Мы должны придерживаться единства содействия развитию и управлению в соответствии с законом, не только энергично развивать новые технологии и новые приложения, такие как искусственный интеллект, Интернет вещей и сети связи нового поколения, но также активно использовать законы, постановления и стандарты для руководства применением новых технологий». Си Цзиньпин Важная экспозиция Генерального секретаря содержит фундаментальные рекомендации по соблюдению требований и действиям по развитию искусственного интеллекта в нашей стране. Для энергичного развития искусственного интеллекта и повышения уровня управления безопасностью искусственного интеллекта мы должны полностью реализовать важное развертывание «создания системы надзора за безопасностью искусственного интеллекта», предложенное «Решением» третьего пленума ЦК 20-го созыва. Коммунистическая партия Китая и точно поймут тенденции развития искусственного интеллекта, сосредоточив внимание на передовых технологиях искусственного интеллекта, а также на рисках и проблемах, которые они приносят, укрепляя дальновидное мышление и постоянно изучая инновационные решения для управления искусственным интеллектом.
В настоящее время генеративный искусственный интеллект создал новую парадигму взаимодействия человека и компьютера. Благодаря своим мощным возможностям взаимодействия, понимания и генерации он разработал крупномасштабную модель естественного языка в качестве основного компонента, объединяющую память, планирование и использование инструментов. способность воспринимать и действовать. Возможности искусственных агентов открывают огромные перспективы. Искусственный интеллект стал важнейшим передовым направлением исследований общего искусственного интеллекта и новым направлением, за которое конкурируют технологические компании. Он использует большую модель естественного языка в качестве «умного двигателя» и обладает характеристиками автономности, адаптируемости и интерактивности. Он может значительно повысить эффективность производства, улучшить взаимодействие с пользователем, обеспечить поддержку принятия решений, выходящую за рамки человеческих возможностей, и может применяться для разработки программного обеспечения. научные исследования и другие сценарии из реальной жизни. Хотя крупномасштабная коммерциализация все еще находится на стадии предварительного исследования и инкубации, такие тенденции, как виртуальная и реальная интеграция и углубленное взаимодействие человека и компьютера, представленное искусственным интеллектом, имеют важное направляющее значение для экономического и социального развития. Однако из-за технических ограничений искусственные агенты также могут вызывать сложные, динамичные и непредвиденные риски и опасения.
С точки зрения логики проектирования, искусственный интеллект должен получить когнитивные способности через контрольную часть, получать и использовать информацию из окружающей среды через сенсорную часть и, наконец, стать интеллектуальной системой, которая воспринимает и действует на основе физических объектов при действии. конец.
Что касается управления, то крупномасштабная модель естественного языка служит «мозгом» искусственного тела. Она формирует знания путем изучения больших объемов данных и представляет собой модуль памяти в системе управления искусственным телом. Однако существуют риски, связанные с надежностью. и точность создаваемого контента. Например, контент, генерируемый моделью, может не соответствовать источнику информации или не соответствовать реальной ситуации в реальном мире, что приводит к так называемым «машинным галлюцинациям» из-за человеческой предвзятости в обучающих данных; это может повлиять на тренировочные данные; справедливое принятие решений искусственным интеллектом и т. д.
С точки зрения восприятия, чтобы полностью понять явную и неявную информацию в конкретных ситуациях и точно воспринять намерения человека, агенты искусственного интеллекта расширяют сферу восприятия от чистого текста до мультимодальных полей, включая текст, визуальный и слуховой режимы. Хотя это улучшает возможности принятия решений, это может привести к ряду утечек конфиденциальности и рискам безопасности данных при интеграции и анализе данных из нескольких источников из разных каналов и типов. Например, ненадлежащее использование и обмен высокоперсонализированными и постоянными биометрическими данными, такими как информация о лице, отпечатки пальцев и голосовые отпечатки, может привести к долгосрочным или даже постоянным рискам для конфиденциальности. Чтобы лучше справляться со сложными задачами, мультиагентные системы, в которых используются несколько искусственных агентов для планирования, сотрудничества и даже конкуренции за выполнение и повышение производительности задач, станут обычным явлением. Системное взаимодействие нескольких искусственных агентов может вызвать непредвиденные системные риски безопасности. Даже если каждый алгоритм кажется безопасным и разумным при работе по отдельности, комбинация и взаимодействие все равно могут создавать совершенно разные и непредсказуемые риски, которые могут быстро развиваться и возрастать. Например, если на фондовом рынке широко используется искусственный интеллект и несколько алгоритмов автоматически определяют небольшие изменения цен на акции и одновременно выполняют большое количество высокочастотных транзакций для арбитража, это может спровоцировать системный инцидент безопасности, такой как внезапное сбой. на фондовом рынке.
Что касается мобильных устройств, искусственные агенты, развернутые в реальной физической среде, скорее всего, будут представлены в более трехмерном и антропоморфном изображении. В отличие от виртуального пространства, реальное пространство основано на интерактивных методах обучения. Агентам искусственного интеллекта необходимо богатое и всестороннее восприятие информации, чтобы наблюдать, учиться и действовать. Благодаря возможностям оптимизации обучения на основе обратной связи это может представлять собой комплексный и интрузивный подход к личной жизни. . Риски секса и невидимости. Например, интерпретация языка тела пользователей и распознавание более сложных действий пользователя, а также продолжение тайного сбора данных без разрешения пользователя могут привести к огромным рискам безопасности данных, если в системе существует уязвимость безопасности. Кроме того, поскольку автономия искусственного интеллекта продолжает расти, он может не только вмешиваться и влиять на человеческое познание и эмоции, но также бросать вызов способностям и статусу людей как независимых лиц, принимающих решения, и независимых субъектов. Например, некоторые чат-боты производят выходные данные, которые влияют на эмоции пользователей во время взаимодействия с ними, иногда негативным и манипулятивным образом.
Перед лицом рисков и проблем, создаваемых агентами искусственного интеллекта, чтобы поведение искусственных агентов соответствовало человеческим намерениям и ценностям, необходимо изучить инновационные решения управления, чтобы обеспечить эффективность системы надзора за безопасностью искусственного интеллекта. Развитие искусственного интеллекта находится в переломном периоде «от нуля до единицы». План управления должен иметь возможность оставаться неизменным в ответ на постоянно меняющиеся изменения, гарантируя, что развитие и применение технологии всегда находятся на контролируемом пути. Разработка, обучение, внедрение, эксплуатация и обслуживание агентов искусственного интеллекта подверглись узкоспециализированному разделению труда, образующему сложную иерархическую структуру. На каждом уровне есть разные участники, заинтересованные стороны и потенциальные факторы риска, что придает объектам искусственного интеллекта характеристики «модульной» производственной цепочки. Таким образом, можно построить модульную структуру управления, охватывающую всю отраслевую цепочку и каждый конечный уровень, а соответствующие модули управления разрабатываются, начиная с ключевых узлов, таких как модули данных, модули алгоритмов и архитектуры моделей. Например, в процессе развертывания различные модули управления можно гибко выбирать и совместно комбинировать в соответствии с характеристиками сценария приложения и режима развертывания для создания соответствующего решения управления. Модульная структура управления обеспечивает работоспособный метод декомпозиции. Разлагая цели управления на относительно независимые, но связанные модули управления, она постепенно способствует формированию системы управления, которая не только повышает гибкость и актуальность управления, но также повышает гибкость и актуальность. управления. Он также может адаптироваться к быстрому обновлению технологий. При построении модулей управления на основе таких измерений, как данные, алгоритмы, модели и сценарии, следует использовать технологии для расширения возможностей надзора и создания интеллектуальных инструментов управления, совместимых с модульной структурой управления объектов искусственного интеллекта, тем самым устраняя динамику рисков и напряженность. Статика регулирования позволяет точно управлять конкретными сценариями высокого риска.
Необходимо построить интерактивную экосистему управления для объектов искусственного интеллекта. Агенты искусственного интеллекта глубоко интерактивны, тесно взаимосвязаны и динамически адаптируются. Соответственно, методы управления должны выходить за рамки традиционного управления, ориентированного на человека, и способствовать формированию экосистемы управления с широкими взаимосвязями, многосторонним участием и многоуровневым сотрудничеством. Среди них технические сообщества, такие как технические разработчики, а также персонал по эксплуатации и техническому обслуживанию, будут играть жизненно важную роль «информаторов» в управлении организациями искусственного интеллекта. Надзорные преимущества технического сообщества следует лучше использовать для создания эффективного механизма сдерживания внутри компаний, занимающихся искусственным интеллектом. Мы также должны активно повышать цифровую грамотность большинства пользователей, повышать их осведомленность об использовании искусственного интеллекта законным, безопасным и ответственным образом, добиваться позитивного взаимодействия с искусственным интеллектом и способствовать формированию положительного и хорошего рабочего состояния.