Garantizar que la inteligencia artificial sea segura, confiable y controlable favorece el progreso de la civilización humana y es una cuestión importante que debe resolverse para el desarrollo de la inteligencia artificial. La "Decisión" de la Tercera Sesión Plenaria del XX Comité Central del Partido Comunista de China tomó medidas importantes como "establecer un sistema de supervisión de la seguridad de la inteligencia artificial" y "mejorar el mecanismo de desarrollo y gestión de la inteligencia artificial generativa". ¿Cómo fortalecer la gobernanza de la inteligencia artificial, prevenir y resolver eficazmente diversos riesgos de seguridad provocados por el desarrollo de la inteligencia artificial y mejorar continuamente la institucionalización y legalización de la supervisión de la seguridad de la inteligencia artificial? Esta edición académica se centra en estos temas.
El secretario general Xi Jinping señaló: "La inteligencia artificial es una fuerza impulsora importante para una nueva ronda de revolución científica y tecnológica y transformación industrial, y tendrá un profundo impacto en el desarrollo económico y social global y el progreso de la civilización artificial generativa". La inteligencia se refiere a la generación de inteligencia artificial basada en algoritmos, modelos y reglas. Tecnología para texto, imágenes, sonidos, videos, códigos y otros contenidos. Con el respaldo de datos masivos y una poderosa potencia informática, la inteligencia artificial generativa que puede comprender, hablar e interactuar se actualiza rápidamente de forma iterativa, mostrando características como buena interactividad, alta versatilidad y generatividad inteligente, y está funcionando con todos los ámbitos de la vida. ha formado conexiones más rígidas, de alta frecuencia, ubicuas y profundas, lo que también conduce a riesgos potenciales cada vez más reales. La "Decisión" de la Tercera Sesión Plenaria del XX Comité Central del Partido Comunista de China comprendió científicamente las leyes y características del desarrollo de la inteligencia artificial y propuso "establecer un sistema de supervisión de la seguridad de la inteligencia artificial" y "mejorar el desarrollo y "Mecanismo de gestión de la inteligencia artificial generativa", que refleja la necesidad de un desarrollo y una seguridad mejor coordinados. Se trata de una necesidad objetiva de señalar el camino a seguir para promover el progreso tecnológico, el desarrollo industrial y la seguridad en el ámbito de la inteligencia artificial.
La operación técnica de la inteligencia artificial generativa se puede dividir en tres etapas, a saber, la etapa preparatoria de capacitación previa al aprendizaje y actualización del algoritmo asistida por anotaciones manuales, la etapa de cálculo de entrada de datos para el procesamiento del algoritmo para obtener los productos generados, y la etapa de cálculo de entrada de datos para el procesamiento del algoritmo para obtener los productos generados. productos que ingresan a la sociedad para su uso. Debemos analizar en profundidad el mecanismo operativo de la inteligencia artificial generativa, comprender las características de la formación y el desarrollo de los riesgos de seguridad en cada etapa, utilizar medios legales para fortalecer la gobernanza sistémica y garantizar que el enorme poder contenido en la inteligencia artificial generativa siempre desempeñe un papel. en el camino del Estado de Derecho.
En la etapa de preparación de la inteligencia artificial generativa, los riesgos de seguridad de los datos tienden a ocurrir con frecuencia y son más prominentes. La inteligencia artificial generativa refina la información y predice tendencias mediante el entrenamiento, el procesamiento y el análisis de datos. Esto requiere una clasificación adecuada de los datos y el establecimiento de patrones de utilización y métodos de protección para diferentes tipos de datos para responder adecuadamente a los riesgos de seguridad de datos relevantes y evitar el uso ilegal o la divulgación inadecuada de datos, lo que resulta en disputas por infracción. Por ejemplo, los datos gubernamentales formados durante el proceso de procesamiento gubernamental son un elemento central del gobierno digital. Para sacar conclusiones relativamente precisas, la inteligencia artificial generativa inevitablemente recopila y analiza datos gubernamentales. Deben aclararse las reglas legales para la adquisición y utilización de datos gubernamentales mediante inteligencia artificial generativa, lo que no solo satisface las necesidades de utilizar datos gubernamentales para servir a la sociedad, sino que también apoya firmemente el desarrollo, la capacitación y la aplicación de grandes modelos de gobierno de inteligencia artificial. y mejora el nivel inteligente de los servicios públicos y la gobernanza social; y estandarizar sus métodos de procesamiento para evitar que los resultados obtenidos del uso de datos gubernamentales infrinjan los derechos personales y perturben el orden social y público. Para los datos personales, la inteligencia artificial generativa explora su valor potencial a través de análisis combinados, y su recopilación y utilización de datos personales y sus resultados pueden infringir los derechos civiles. En la práctica, la inteligencia artificial generativa tiende a recopilar en exceso datos personales para mejorar la precisión de las conclusiones, por ejemplo, analizando datos médicos y de salud para extraer el paradero personal y predecir trayectorias de vida personales. Para ello, debemos insistir en recopilar de acuerdo con la ley, recopilar datos personales de acuerdo con el alcance mínimo requerido por la tecnología, establecer una profundidad razonable de procesamiento de datos y evitar la sobreexplotación de información potencial. En resumen, los requisitos de supervisión de la seguridad de los datos clasificados y jerárquicos deben incorporarse en la etapa de preparación de la inteligencia artificial generativa para evitar que los riesgos de seguridad de los datos evolucionen hacia consecuencias de daños legales específicos.
En la etapa informática de la inteligencia artificial generativa, el riesgo de sesgo algorítmico inherente a los grandes modelos de inteligencia artificial merece vigilancia. La inteligencia artificial generativa analiza y procesa datos principalmente a través de modelos algorítmicos. A diferencia de los modelos de algoritmos tradicionales, la inteligencia artificial generativa no solo realiza el aprendizaje automático, sino que también utiliza una gran cantidad de anotaciones manuales para corregir las conclusiones del aprendizaje automático y promover la evolución de la inteligencia artificial. Sin embargo, el "aprendizaje automático + anotación manual" como núcleo de la tecnología de algoritmos también hará que la voluntad y las preferencias humanas tengan un mayor impacto que el aprendizaje automático puro. La influencia de las preferencias personales se superpone al sesgo del propio modelo de algoritmo, lo que duplicará los efectos negativos del sesgo algorítmico, lo que hará que la aparición de sesgo algorítmico sea más difícil de rastrear y prevenir. Para prevenir y resolver el riesgo de sesgo algorítmico, se debe llevar a cabo una gobernanza específica basada en los principios y sitios donde se produce el sesgo algorítmico. Es necesario integrar profundamente los requisitos de las regulaciones legales en el modelo algorítmico de inteligencia artificial generativa, promover la tecnología para siempre, eliminar el sesgo de los algoritmos, garantizar el uso racional de los algoritmos de inteligencia artificial generativa y asignar recursos informáticos. Basándonos en el concepto de combinar tecnología y gestión, fortaleceremos la supervisión de seguridad de ciclo completo de los algoritmos e implementaremos los requisitos de las regulaciones legales en todo el proceso de operación de la inteligencia artificial generativa. Al comienzo de la configuración del algoritmo, es necesario seguir las reglas legales y los estándares técnicos relevantes, implementar los requisitos normativos de "aprendizaje automático + anotación manual", revisar los módulos de algoritmos riesgosos y descubrir mejor los riesgos técnicos en el algoritmo de inteligencia artificial generativa. modelo cuando se descubre Cuando se produce un sesgo algorítmico innato, la ley exige eliminar el sesgo algorítmico innato del algoritmo de la inteligencia artificial generativa. Realizar correcciones para garantizar que el algoritmo modificado pueda ejecutarse normalmente cuando surjan problemas posteriores, rastrear la fuente del algoritmo de inteligencia artificial para lograr una atribución y corrección precisas, promover la mejora de los estándares de supervisión de algoritmos para la inteligencia artificial generativa y llenar el vacío anterior; revisión preventiva Insuficientes, se deben utilizar medios técnicos y legales en paralelo para lograr el mismo énfasis en el desarrollo y la gestión.
En la etapa de generación de inteligencia artificial generativa, existen varios riesgos, como riesgos de propiedad intelectual relacionados con los productos generados y riesgos de mal uso de los productos generados. Debido a que la inteligencia artificial generativa es altamente inteligente, puede realizar la compilación automática de contenido, el pulido inteligente, la conversión multimodal y la generación creativa, cambiando directamente el método de producción y el modelo de suministro de contenido. En comparación con los sistemas de inteligencia artificial anteriores, se han producido cambios subversivos, que ha dado lugar a cuestiones como la propiedad de los derechos de propiedad intelectual y la protección de la propiedad intelectual de los productos generados por la inteligencia artificial generativa. Algunas personas creen que los productos de la inteligencia artificial generativa son conclusiones de algoritmos de datos, que son esencialmente cálculos e imitaciones, más que trabajo intelectual, y no pueden convertirse en objeto de derechos de propiedad intelectual. Los opositores creen que la inteligencia artificial generativa simula la estructura de las redes neuronales del cerebro humano para obtener y generar datos, y controla su propio diseño y fabricación a través de redes neuronales convolucionales. Sus productos originales e innovadores deberían estar protegidos por leyes de propiedad intelectual. Al mismo tiempo, la inteligencia artificial generativa también aumenta el riesgo de disputas de propiedad intelectual y la dificultad de protección. Algunos productos generados pueden contener contenido que infringe los derechos de propiedad intelectual de otros, o pueden estar empaquetados en obras originales con derechos de propiedad intelectual completos. a través del procesamiento y otros medios, lo que genera disputas relacionadas con los derechos de propiedad intelectual. Para resolver los problemas relacionados de manera oportuna, los modelos técnicos y los principios técnicos de la inteligencia artificial generativa deben analizarse sustancialmente de acuerdo con los estándares de la ley de propiedad intelectual si la tecnología requiere la intervención de la voluntad humana para permitir que los productos generados. producir originalidad e innovación, se deben otorgar derechos de propiedad intelectual y aclarar su propiedad y fortalecer la protección sistemática de los derechos de propiedad intelectual en el campo de la inteligencia artificial generativa, al mismo tiempo, es necesario determinar razonablemente el alcance de la protección de los derechos de propiedad intelectual generados; derechos de propiedad para evitar la ampliación ilimitada del alcance de la protección y obstaculizar la promoción, aplicación y desarrollo tecnológico de la inteligencia artificial generativa. También es necesario fortalecer la gestión de los riesgos del mal uso de los productos. Por ejemplo, se requiere que los trabajos identifiquen claramente el papel de la inteligencia artificial generativa en la creación del autor, y se fortalecerá la supervisión precisa y normalizada de la falsificación profunda, el cambio de rostro de la IA y otros productos generados que pueden implicar delitos ilegales, etc.
La inteligencia artificial generativa tiene muchos impactos difusos en las aplicaciones sociales. Además de los riesgos antes mencionados, existen muchos otros tipos de riesgos, como exacerbar la asimetría de la información, ampliar la brecha digital y dañar los intereses de los grupos digitalmente desfavorecidos. Se deben dar respuestas basadas en las condiciones reales para minimizar el impacto negativo de las nuevas tecnologías en el desarrollo social.
El secretario general Xi Jinping enfatizó: "Adhiérase a la sabiduría orientada a las personas y para el bien". En la actualidad, la tecnología de inteligencia artificial está cambiando cada día, lo que no sólo cambia profundamente la producción y el estilo de vida de las personas, acelera el proceso de desarrollo económico y social, sino que también tiene un impacto en las normas legales, la ética moral, la gobernanza pública, etc. Entre ellos, las amenazas a la privacidad y la seguridad de la información personal son cuestiones importantes que merecen atención. La "Decisión" de la Tercera Sesión Plenaria del XX Comité Central del Partido Comunista de China tomó medidas importantes para "establecer un sistema de supervisión de la seguridad de la inteligencia artificial". La protección de los derechos de privacidad y la seguridad de la información personal es una parte integral de la supervisión de la seguridad de la inteligencia artificial. . Es necesario reforzar la protección de la privacidad en la era de la inteligencia artificial para garantizar la seguridad de la información personal.
En la era de la inteligencia artificial, los derechos de privacidad enfrentan graves desafíos. La privacidad se refiere a la vida privada de una persona física, la paz y el espacio privado, las actividades privadas y la información privada que no quiere que otros sepan. El Código Civil estipula: "Las personas físicas disfrutan del derecho a la privacidad. Ninguna organización o individuo puede infringir los derechos de privacidad de otros mediante espionaje, intrusión, filtración, divulgación, etc. El derecho a la privacidad, como elemento central del derecho a la privacidad". derechos de la personalidad, es una base importante para construir la dignidad personal. No ser divulgado y no ser conocido son las demandas centrales de los derechos de privacidad. En la actualidad, la inteligencia artificial está involucrada silenciosamente en todos los aspectos y aspectos de la producción y la vida de las personas, lo que da como resultado muchos escenarios de aplicación, como atención médica inteligente, transporte inteligente y recomendaciones inteligentes. No se pueden ignorar ciertas fallas en la tecnología en sí y reglas imperfectas. Evite problemas de infracción de privacidad. Por ejemplo, recopilar y utilizar ilegalmente información personal, utilizar y analizar esta información personal para publicar con frecuencia los llamados "anuncios de precisión" "personalizados", filtrar información personal a terceros, provocando que la vida privada se vea frecuentemente invadida por información de uso personal no deseada; información para realizar "big data" "matar la familiaridad" para lograr una discriminación de precios precisa de "un cliente, un precio", Los ciudadanos sufren pérdidas de propiedad; se vuelve a identificar información personal insensibilizada, se filtran datos debido a medidas de protección inadecuadas, la compra y venta ilegal de información personal es común y se viola la seguridad de la información personal para falsificación profunda, simulación de voz, El cambio de rostro con IA, etc. significa cometer actos ilegales y delictivos como fraude, etc. Esto muestra que la violación de los derechos de privacidad no sólo viola la dignidad personal de los ciudadanos, sino que también causa otras consecuencias sociales graves.
Las características técnicas de la desprivatización exacerban los riesgos de seguridad de la información personal. Al inicio de la aplicación de la inteligencia artificial basada en big data, mucha gente veía esta nueva tecnología con actitud expectante y escepticismo. A medida que la inteligencia artificial continúa mejorando la experiencia del producto y los sentimientos psicológicos de los usuarios a través de formas externas antropomórficas, prestación de servicios personalizados y procesos interactivos inmersivos, cada vez más personas se han convertido gradualmente en usuarios leales de la inteligencia artificial y disfrutan de todo tipo de comodidades que la inteligencia artificial brinda. tú. Con la popularización de la tecnología IoT para la interacción persona-computadora y la interconexión de todas las cosas, los escenarios de aplicación de inteligencia artificial, como hogares inteligentes, oficinas inteligentes, fábricas inteligentes y conducción inteligente, también se están expandiendo constantemente. espacio digital en forma de humanos digitales, y también, sin saberlo, transmitir información personal a la inteligencia artificial. Cualquier rastro que dejen los individuos en el espacio digital se digitaliza para formar información personal y desempeña una función importante como "medio para conectarse con el mundo" para las personas. Al mismo tiempo, la inteligencia artificial también tiende a recopilar y utilizar excesivamente información personal para mejorar la calidad del servicio. Todo ello hace que la inteligencia artificial tenga características técnicas distintivas de desprivatización. También es en el flujo de información personal al que están acostumbrados los usuarios de inteligencia artificial, donde se extraen, integran, analizan y utilizan big data mezclados con datos públicos y privados. Es difícil para las personas detectar con sus propios sentidos esa privacidad. Se han violado derechos y se ha violado información personal. La seguridad corre mayor riesgo.
Respete las elecciones individuales e insista en el consentimiento informado. Diferentes personas tienen diferentes niveles de aceptación del conocimiento y uso de la información personal. Se deben respetar los deseos individuales y el principio de "consentimiento informado" debe implementarse de manera científica y racional. El principio del consentimiento informado incluye dos aspectos: el consentimiento informado y el consentimiento debe ser informado. Sin pleno conocimiento y comprensión no puede haber verdadero consentimiento. Información, comprensión y voluntariedad son los tres elementos del principio del consentimiento informado. Una vez que estén plenamente "informados", los individuos pueden expresar su "consentimiento" de forma independiente. Esto requiere proporcionar instrucciones claras y fáciles de entender cuando los usuarios utilizan inteligencia artificial y obtener el consentimiento de los usuarios para la recopilación y el uso de información personal. Si la información personal fluirá entre diferentes plataformas, los usuarios deben estar informados del alcance, el objetivo y los límites de uso del flujo. Para una experiencia de usuario buena y fluida, a los usuarios también se les puede dar la opción de autorización de una sola vez o por etapas. Se debe informar a los usuarios sobre el alcance, el método y el propósito de recopilar información personal y con quién se comparte la información personal, y los usuarios también deben poder optar por no participar en cualquier momento. Al analizar información personal, se debe solicitar a los usuarios que presten atención y autoricen en tiempo real a través de ventanas emergentes u otras formas. Establecer el ciclo de vida de los datos y eliminar la información personal a tiempo también son formas efectivas de proteger la seguridad de la información personal.
Mejorar los medios técnicos para garantizar la inteligencia para siempre. Para los problemas causados por la tecnología, debemos ser buenos estableciendo ideas para resolver problemas desde una perspectiva técnica. En la era de la inteligencia artificial, los derechos de privacidad enfrentan desafíos y el desencadenante directo es la evolución de la tecnología. Desde la inteligencia artificial analítica hasta la inteligencia artificial generativa, cada actualización iterativa de la tecnología de inteligencia artificial puede traer nuevos impactos a los derechos de privacidad. Por lo tanto, las soluciones técnicas deben ocupar un lugar clave y se deben establecer cortafuegos que protejan los derechos de privacidad y la seguridad de la información personal mejorando la seguridad de las bases de datos, el cifrado de datos centrales, la desensibilización de los datos personales y otras tecnologías. La información personal generalmente pasa por tres etapas de recopilación, almacenamiento y uso, y estas tres etapas pueden implicar riesgos de infracción de los derechos de privacidad y seguridad de la información personal. Se debe llevar a cabo una protección técnica eficaz según las diferentes situaciones de la información personal en las diferentes etapas. En la etapa de recolección de información personal, fortalecer la promoción y aplicación de tecnología de anonimización. Aunque la recopilación de información personal es inevitable, siempre que sea anónima y no relacione la información personal con la identidad, no se infringirá el derecho a la privacidad. En la etapa de almacenamiento de información personal, se debe mejorar la tecnología de cifrado. Actualmente, existen dos formas principales de almacenamiento de datos: almacenamiento de bases de datos y almacenamiento en la nube. La intrusión y el robo externos y la visualización, el uso y la filtración no autorizados por parte de personas internas son las principales amenazas a la seguridad de la información personal durante la etapa de almacenamiento. Es necesario fortalecer el cifrado de datos y controlar estrictamente los derechos de acceso a los datos. Durante la etapa de uso de la información personal, es necesario fortalecer técnicamente la intervención en tiempo real, la interferencia y el bloqueo de usos ilegales de la información personal, a fin de agregar una capa adicional de protección a los derechos de privacidad y seguridad de la información personal.
A medida que las normas legales de mi país se perfeccionan cada vez más y la protección continúa fortaleciéndose, especialmente el Código Civil y la Ley de Protección de Información Personal, que tienen disposiciones detalladas sobre los derechos de privacidad y la protección de la información personal, aclarando los límites de los derechos y obligaciones en las actividades de procesamiento de información personal. , mi país en la era de la inteligencia artificial La protección legal de los derechos de privacidad y la seguridad de la información personal seguramente alcanzará un nivel más alto, brindando una sólida protección legal para el desarrollo saludable de la inteligencia artificial y beneficiando mejor a las personas.
La prosperidad de la ciencia y la tecnología hará que la nación prospere, y la ciencia y la tecnología sólidas harán que el país sea fuerte. Desde el XVIII Congreso Nacional del Partido Comunista de China, mi país ha otorgado gran importancia al desarrollo de la inteligencia artificial, promovió activamente la profunda integración de Internet, big data, inteligencia artificial y la economía real, cultivó y expandió industrias inteligentes, aceleró el desarrollo de nuevas fuerzas productivas y proporcionó un nuevo impulso al desarrollo de alta calidad. El Secretario General Xi Jinping señaló: "Debemos adherirnos a la unidad de promover el desarrollo y la gestión conforme a la ley, no sólo cultivar vigorosamente nuevas tecnologías y nuevas aplicaciones como la inteligencia artificial, el Internet de las cosas y las redes de comunicación de próxima generación, sino también También utilizar activamente leyes, regulaciones y estándares para guiar la aplicación de nuevas tecnologías ". Xi Jinping La importante exposición del Secretario General proporciona una guía fundamental de cumplimiento y acción para el desarrollo de la inteligencia artificial en nuestro país. Para desarrollar vigorosamente la inteligencia artificial y mejorar el nivel de gobernanza de la seguridad de la inteligencia artificial, debemos implementar plenamente el importante despliegue de "establecer un sistema de supervisión de la seguridad de la inteligencia artificial" propuesto por la "Decisión" de la Tercera Sesión Plenaria del XX Comité Central del Partido Comunista de China, y captar con precisión las tendencias de desarrollo de la inteligencia artificial, centrándose en la tecnología de inteligencia artificial de vanguardia y los riesgos y desafíos que conlleva, fortaleciendo el pensamiento con visión de futuro y explorando constantemente soluciones innovadoras para la gobernanza de la inteligencia artificial.
Actualmente, la inteligencia artificial generativa ha creado un nuevo paradigma de interacción persona-computadora. Con sus poderosas capacidades de interacción, comprensión y generación, ha desarrollado un modelo de lenguaje natural a gran escala como componente central, integrando memoria, planificación y uso de herramientas. la capacidad de percibir y actuar. Las capacidades de los agentes artificiales abren amplias perspectivas. La inteligencia artificial se ha convertido en la dirección de investigación de vanguardia más importante de la inteligencia artificial general y en una nueva vía por la que las empresas de tecnología compiten por trazar. Utiliza un gran modelo de lenguaje natural como "motor inteligente" y tiene las características de autonomía, adaptabilidad e interactividad. Puede mejorar significativamente la eficiencia de la producción, mejorar la experiencia del usuario, brindar soporte para decisiones más allá de las capacidades humanas y puede aplicarse al desarrollo de software. investigación científica y otros escenarios de la vida real. Aunque la comercialización a gran escala aún se encuentra en la etapa preliminar de exploración e incubación, tendencias como la integración virtual y real y la interacción profunda entre humanos y computadoras representadas por la inteligencia artificial tienen una importante importancia rectora para el desarrollo económico y social. Sin embargo, debido a limitaciones técnicas, los agentes artificiales también pueden causar riesgos y preocupaciones complejos, dinámicos e imprevistos.
Desde el punto de vista de la lógica del diseño, la inteligencia artificial necesita obtener capacidades cognitivas a través del extremo de control, obtener y utilizar información del entorno circundante a través del extremo de detección y finalmente convertirse en un sistema inteligente que percibe y actúa basándose en entidades físicas en la acción. fin.
En el lado del control, el modelo de lenguaje natural a gran escala sirve como "cerebro" del cuerpo artificial. Forma conocimiento mediante el aprendizaje de datos masivos y constituye el módulo de memoria en el sistema de control del cuerpo artificial. Sin embargo, existen riesgos en la confiabilidad. y exactitud del contenido generado. Por ejemplo, el contenido generado por el modelo puede no seguir la fuente de información o ser inconsistente con la situación real del mundo real, lo que resulta en las llamadas "alucinaciones mecánicas" debido al sesgo humano en los datos de entrenamiento, que pueden afectar la calidad; toma de decisiones justa de la inteligencia artificial, etc.
En el lado perceptual, para comprender completamente la información explícita e implícita en situaciones específicas y percibir con precisión las intenciones humanas, los agentes de inteligencia artificial amplían el alcance de la percepción desde texto puro a campos multimodales que incluyen modos textuales, visuales y auditivos. Aunque esto mejora las capacidades de toma de decisiones, puede provocar una serie de filtraciones de privacidad y riesgos de seguridad de los datos al integrar y analizar datos de múltiples fuentes de diferentes canales y tipos. Por ejemplo, el uso inadecuado y el intercambio de datos biométricos permanentes y altamente personalizados, como información facial, huellas dactilares y huellas de voz, pueden generar riesgos de privacidad a largo plazo o incluso permanentes. Para manejar mejor las tareas complejas, los sistemas multiagente que implementan múltiples agentes artificiales para planificar, cooperar e incluso competir para completar y mejorar el desempeño de las tareas se volverán comunes y normales. La interacción del sistema de múltiples agentes artificiales puede causar riesgos de seguridad sistémicos imprevistos. Incluso si cada algoritmo parece seguro y razonable cuando se opera solo, la combinación y la interacción aún pueden producir riesgos completamente diferentes e impredecibles que pueden evolucionar y escalar rápidamente. Por ejemplo, en el mercado de valores, si la inteligencia artificial se utiliza ampliamente y múltiples algoritmos identifican automáticamente pequeños cambios en los precios de las acciones y ejecutan simultáneamente una gran cantidad de transacciones de alta frecuencia para el arbitraje, esto puede desencadenar un incidente de seguridad sistémico, como una caída repentina. en el mercado de valores.
En el lado móvil, los agentes artificiales desplegados en entornos físicos reales probablemente se presentarán en una imagen más tridimensional y antropomórfica. A diferencia del espacio virtual, el espacio real se basa en métodos de aprendizaje interactivos. Los agentes de inteligencia artificial necesitan una percepción de información rica y completa para observar, aprender y actuar. A través de capacidades de optimización del aprendizaje basadas en retroalimentación, esto puede constituir un enfoque integral e intrusivo de la privacidad personal. Los riesgos del sexo y la invisibilidad. Por ejemplo, interpretar el lenguaje corporal de los usuarios y detectar actividades más complejas de los usuarios, y continuar recopilando datos en secreto sin la autorización del usuario, puede generar enormes riesgos de seguridad de los datos una vez que existe una vulnerabilidad de seguridad en el sistema. Además, a medida que la autonomía de la inteligencia artificial continúa aumentando, es posible que no solo interfiera y afecte la cognición y las emociones humanas, sino que también desafíe las capacidades y el estatus de los humanos como tomadores de decisiones y actores independientes. Por ejemplo, algunos chatbots producen resultados que afectan las emociones de los usuarios durante las interacciones con los usuarios, a veces de forma negativa y manipuladora.
Frente a los riesgos y desafíos que plantean los agentes de inteligencia artificial, para que el comportamiento de los agentes artificiales se ajuste a las intenciones y valores humanos, es necesario explorar soluciones de gobernanza innovadoras para garantizar que el sistema de supervisión de seguridad de la inteligencia artificial sea eficaz. El desarrollo de la inteligencia artificial se encuentra en un período crítico de "cero a uno". El plan de gobernanza debe tener la capacidad de permanecer sin cambios en respuesta a cambios constantes, asegurando que el desarrollo y la aplicación de la tecnología estén siempre en un camino controlable. El desarrollo, la formación, el despliegue, la operación y el servicio de los agentes de inteligencia artificial han pasado por una división del trabajo altamente especializada, formando una estructura jerárquica compleja. Cada capa tiene diferentes participantes, partes interesadas y factores de riesgo potenciales, lo que otorga a las entidades de inteligencia artificial las características de una cadena industrial "modular". Por lo tanto, se puede construir un marco de gobernanza modular que cubra toda la cadena industrial y cada capa final, y los módulos de gobernanza correspondientes se diseñan a partir de nodos clave, como módulos de datos, módulos de algoritmos y arquitecturas de modelos. Por ejemplo, en el proceso de implementación, se pueden seleccionar de manera flexible diferentes módulos de gobernanza y combinarlos de manera colaborativa de acuerdo con las características del escenario de la aplicación y el modo de implementación para construir una solución de gobernanza coincidente. El marco de gobernanza modular proporciona un método de descomposición operable. Al descomponer los objetivos de gobernanza en módulos de gobernanza relativamente independientes pero acoplados, promueve gradualmente la formación de un sistema de gobernanza, que no solo mejora la flexibilidad y pertinencia de la gobernanza, sino que también mejora la flexibilidad y la pertinencia. de gobernanza. También puede adaptarse a las rápidas iteraciones de la tecnología. Al construir módulos de gobernanza basados en dimensiones como datos, algoritmos, modelos y escenarios, se debe utilizar la tecnología para potenciar la supervisión y crear herramientas de gobernanza inteligentes que sean compatibles con el marco de gobernanza modular de las entidades de inteligencia artificial, salvando así la dinámica del riesgo y la tensión. entre estáticas regulatorias permite una gobernanza precisa de escenarios específicos de alto riesgo.
Es necesario construir un ecosistema de gobernanza interactivo para entidades de inteligencia artificial. Los agentes de inteligencia artificial son profundamente interactivos, altamente interconectados y dinámicamente adaptables. En consecuencia, los métodos de gobernanza deberían trascender la gobernanza tradicional centrada en el individuo y promover la formación de un ecosistema de gobernanza con amplia interconexión, participación multipartidista y colaboración multinivel. Entre ellos, las comunidades técnicas, como los desarrolladores técnicos y el personal de operación y mantenimiento, desempeñarán un papel vital de "denunciantes" en la gobernanza de las entidades de inteligencia artificial. Las ventajas de supervisión de la comunidad técnica deberían aprovecharse mejor para construir un mecanismo de restricción eficaz dentro de las empresas de inteligencia artificial. También debemos mejorar activamente la alfabetización digital de la mayoría de los usuarios, aumentar su conciencia sobre el uso de la inteligencia artificial de manera legal, segura y responsable, lograr una interacción positiva con la inteligencia artificial y promover la formación de un estado operativo ascendente y bueno.