En el Seminario sobre Gobernanza y Fronteras de Inteligencia Artificial China-Singapur, ¿por qué académicos de China y Singapur echaron agua fría a la IA?
Autor:Eve Cole
Fecha de actualización:2024-11-15 12:24:01
Desde que se propuso por primera vez el concepto de inteligencia artificial en 1956, la IA se ha desarrollado aún más hacia la inteligencia cognitiva basada en la inteligencia computacional y la inteligencia perceptiva. En los últimos años, con la aparición de ChatGPT y sora, el desarrollo de la IA ha avanzado rápidamente. Sin embargo, en el Seminario de Gobernanza y Frontera de Inteligencia Artificial entre China y Singapur organizado por la Academia China de Ingeniería y la Academia de Ingeniería de Singapur y organizado por la Universidad de Tongji hoy (28 de octubre), muchos académicos echaron agua fría sobre la "fiebre de la IA". "Los problemas de seguridad endógena de la red están desafiando ampliamente el paradigma subyacente del ecosistema digital actual". Wu Jiangxing, académico de la Academia China de Ingeniería y profesor de la Universidad de Fudan, dijo sin rodeos que es lamentable que ni el sistema de seguridad en sí ni el sistema de seguridad en sí. Los guardias de seguridad de la red que vigilan hogares y residencias de ancianos actualmente pueden responder las tres principales preguntas sobre la tortura del alma: "¿Existen lagunas jurídicas?" "¿Existen puertas traseras/trampillas?" Señaló seriamente que el actual sistema de aplicación de IA tiene un grave desequilibrio entre las responsabilidades y los riesgos de seguridad. Ningún comerciante puede garantizar que sus productos no tengan vulnerabilidades de seguridad ni puertas traseras, y ninguna agencia de pruebas puede garantizar que los productos enviados para inspección estarán libres de vulnerabilidades y puertas traseras. Esto se ha convertido en una pesadilla ineludible para todos los países en la era de la IA. En el encuentro, numerosos expertos analizaron que la inteligencia artificial aparentemente poderosa y los modelos de gran tamaño también tienen deficiencias en términos de consumo, seguridad y ética. El desarrollo de la inteligencia artificial todavía está en camino y todavía queda mucho espacio para el desarrollo. Los académicos de China y Singapur deberían fortalecer la cooperación y trabajar juntos para guiar a la IA para que ahorre más energía, sea más segura y virtuosa. La inteligencia artificial aparentemente poderosa está en realidad llena de peligros ocultos. Cuando se trata de riesgos de seguridad de la red, muchas personas quedaron particularmente impresionadas por el incidente de la pantalla azul de Microsoft que ocurrió en julio de este año. El 19 de julio, usuarios de muchos países alrededor del mundo descubrieron que las computadoras de su empresa tenían una pantalla azul, lo que les decía: "El dispositivo ha encontrado un problema y necesita ser reiniciado. Posteriormente, se confirmó que el problema de la pantalla azul estaba relacionado con una actualización de software. por la empresa de seguridad de redes Crowd Strike En opinión de Wu Jiangxing, este es un caso típico de "guardaespaldas" de seguridad que apuñalan a humanos por la espalda. "La inteligencia artificial y los problemas de seguridad están estrechamente relacionados, y la seguridad es un defecto genético provocado por". La madre en la arquitectura informática moderna debe prestar atención a los problemas de seguridad del entorno operativo de IA. " En este sentido, Zheng Qinghua, presidente de la Universidad de Tongji y académico de la Academia China de Ingeniería, sostiene la misma opinión: "Si bien afirmamos enfáticamente los principales logros de los modelos grandes, también debemos ser profundamente conscientes de que existen algunos defectos inherentes en ellos. Modelos grandes ". Zheng Qinghua dio un ejemplo. La primera actuación es el consumo excesivo de datos y potencia informática. "Un día, la valiosa información que los humanos extraen de los datos de código abierto en Internet llegará a su límite, al igual que los humanos extraen metales raros de recursos minerales, llegará un momento en que se agotará el segundo defecto inherente". de olvido catastrófico y débil capacidad de tracción de la escena. Zheng Qinghua explicó que a los modelos grandes les gusta lo nuevo y odian lo viejo, y es difícil hacer inferencias de un ejemplo. A menudo, es difícil adaptarse a A, pero es difícil adaptarse a B. No es fácil de encontrar. un equilibrio entre ambos. El tercero es una capacidad de razonamiento débil. El modelo grande utiliza un algoritmo de entrenamiento autorregresivo, lo que le impide formar la capacidad de razonamiento lógico basado en el razonamiento causal construido por humanos. El método de generación autorregresiva también es difícil de hacer frente a tareas de razonamiento complejas que requieren retroceso y prueba y error, lo que a menudo conduce al fenómeno de que los modelos grandes aprenden información incorrecta para resolver tareas. Este fenómeno se denomina "efecto Hans inteligente". El cuarto defecto inherente es que el modelo grande no sabe dónde salió mal y por qué salió mal, y mucho menos corregirlo cuando se sabe. Zheng Qinghua dijo sin rodeos que estos defectos inherentes han provocado problemas como alucinaciones y poca controlabilidad en modelos grandes. "Especialmente en aplicaciones de ingeniería y otros escenarios donde necesitamos saber qué está sucediendo y por qué, se puede decir que los modelos grandes son impotentes", Wen Yonggang, académico de la Academia de Ingeniería de Singapur y profesor de la Universidad Tecnológica de Nanyang, cree que la sociedad humana. está entrando en un período de transformaciones duales: la era de la digitalización y la sostenibilidad. Especialmente en la transformación digital, una gran cantidad de actividades han cambiado de fuera de línea a en línea, lo que consume muchos recursos informáticos y servidores. Las predicciones muestran que para 2030, el consumo de electricidad de los centros de datos de Singapur alcanzará el 12% del consumo eléctrico total de la sociedad. Lo que es aún más alarmante es que el uso extensivo de la IA también aumentará el volumen de emisiones de carbono y tendrá un impacto devastador en el medio ambiente. Guíe a la IA para que corra en la dirección correcta. Cuando la IA corre con los ojos cerrados, ¿cómo pueden los humanos, los desarrolladores de tecnología, agarrar el volante? En la reunión, los expertos también dieron sugerencias viables basadas en investigaciones a largo plazo. Wu Jiangguang ha creado las teorías de seguridad endógena y defensa mímica desde 2013. Sobre la base de la base teórica, el equipo construyó una arquitectura de seguridad endógena para potenciar los sistemas de conducción inteligentes en el laboratorio de Nanjing. El sistema tiene más de 20 escenarios de aplicación y más de 100 aplicaciones individuales diferenciadas. Tiene una tasa de éxito de identificación integral de más del 90 % en problemas comunes de IA, como contraataques y vulnerabilidades de puerta trasera. Zheng Qinghua dijo que la historia y la experiencia han demostrado que cada progreso humano en la ciencia del cerebro tiene una referencia, inspiración y guía para la investigación de redes neuronales artificiales y la inteligencia artificial. "Los grandes modelos actuales son sólo la referencia más preliminar y simple al cerebro humano. Si podemos extraer referencias profundas de la ciencia del cerebro, especialmente los mecanismos de representación, activación, recuperación y recuperación de la memoria que son exclusivos de los humanos, Se espera que resuelvan los problemas que enfrentan los grandes modelos actuales. "Hay varios defectos inherentes, por lo que propuso: China debe tener su propio modelo de inteligencia artificial". Actualmente, la Universidad de Tongji está abriendo fronteras disciplinarias, promoviendo la integración de la informática y la ciencia del cerebro, estudiando la correlación entre la memoria del cerebro humano y la memoria de la máquina y explorando nuevas formas de utilizar la ciencia de la información para estudiar la ciencia del cerebro. La inteligencia artificial actual ha traspasado los límites de las disciplinas tradicionales y se está extendiendo a casi todas las disciplinas. Guo Guisheng, académico de la Academia de Ingeniería de Singapur y profesor de la Universidad de Tecnología y Diseño de Singapur, también es miembro de la Asociación AI-RAN. Se entiende que AI-RAN se refiere a "Inteligencia artificial (AI) -Red de acceso por radio (RAN)" y es una asociación industrial destinada a revitalizar la integración de la inteligencia artificial y las comunicaciones inalámbricas y liderar la innovación tecnológica. Guo Guisheng presentó que una gran cantidad de proyectos relacionados con la IA y la computación cuántica se están promoviendo a través de la interconexión interdisciplinaria. En su opinión, guiar a la IA para que haga el bien requiere no sólo romper con los círculos académicos, sino también vincularse activamente con la sabiduría global. Espera que en el futuro más laboratorios y empresas de universidades chinas se unan al círculo de amigos de la IA y establezcan asociaciones. El periodista se enteró de que Singapur, como la mundialmente famosa "Capital de la Inteligencia Artificial", fue uno de los primeros países del mundo en lanzar una estrategia nacional de inteligencia artificial y ha llevado a cabo muchos trabajos pioneros en la gobernanza de la inteligencia artificial. En el lugar, Zheng Qinghua también propuso que en el futuro, si queremos hacer realidad la hermosa imagen de que "todos tienen inteligencia, las máquinas tienen inteligencia, cada uno tiene su propia sabiduría y la sabiduría y la sabiduría se comparten", los expertos en el campo de La inteligencia artificial de China y Singapur deben trabajar juntas para crear algo para este mundo. Contribuir más.