Actualmente, la tecnología de inteligencia artificial se está desarrollando rápidamente, pero sus problemas de confiabilidad y seguridad también están atrayendo una atención creciente. El profesor Eerke Boiten, profesor de ciberseguridad en la Universidad de Montford, cuestionó la confiabilidad de los sistemas de IA existentes, creyendo que están en riesgo en aplicaciones importantes. Señaló que los modelos generativos de IA y lenguaje grande basados en grandes redes neuronales, como ChatGPT, tienen complejidades que hacen que sea difícil predecir y verificar su comportamiento, lo que hace que sea potencialmente riesgoso en las aplicaciones que requieren un sentido de responsabilidad.
En el entorno tecnológico actual, la inteligencia artificial (IA) ha provocado una discusión generalizada. Eerke Boiten, profesor de ciberseguridad en la Universidad de Montford, dijo que los sistemas de IA existentes tienen deficiencias fundamentales en gestión y confiabilidad y que no deben usarse en aplicaciones importantes.
El profesor Boiten señaló que la mayoría de los sistemas de IA actuales dependen de grandes redes neuronales, especialmente IA generativa y modelos de idiomas grandes (como ChatGPT). El principio de trabajo de estos sistemas es relativamente complejo.
Desde la perspectiva de la ingeniería de software, el profesor Boiten enfatizó que los sistemas de IA carecen de composibilidad y no pueden desarrollarse modularmente como el software tradicional. Sin una estructura interna clara, los desarrolladores no pueden segmentar y gestionar de manera efectiva la complejidad, y también es difícil para ellos realizar un desarrollo paso a paso o pruebas efectivas. Esto hace que la verificación de los sistemas de IA se limite a las pruebas generales, lo que es extremadamente difícil debido a la entrada excesiva y al espacio de estado.
Además, el comportamiento incorrecto de los sistemas de IA a menudo es difícil de predecir y arreglar. Esto significa que incluso si se encuentran errores durante la capacitación, la reentrenamiento no garantiza que estos errores se corregirán de manera efectiva e incluso pueden introducir nuevos problemas. Por lo tanto, el profesor Boiten cree que en cualquier aplicación que requiera un sentido de responsabilidad, se deben evitar los sistemas de IA actuales.
Sin embargo, el profesor Boiten no perdió por completo la esperanza. Él cree que aunque los sistemas de IA generativos actuales pueden haber alcanzado un cuello de botella, al combinar la inteligencia simbólica y la IA basada en la intuición, aún es posible desarrollar sistemas de IA más confiables en el futuro. Estos nuevos sistemas pueden generar algunos modelos de conocimiento claros o niveles de confianza que mejoran la confiabilidad de la IA en aplicaciones prácticas.
Las opiniones del profesor Boiten han desencadenado el pensamiento profundo de las personas sobre el alcance de la fiabilidad y la aplicación de la inteligencia artificial, y también han señalado un nuevo camino para la dirección de desarrollo futuro de la tecnología de inteligencia artificial. Mientras realizamos avances en la tecnología de inteligencia artificial, debemos otorgar una gran importancia a su seguridad y confiabilidad para garantizar que pueda controlarse y administrarse de manera efectiva en las aplicaciones y evitar riesgos potenciales.