En los últimos años, la tecnología de modelos de lenguaje grande (LLM) se ha desarrollado rápidamente y la IA generativa ha demostrado capacidades creativas impresionantes. Sin embargo, aún es necesario explorar más a fondo sus mecanismos intrínsecos y sus capacidades cognitivas. Este artículo analizará un estudio sobre la capacidad de comprensión de los modelos generativos de IA. A través de un análisis comparativo experimental, este estudio revela las diferencias de rendimiento de dichos modelos en diferentes situaciones, lo que nos proporciona una referencia valiosa para comprender las limitaciones de la IA.
Los modelos de IA generativa como GPT-4 y Midjourney han demostrado capacidades generativas convincentes. Sin embargo, las investigaciones han encontrado que estos modelos tienen desafíos para comprender el contenido que generan, lo que difiere de la inteligencia humana. Específicamente, los investigadores descubrieron a través de experimentos que estos modelos funcionaban bien en experimentos selectivos, pero a menudo cometían errores en experimentos interrogativos. Esta investigación exige precaución al profundizar en la inteligencia artificial y la cognición, ya que los modelos pueden crear contenido pero no pueden comprenderlo completamente.En conjunto, este estudio nos recuerda que, aunque la IA generativa ha logrado avances significativos en la creación de contenido, su capacidad para comprender el contenido que genera aún es limitada. Las investigaciones futuras deben explorar más a fondo el mecanismo cognitivo de la IA para promover el desarrollo saludable de la tecnología de IA y evitar riesgos potenciales. Necesitamos examinar las capacidades de la IA con más atención y esforzarnos continuamente por cerrar la brecha entre la IA y la inteligencia humana.