Nos últimos anos, a tecnologia de modelos de linguagem grande (LLM) desenvolveu-se rapidamente e a IA generativa demonstrou capacidades criativas impressionantes. Contudo, seus mecanismos intrínsecos e habilidades cognitivas ainda precisam ser mais explorados. Este artigo discutirá um estudo sobre a capacidade de compreensão de modelos generativos de IA. Por meio de análise comparativa experimental, este estudo revela as diferenças de desempenho de tais modelos em diferentes situações, fornecendo uma referência valiosa para compreendermos as limitações da IA.
Modelos de IA generativa, como GPT-4 e Midjourney, demonstraram capacidades generativas convincentes. No entanto, a investigação descobriu que estes modelos apresentam desafios na compreensão do conteúdo que geram, o que difere da inteligência humana. Especificamente, os pesquisadores descobriram através de experimentos que esses modelos tiveram um bom desempenho em experimentos seletivos, mas muitas vezes cometiam erros em experimentos interrogativos. Esta pesquisa exige cautela ao se aprofundar na inteligência artificial e na cognição, pois os modelos podem criar conteúdo, mas não conseguem compreendê-lo completamente.No seu conjunto, este estudo lembra-nos que, embora a IA generativa tenha feito progressos significativos na criação de conteúdos, a sua capacidade de compreender o conteúdo que gera ainda é limitada. A investigação futura precisa de explorar mais profundamente o mecanismo cognitivo da IA para promover o desenvolvimento saudável da tecnologia de IA e evitar riscos potenciais. Precisamos de ver as capacidades da IA com mais cuidado e esforçar-nos continuamente para colmatar a lacuna entre a IA e a inteligência humana.