Recentemente, o Google, gigante no campo da inteligência artificial, lançou seu mais recente modelo de linguagem em grande escala Gemini 1.5, que possui uma impressionante janela de contexto de 1 milhão de tokens e pode lidar com conteúdo equivalente à duração de um livro completo ou até mesmo de um filme. Este desenvolvimento inovador atraiu, sem dúvida, a atenção generalizada na indústria, indicando que a capacidade dos modelos de linguagem em grande escala para processar informações atingiu um novo nível. No entanto, alta capacidade não significa alta precisão, e o desempenho do Gemini 1.5 em testes reais gerou discussão.
O Google lançou recentemente o Gemini 1.5, um modelo com janela de contexto de 1 milhão de tokens que pode lidar com livros completos e até filmes. Porém, nos testes, a precisão do Gemini 1.5 não foi alta, principalmente no teste “agulha no palheiro”, onde sua precisão média foi de apenas 60% a 70%. Além disso, o Google também questionou a autenticidade do vídeo gerado pelo OpenAI Sora, chamando-o de falso.
O lançamento do Gemini 1.5 e as dúvidas do Google sobre a autenticidade dos vídeos de Sora destacam os desafios enfrentados no desenvolvimento de modelos de linguagem em grande escala, nomeadamente como melhorar a sua precisão e fiabilidade, garantindo ao mesmo tempo a capacidade do modelo. Este não é apenas um problema enfrentado pelo Google, mas também uma direção que toda a indústria de IA precisa para trabalhar em conjunto. No desenvolvimento futuro, é necessário prestar mais atenção à fiabilidade e segurança dos modelos para garantir que a tecnologia de inteligência artificial possa realmente beneficiar a humanidade.