Pesquisadores da Tencent publicaram recentemente um artigo revelando novas maneiras de melhorar o desempenho de grandes modelos de linguagem. O estudo descobriu que, ao integrar vários modelos de linguagem pequena (LLMs), o desempenho geral do modelo pode ser significativamente melhorado sem a necessidade de estruturas de colaboração complexas, superando até mesmo um único LLM grande. O artigo desenvolve essa descoberta e propõe duas estratégias de otimização: amostragem e votação graduais, e amostragem e votação estratificadas, para melhorar ainda mais a eficiência e a precisão do modelo. Esta pesquisa fornece novas ideias para o desenvolvimento de grandes modelos de linguagem e aponta a direção para a futura construção e otimização de modelos.
Os pesquisadores da Tencent descobriram que o desempenho de grandes modelos de linguagem aumentará à medida que o número de agentes instanciados aumentar, sem a necessidade de uma estrutura complexa de colaboração com vários agentes LLM. Resultados experimentais mostram que conjuntos de múltiplos LMs pequenos podem superar o desempenho de LMs maiores. O artigo explora a relação entre melhoria de desempenho e dificuldade do problema e propõe duas estratégias de otimização: amostragem e votação graduais, e amostragem e votação estratificadas.
Os resultados da pesquisa são de grande importância e fornecem novas direções e ideias para a otimização de grandes modelos de linguagem. No futuro, através de mais investigação e melhoria destas duas estratégias de optimização, o desempenho de grandes modelos de linguagem pode ser melhor melhorado e aplicado numa gama mais ampla de campos. Isto promoverá o desenvolvimento da tecnologia de inteligência artificial e trará mais possibilidades para todas as esferas da vida.