O editor do Downcodes aprendeu que equipes de pesquisa da Universidade de Stanford, da Universidade de Washington e do Google DeepMind desenvolveram em conjunto um novo tipo de agente de IA que pode simular com precisão o comportamento humano e alcançar resultados impressionantes em experimentos sociais. Esta pesquisa fornece uma ferramenta laboratorial poderosa para testes de teorias em campos das ciências sociais, como economia, sociologia, organizações e ciência política, fornecendo novos caminhos para uma compreensão mais profunda do comportamento humano. A equipe de pesquisa usou dados de entrevistas de mais de 1.000 eleitores americanos e os combinou com o modelo GPT-4o para treinar um agente de IA que pode restaurar altamente as reações humanas. Os resultados e dados desta investigação foram divulgados publicamente, proporcionando um recurso valioso para cientistas de todo o mundo.
Recentemente, uma equipe de pesquisa da Universidade de Stanford, da Universidade de Washington e do Google DeepMind desenvolveu um novo tipo de agente de inteligência artificial (IA) que pode simular com precisão o comportamento humano em experimentos sociais. De acordo com a sua investigação, esta técnica de simulação promete fornecer uma base laboratorial para testes teóricos em áreas como economia, sociologia, organizações e ciência política.
Os pesquisadores construíram esses agentes de IA usando dados de entrevistas de mais de 1.000 eleitores dos EUA. A idade, o género, a formação educacional e as opiniões políticas destes entrevistados representam a diversidade da sociedade americana. O agente de IA analisa esses registros de entrevistas e utiliza o modelo GPT-4o para reproduzir as verdadeiras reações dos entrevistados quando os usuários fazem perguntas.
Em termos de implementação específica, a equipe de pesquisa conduziu uma entrevista aprofundada de duas horas para cada participante e usou o modelo Whisper da OpenAI para converter o conteúdo da entrevista em texto. Este método melhora muito a precisão dos agentes de IA. Num teste de previsão do comportamento humano, um agente de IA baseado em dados de entrevistas previu com sucesso as respostas humanas a inquéritos sociais gerais com 85% de precisão, significativamente melhor do que um agente de IA que se baseou apenas em informações demográficas básicas.
Os pesquisadores também realizaram cinco experimentos em ciências sociais, e os resultados mostraram que em quatro experimentos, os resultados produzidos pelos agentes de IA foram altamente consistentes com as respostas dos participantes humanos, com um coeficiente de correlação de 0,98. Isto sugere que os métodos baseados em entrevistas demonstram maior precisão e melhor equilíbrio na análise das respostas de diferentes ideologias políticas e grupos étnicos.
Para facilitar a pesquisa de acompanhamento, a equipe de pesquisa carregou o conjunto de dados de 1.000 agentes de IA criados no GitHub para uso por outros cientistas. Para proteger a privacidade dos participantes, a equipe adotou um sistema de acesso de dois níveis.
Os cientistas têm livre acesso a dados agregados de respostas para determinadas tarefas, enquanto o acesso a dados de respostas individuais em estudos abertos requer permissões especiais. Este sistema foi projetado para ajudar os pesquisadores a estudar melhor o comportamento humano, protegendo ao mesmo tempo a privacidade dos participantes originais da entrevista.
Entrada do projeto: https://github.com/joonspk-research/genagents
O significado inovador desta pesquisa reside na sua precisão na simulação do comportamento humano e na sua contribuição potencial para a pesquisa em ciências sociais. Ao disponibilizar publicamente o conjunto de dados, espera-se que esta investigação promova mais investigação sobre o comportamento humano e os fenómenos sociais, proporcionando novas perspectivas para uma compreensão e previsão mais precisas do desenvolvimento social. O editor do Downcodes espera que esta tecnologia traga resultados mais surpreendentes no futuro.