Recentemente, pesquisadores da Microsoft Research e Carnegie Mellon University colaboraram para publicar uma pesquisa sobre o uso de IA generativa por trabalhadores do conhecimento, como Copilot e ChatGPT. O estudo conduziu uma pesquisa com 319 trabalhadores do conhecimento que usavam IA generativa toda semana e exploravam profundamente o impacto da IA generativa na capacidade de pensamento crítico dos usuários e revelou alguns desses fenômenos preocupantes. Os resultados da pesquisa mostram que há um delicado equilíbrio entre a conveniência das ferramentas de IA e a capacidade de pensamento crítico dos usuários.
Recentemente, os pesquisadores da Microsoft Research e da Carnegie Mellon University divulgaram em conjunto um novo estudo que descobre possíveis problemas para os trabalhadores do conhecimento ao usar inteligência artificial generativa, como C Opilot e ChatGPT. A equipe de pesquisa explorou seus aplicativos de pensamento crítico ao usar essas ferramentas, pesquisando 319 trabalhadores do conhecimento que usam IA generativa toda semana.
Os resultados da pesquisa mostram que os trabalhadores confiantes na tarefa tendem a pensar criticamente sobre a produção de IA generativa. No entanto, para aqueles que não têm confiança na tarefa, eles tendem a pensar que a resposta generativa da IA é suficiente e, portanto, não há mais pensamento. Esse fenômeno atraiu a atenção dos pesquisadores, que observaram que a dependência excessiva das ferramentas de IA pode levar a um declínio na capacidade de pensamento crítico.
O estudo mencionou que “a confiança na IA está relacionada a esforços para reduzir o pensamento crítico, enquanto a autoconfiança está relacionada ao pensamento crítico aprimorado”. Os pesquisadores sugerem que as ferramentas de IA devem incluir mecanismos que suportam o desenvolvimento de habilidades a longo prazo, incentivando os usuários a pensar refletivamente ao interagir com a saída gerada pela IA.
Ao mesmo tempo, os pesquisadores mencionaram que não é suficiente explicar como a IA tira conclusões. Eles enfatizam que os trabalhadores do conhecimento devem usar o pensamento crítico em seu trabalho diário para verificar a saída da IA e evitar dependência excessiva da IA.
As conclusões do estudo enfatizam que, à medida que a IA se integra gradualmente ao nosso mundo de trabalho, os trabalhadores do conhecimento precisam manter uma certa capacidade nas habilidades básicas na coleta de informações e na solução de problemas para evitar a dependência excessiva da IA. Eles devem ser treinados para desenvolver habilidades como verificação de informações, integração e gerenciamento de tarefas.
O artigo para o estudo será divulgado na Conferência de Interação Humano-Computador de 2025, que a equipe de pesquisa espera atrair atenção generalizada sobre o impacto da IA generativa.
Pontos -chave:
Pesquisas mostram que a confiança na IA generativa pode levar a uma diminuição na capacidade de pensamento crítico entre os trabalhadores do conhecimento.
A autoconfiança é proporcional ao pensamento crítico, e o design das ferramentas de IA corporativo precisa prestar atenção a esse saldo.
Os trabalhadores do conhecimento devem ser treinados para manter as capacidades básicas de coleta de informações e resolução de problemas para evitar excesso de confiança na IA.
Esta pesquisa é de grande significado orientador de como utilizar efetivamente as ferramentas de IA na era da IA, mantendo e melhorando as próprias habilidades de pensamento crítico. No futuro, no design e aplicação das ferramentas de IA, devemos prestar mais atenção ao cultivo do pensamento crítico do usuário e a evitar o impacto negativo da dependência excessiva.