Récemment, des chercheurs de Microsoft Research et de l'Université Carnegie Mellon ont collaboré pour publier une enquête sur l'utilisation de l'IA générative par des travailleurs du savoir tels que Copilot et Chatgpt. L'étude a mené une enquête auprès de 319 travailleurs du savoir qui ont utilisé une IA générative chaque semaine et ont exploré en profondeur l'impact de l'IA générative sur la capacité de pensée critique des utilisateurs et ont révélé certains de ces phénomènes inquiétants. Les résultats de la recherche montrent qu'il existe un équilibre délicat entre la commodité des outils de l'IA et la capacité de pensée critique des utilisateurs.
Récemment, Microsoft Research et Carnegie Mellon University Researchers ont publié conjointement une nouvelle étude qui découvre des problèmes potentiels pour les travailleurs du savoir lors de l'utilisation de l'intelligence artificielle générative telle que C Opiloot et Chatgpt. L'équipe de recherche a exploré ses applications de pensée critique lors de l'utilisation de ces outils en examinant 319 travailleurs du savoir qui utilisent une IA générative chaque semaine.
Les résultats de la recherche montrent que les travailleurs confiants dans la tâche ont tendance à réfléchir de manière critique à la sortie de l'IA générative. Cependant, pour ceux qui manquent de confiance dans la tâche, ils ont tendance à penser que la réponse générative de l'IA est suffisante et donc aucune autre pensée. Ce phénomène a attiré l'attention des chercheurs, qui ont noté qu'une dépendance excessive à l'égard des outils d'IA peut entraîner une baisse de la capacité de pensée critique.
L'étude a mentionné que «la confiance dans l'IA est liée aux efforts pour réduire la pensée critique, tandis que la confiance en soi est liée à une réflexion critique améliorée». Les chercheurs suggèrent que les outils d'IA devraient inclure des mécanismes qui prennent en charge le développement des compétences à long terme, encourageant les utilisateurs à penser de manière réfléchie lors de l'interaction avec la sortie générée par l'IA.
Dans le même temps, les chercheurs ont mentionné qu'il ne suffit pas d'expliquer comment l'IA tire des conclusions. Ils soulignent que les travailleurs du savoir devraient utiliser la pensée critique dans leur travail quotidien pour vérifier la production de l'IA et éviter une dépendance excessive à l'égard de l'IA.
Les conclusions de l'étude soulignent que, en tant qu'IA, s'intègre progressivement dans notre monde du travail, les travailleurs du savoir doivent maintenir une certaine capacité de compétences de base dans la collecte d'informations et la résolution de problèmes pour éviter une dépendance excessive à l'égard de l'IA. Ils doivent être formés pour développer des compétences telles que la vérification de l'information, l'intégration des réponses et la gestion des tâches.
Le document de l'étude sera publié lors de la conférence d'interaction Human-Computer 2025, que l'équipe de recherche espère attirer une attention généralisée sur l'impact de l'IA générative.
Points clés:
La recherche montre que la confiance dans l'IA générative peut entraîner une diminution de la capacité de pensée critique parmi les travailleurs du savoir.
La confiance en soi est proportionnelle à la pensée critique et la conception des outils d'IA d'entreprise doit faire attention à ce solde.
Les travailleurs des connaissances devraient être formés pour maintenir la collecte d'informations de base et les capacités de résolution de problèmes afin d'éviter une orientation excessive sur l'IA.
Cette recherche est d'une grande importance pour dire comment utiliser efficacement les outils d'IA à l'ère IA tout en maintenant et en améliorant ses propres capacités de pensée critique. À l'avenir, dans la conception et l'application des outils d'IA, nous devons accorder plus d'attention à la culture de la pensée critique des utilisateurs et à l'éviter de l'impact négatif d'une dépendance excessive.