Recientemente, los investigadores de Microsoft Research y Carnegie Mellon University colaboraron para publicar una encuesta sobre el uso de IA generativa por parte de trabajadores de conocimiento como Copilot y ChatGPT. El estudio realizó una encuesta de 319 trabajadores del conocimiento que usaron IA generativa cada semana, y exploró en profundidad el impacto de la IA generativa en la capacidad de pensamiento crítico de los usuarios y reveló algunos de estos fenómenos preocupantes. Los resultados de la investigación muestran que existe un delicado equilibrio entre la conveniencia de las herramientas de IA y la capacidad de pensamiento crítico de los usuarios de los usuarios.
Recientemente, los investigadores de la Universidad de Microsoft Research y Carnegie Mellon publicaron conjuntamente un nuevo estudio que descubre posibles problemas para los trabajadores del conocimiento cuando utilizan inteligencia artificial generativa como C Opilot y ChatGPT. El equipo de investigación exploró sus aplicaciones de pensamiento crítico cuando usa estas herramientas al examinar a 319 trabajadores del conocimiento que usan IA generativa cada semana.
Los resultados de la investigación muestran que los trabajadores que confían en la tarea tienden a pensar críticamente sobre la producción de IA generativa. Sin embargo, para aquellos que carecen de confianza en la tarea, tienden a pensar que la respuesta generativa de IA es suficiente y, por lo tanto, no se piensa más. Este fenómeno ha atraído la atención de los investigadores, quienes señalaron que la dependencia excesiva de las herramientas de IA puede conducir a una disminución en la capacidad de pensamiento crítico.
El estudio mencionó que "la confianza en la IA está relacionada con los esfuerzos para reducir el pensamiento crítico, mientras que la autoconfianza está relacionada con un mejor pensamiento crítico". Los investigadores sugieren que las herramientas de IA deben incluir mecanismos que respalden el desarrollo de habilidades a largo plazo, alentando a los usuarios a pensar reflexivamente al interactuar con el resultado generado por la IA.
Al mismo tiempo, los investigadores mencionaron que no es suficiente explicar cómo AI saca conclusiones. Hagan hincapié en que los trabajadores del conocimiento deben usar el pensamiento crítico en su trabajo diario para verificar la producción de IA y evitar la dependencia excesiva de la IA.
Las conclusiones del estudio enfatizan que a medida que AI se integra gradualmente en nuestro mundo laboral, los trabajadores del conocimiento deben mantener una cierta capacidad en las habilidades básicas en la recopilación de información y la resolución de problemas para evitar la dependencia excesiva de la IA. Deben estar capacitados para desarrollar habilidades como verificación de información, integración de respuestas y gestión de tareas.
El documento para el estudio se publicará en la Conferencia de Interacción Human-Computadora 2025, que el equipo de investigación espera atraer una atención generalizada sobre el impacto de la IA generativa.
Puntos clave:
La investigación muestra que la confianza en la IA generativa puede conducir a una disminución en la capacidad de pensamiento crítico entre los trabajadores del conocimiento.
La autoconfianza es proporcional al pensamiento crítico, y el diseño de las herramientas de IA empresariales debe prestar atención a este saldo.
Los trabajadores del conocimiento deben recibir capacitación para mantener la recopilación básica de información y las capacidades de resolución de problemas para evitar la excesiva dependencia de la IA.
Esta investigación es de gran importancia guía sobre cómo utilizar de manera efectiva las herramientas de IA en la era de la IA mientras se mantiene y mejora las propias habilidades de pensamiento crítico. En el futuro, en el diseño y la aplicación de las herramientas de IA, debemos prestar más atención al cultivo del pensamiento crítico del usuario y evitar el impacto negativo de la dependencia excesiva.