최근 Microsoft Research와 Carnegie Mellon University의 연구원들은 Copilot 및 Chatgpt와 같은 지식 근로자가 생성 AI 사용에 대한 설문 조사를 게시하기 위해 협력했습니다. 이 연구는 매주 생성 AI를 사용한 319 명의 지식 근로자에 대한 설문 조사를 실시했으며, 생성 AI가 사용자의 비판적 사고 능력에 미치는 영향을 심도있게 탐구했으며 이러한 걱정스러운 현상 중 일부를 밝혀 냈습니다. 연구 결과는 AI 도구의 편의성과 AI에 대한 비판적 사고 능력 사이에 섬세한 균형이 있음을 보여줍니다.
최근 Microsoft Research와 Carnegie Mellon University 연구원들은 C Opilot 및 Chatgpt와 같은 생성 인공 지능을 사용할 때 지식 근로자의 잠재적 문제를 발견하는 새로운 연구를 공동으로 발표했습니다. 연구팀은 매주 생성 AI를 사용하는 319 지식 근로자를 조사하여 이러한 도구를 사용할 때 비판적 사고 응용 프로그램을 탐구했습니다.
연구 결과에 따르면이 과제에 자신감이있는 근로자는 생성 AI의 출력에 대해 비판적으로 생각하는 경향이 있습니다. 그러나 임무에 대한 자신감이 부족한 사람들에게는 생성 AI 답변이 충분하고 더 이상 생각하지 않는다고 생각하는 경향이 있습니다. 이 현상은 AI 도구에 대한 과도한 의존이 비판적 사고 능력의 감소로 이어질 수 있다고 언급 한 연구원들의 관심을 끌었습니다.
이 연구는“AI에 대한 신뢰는 비판적 사고를 줄이기위한 노력과 관련이 있지만, 자신감은 비판적 사고를 향상시키는 것과 관련이 있습니다. 연구원들은 AI 도구에는 장기 기술 개발을 지원하는 메커니즘이 포함되어 있어야하며 AI가 생성 한 출력과 상호 작용할 때 사용자가 반사적으로 생각하도록 장려해야한다고 제안합니다.
동시에, 연구원들은 AI가 어떻게 결론을 도출하는지 설명하는 것만으로는 충분하지 않다고 언급했습니다. 그들은 지식 근로자가 AI의 출력을 확인하고 AI에 대한 과도한 의존을 피하기 위해 일상 업무에서 비판적 사고를 사용해야한다고 강조합니다.
이 연구의 결론은 AI가 점차 우리의 노동 세계에 통합함에 따라 지식 근로자는 AI에 대한 과도한 의존성을 방지하기 위해 정보 수집 및 문제 해결의 기본 기술에 대한 특정 능력을 유지해야한다고 강조합니다. 정보 검증, 답변 통합 및 작업 관리와 같은 기술을 개발하도록 교육을 받아야합니다.
이 연구 논문은 2025 년 휴먼 컴퓨터 상호 작용 회의에서 발표 될 예정이며, 연구팀은 생성 AI의 영향에 대한 광범위한 관심을 끌기를 희망한다.
핵심 사항 :
연구에 따르면 생성 AI에 대한 신뢰는 지식 근로자들 사이에서 비판적 사고 능력을 감소시킬 수 있습니다.
자신감은 비판적 사고에 비례하며 Enterprise AI 도구의 설계는이 균형에주의를 기울여야합니다.
지식 근로자는 기본 정보 수집 및 문제 해결 기능을 유지하도록 교육을 받아야합니다.
이 연구는 자신의 비판적 사고 능력을 유지하고 개선하면서 AI 시대의 AI 도구를 효과적으로 활용하는 방법에 큰 중요성이 있습니다. 향후 AI 도구의 설계 및 적용에서, 우리는 사용자 비판적 사고를 육성하고 과도한 의존의 부정적인 영향을 피하는 데 더 많은 관심을 기울여야합니다.