近日,微軟研究院和卡內基梅隆大學的研究人員合作,發布了一項關於知識工作者使用生成式AI(如Copilot和ChatGPT)的調查研究。該研究通過對319位每週使用生成式AI的知識工作者進行調研,深入探討了生成式AI對使用者批判性思維能力的影響,並揭示了其中一些令人擔憂的現象。研究結果表明,AI工具的便利性與使用者批判性思維能力之間存在微妙的平衡關係,過度依賴AI可能導致批判性思維能力的下降,這值得我們深入思考和探討。
近日,微軟研究院與卡內基梅隆大學的研究人員聯合發布了一項新研究,揭示了知識工作者在使用生成性人工智能(如C opilot 和ChatGPT)時的潛在問題。研究小組通過對319名每週使用生成性AI 的知識工作者進行調查,探討了他們在使用這些工具時的批判性思維應用情況。
研究結果顯示,那些對任務充滿信心的工作者,更傾向於對生成性AI 的輸出進行批判性思考。然而,對於那些對任務缺乏信心的人,他們往往會認為生成性AI 的回答是足夠的,因此不會再進行深入思考。這種現象引發了研究人員的關注,他們指出,過度依賴AI 工具可能會導致批判性思維能力的下降。
研究中提到,“對AI 的信任與減少批判性思考的努力相關,而自信心則與增強批判性思考相關。” 這意味著在設計企業AI 工具時,應考慮如何平衡這兩種因素。研究者建議,AI 工具應當包含支持長期技能發展的機制,鼓勵用戶在與AI 生成的輸出互動時進行反思性思考。
與此同時,研究者提到,僅僅解釋AI 是如何得出結論的並不足夠,好的AI 工具還應通過主動的設計策略來促進用戶的批判性思考,提供必要的幫助。他們強調,知識工作者應該在日常工作中運用批判性思維來驗證AI 的輸出,避免對AI 的過度依賴。
研究的結論強調,隨著AI 逐漸融入我們的工作世界,知識工作者需要在信息收集和問題解決的基礎技能上保持一定的能力,以防止對AI 的過度依賴。他們應當接受培訓,發展信息驗證、回答整合和任務管理等技能。
該研究的論文將於2025年人機交互會議上發布,研究團隊希望藉此引起對生成性AI 影響的廣泛關注。
劃重點:
研究顯示,對生成性AI 的信任可能會導致知識工作者的批判性思維能力下降。
自信心與批判性思維成正比,企業AI 工具的設計需關注這一平衡。
知識工作者應接受培訓,維護基礎信息收集與問題解決能力,以避免過度依賴AI。
這項研究對於在AI時代如何有效利用AI工具,同時保持和提升自身批判性思維能力具有重要的指導意義。 未來,在AI工具的設計和應用中,更應注重培養用戶批判性思維,避免過度依賴帶來的負面影響。