俄亥俄州立大學的一項最新研究表明,ChatGPT 在心理治療回應方面表現出色,其生成的回應得分往往高於專業治療師。這項發表於《PLOS 心理健康》期刊的研究,利用情侶治療的模擬場景,對800多名參與者進行了測試,結果顯示參與者難以區分ChatGPT與人類治療師的回應。研究揭示了ChatGPT回應更長、使用更多名詞和形容詞的特性,這可能與更高的評分有關,引發了人們對人工智能在心理治療領域應用的廣泛思考。
根據2025年2月12日發表在《PLOS 心理健康》期刊上的一項研究,來自俄亥俄州立大學的H. Dorian Hatch 及其團隊發現,ChatGPT 生成的心理治療回應通常被評定得更高。這項研究引發了人們對機器是否能夠擔當心理治療師的廣泛關注,尤其是在生成性人工智能的優勢愈發明顯的背景下。
研究中,研究團隊對800多名參與者進行了測試,展示了18個情侶治療的情景模擬。結果顯示,雖然參與者能夠注意到語言模式的差異,但幾乎無法分辨出回應是由ChatGPT 還是心理治療師撰寫的。這與艾倫・圖靈的預測相呼應,即人類難以辨別機器和人類所寫的回應。更令人驚訝的是,ChatGPT 的回應在心理治療的核心指導原則上普遍得到了更高的評分。
深入分析發現,ChatGPT 生成的回應通常比治療師的回應更長。在控制回應長度的情況下,ChatGPT 的回复仍然使用了更多的名詞和形容詞。名詞通常用於描述人、地點和事物,而形容詞則提供了更多的背景信息,這可能意味著ChatGPT 在為患者提供更多的上下文。這種更廣泛的上下文化可能使得參與者在對心理治療的共同因素的評分中,給予ChatGPT 的回應更高的評價。
研究者認為,這些結果可能表明,ChatGPT 在改善心理治療過程方面具有潛力。未來的研究可能會促成不同的心理治療干預方法的開發。鑑於生成性人工智能在治療環境中的潛在應用日益顯現,作者呼籲心理健康專家提陞技術素養,以確保AI 模型的訓練和監督由負責任的專業人士進行,從而提高心理健康服務的質量和可及性。
研究團隊總結道:“自從近60年前ELIZA 問世以來,研究人員一直在討論AI 能否充當心理治療師。雖然仍有許多重要問題待解,但我們的發現表明答案可能是'可以'。我們希望這項研究能促使公眾和心理從業者思考AI 與心理健康治療整合的倫理、可行性和實用性。”
劃重點:
ChatGPT 的心理治療回應通常獲得更高評分,超過專業心理治療師。
參與者幾乎無法分辨出機器和人類的治療回應。
研究表明,AI 在心理治療中可能發揮積極作用,需加強心理健康專家的技術素養。
這項研究為人工智能在心理健康領域的應用提供了新的視角,也提出了關於倫理、監管和技術素養等重要問題,需要進一步深入研究和探討,以確保人工智能技術能夠安全、有效地應用於心理治療,造福更多患者。