OpenAI 最近宣布了一項重大政策更新,旨在改變其人工智能模型的訓練方式,並特別強調“知識自由”的重要性。這一政策意味著,無論話題多麼具有挑戰性或爭議性,ChatGPT 都將能夠更全面地回答問題,提供更多視角,減少拒絕討論某些話題的情況。這一變化標誌著OpenAI 在推動人工智能透明度和開放性方面的進一步努力。
在新的187頁模型規範中,OpenAI 提出了一個核心指導原則:不要撒謊,既不要發表不真實的陳述,也不要省略重要的上下文。此外,OpenAI 新增了一個名為“共同尋求真相”的部分,明確表示ChatGPT 在面對爭議性話題時應保持中立,不偏向任何一方。例如,在討論“黑人的命也是命”與“所有人的命也是命”時,ChatGPT 將盡量呈現雙方的觀點,而不是拒絕回答或選擇立場。
儘管OpenAI 堅稱其不進行“審查”,但部分保守派人士認為,OpenAI 在過去數月中確實存在內容審查的問題,尤其是在他們認為AI 的偏見明顯傾向於中左派的情況下。 OpenAI 首席執行官山姆·阿爾特曼(Sam Altman)也公開承認,ChatGPT 的偏見是一個需要解決的“缺陷”。這一表態反映了OpenAI 在平衡自由言論與技術中立性方面的挑戰。
然而,OpenAI 的新政策並非無底線,ChatGPT 仍會拒絕回答某些明顯錯誤或不當的問題。隨著政策的調整,OpenAI 希望用戶能夠獲得更多的言論自由,甚至移除了對違反政策用戶的警告提示。這一舉措被視為減少用戶感受到的“審查”壓力的嘗試,同時也引發了關於如何在自由與安全之間找到平衡的討論。
在更大的背景下,矽谷的價值觀正在經歷顯著轉變。許多公司開始縮減過去以多樣性、公平與包容性為核心的政策,OpenAI 似乎也在逐步放棄這些立場。正如其他大型科技公司一樣,OpenAI 正面臨著與新特朗普政府的關係影響,以及在信息領域與穀歌等競爭對手的激烈競爭。這一趨勢反映了科技行業在政治和社會壓力下的調整。
在這個充滿爭議與挑戰的環境中,如何平衡自由言論與內容的安全性,成為了OpenAI 及其他科技公司的重要議題。隨著人工智能技術的不斷發展,OpenAI 的政策更新不僅影響其自身的發展方向,也可能對整個科技行業的未來產生深遠影響。如何在技術進步與社會責任之間找到平衡,將是OpenAI 和其他科技公司需要持續探索的課題。