Anthropic公司為其Claude AI系列模型推出了一項名為“Citations”的新功能,旨在增強AI生成的答案的透明度和可追溯性。 “Citations”能夠自動提供AI答案的來源,包括精確的句子和段落引用,從而提高答案的可信度,減少AI模型“幻覺”現象。這項新功能已在Anthropic的API和Google的Vertex AI平台上上線,為開發者提供了更可靠的AI工具。
為了加強其AI模型的透明性和可追溯性,Anthropic於週四宣布推出一項新功能——Citations。該功能旨在幫助開發者在通過Claude AI系列生成的答案中,提供來自源文檔的精確引用,包括句子和段落。這一創新功能首次推出後,立即在Anthropic的API和Google的Vertex AI平台上提供支持。
Citations功能:提高文檔透明度與準確性
根據Anthropic的介紹,Citations功能可以自動為開發者提供AI模型生成的答案來源,引用源文檔中的確切句子和段落。這一功能尤其適用於文檔摘要、問答系統以及客戶支持應用程序,能夠增強回答的可信度與透明度。通過引入源文獻,開發者能夠更清晰地了解AI模型的推理過程,減少“幻覺”現象(即AI生成的無依據或錯誤信息)。
適用範圍和定價
儘管Citations功能的推出引發了廣泛關注,但目前僅限於Anthropic的Claude3.5Sonnet和Claude3.5Haiku模型使用。此外,該功能並非免費的,Anthropic會根據源文檔的長度和數量收取相應費用。例如,約100頁的源文檔,使用Claude3.5Sonnet時的費用大約為0.30美元,使用Claude3.5Haiku時則為0.08美元。這對於那些希望減少AI生成錯誤和不准確內容的開發者來說,可能是一個值得投資的選項。
Citations:應對AI幻覺與錯誤的有效工具
Citations的推出無疑增強了Anthropic在AI生成內容領域的競爭力,特別是在解決AI模型“幻覺”問題方面。 AI的幻覺問題一直是開發者和用戶面臨的挑戰之一,而Citations功能則為AI生成內容的可靠性提供了更多保障,確保開發者能夠清楚地看到AI生成內容的來源。通過這種方式,Anthropic不僅提高了產品的透明度,還為開發者提供了更多工具,以確保生成的內容更加精準和可驗證。
總結
隨著AI技術的不斷發展,透明性和可追溯性越來越成為用戶和開發者關注的焦點。 Anthropic推出的Citations功能,正是回應這一需求,為開發者提供了更高層次的控制和確保AI內容正確性的能力。未來,這一功能或將成為AI開發工具中的標準配置,推動整個行業向著更加可信賴的方向發展。
總而言之,Anthropic 的Citations 功能是朝著提高AI 模型透明度和可靠性邁出的重要一步,有助於減少AI 幻覺,並為開發者提供更可靠的工具。 這將有助於推動AI 技術的健康發展。