谷歌的AI計畫Gemini近期因其內部新規而引發爭議。據報道,負責評估Gemini生成內容的外包人員被要求評估那些他們並不具備專業知識的領域,尤其是在醫療健康等敏感領域,引發了對Gemini資訊準確性的擔憂。這項政策調整直接影響了外包人員的工作,也間接影響了Gemini的評估品質。
近日,Google旗下的AI 專案Gemini 因其內部新規引發了對資訊準確性的擔憂。據報道,負責評估AI 生成內容的外包人員被要求對他們不具備專業知識的領域進行評分,尤其是在醫療健康等敏感話題上。
這些外包人員來自於全球技術服務公司GlobalLogic,Google要求他們評估AI 生成的回复,主要考慮「真實性」 等因素。先前,外包人員可以選擇跳過那些他們沒有相關專業知識的問題,例如,他們可以在遇到心臟病學的專業問題時,選擇不作評估。這樣做是為了確保評分的準確性,只有具備相關背景的人員才能進行有效評估。
然而,上週GlobalLogic 宣布了谷歌的最新要求,外包人員現在不再被允許跳過這類專業領域的問題,而是被要求對他們理解的部分進行評分,並說明他們缺乏相關領域的知識。這項變更引發了外包人員的廣泛擔憂,他們認為這種做法可能會影響Gemini 在某些複雜話題上的準確性。
例如,一些外包人員在內部通訊中提到,先前的跳過選項是為了提高評分的準確性,然而新規的實施卻使得他們必須評估一些自己毫無經驗的問題,如罕見疾病等。內部郵件顯示,原本的規定是:“如果你對這個任務沒有必要的專業知識,請跳過。” 而新規定則是:“不應跳過需要專業知識的提示。” 這一政策的轉變,讓外包人員感到不安。
在新規下,外包人員只能在兩種情況下跳過評估任務:一種是完全缺失訊息,例如缺少完整的提示或回复;另一種是內容可能有害,需要特殊同意才能進行評估。雖然這些新規旨在提升Gemini 的效能,但卻可能在實際操作中影響其對複雜話題的理解與回饋。
谷歌方面對此事並未做出回應,而外包人員的擔憂也逐漸發酵。
劃重點:
外包人員被要求評估他們不具備專業知識的AI 生成回复,尤其是醫療等敏感領域。
新規取消了「跳過」 選項,要求外包人員在缺乏專業知識的情況下仍需評分。
這項政策可能影響Gemini 在複雜議題上的準確性,引發外包人員的不安與擔憂。
谷歌對Gemini新規的回應遲遲未至,外包人員的擔憂持續發酵,這使得Gemini的未來發展面臨新的挑戰。 對AI模型的準確性評估方法需要進一步完善,以確保AI技術的可靠性和安全性。