近年來,人工智慧(AI)技術快速發展,為企業帶來巨大機會的同時,也潛藏著許多風險。 Downcodes小編在此整理了一份關於企業如何應對生成式AI風險的報告解讀,該報告指出,多數企業尚未針對生成式AI風險制定有效應對策略,尤其在網路安全方面,AI驅動的網路詐騙等威脅日益嚴重,值得企業高度重視。
近年來,人工智慧(AI)的快速發展為企業帶來了許多機遇,但同時,其潛在的威脅也日益顯現。根據最新發布的2024《新一代風險報告》,調查顯示,竟有高達80% 的受訪企業尚未針對生成式AI 風險制定專門的應對計劃,這其中包括了AI 驅動的網路詐騙等安全隱患。
調查由風險管理軟體公司Riskconnect 進行,受訪者包括218名全球風險合規與韌性專業人士。結果顯示,24% 的受訪者認為,未來12個月,AI 驅動的網路安全威脅(如勒索軟體、網路釣魚和深度偽造)將對企業產生重大影響。同時,有72% 的受訪者表示,網路安全風險對其組織造成了顯著或嚴重的影響,這一比例較去年47% 的數據有所上升。
隨著對AI 倫理、隱私和安全等問題的關注加劇,報告指出,雖然企業對AI 的擔憂有所增加,但在風險管理策略上卻未能及時跟進,依然存在許多關鍵空白。例如,65% 的公司沒有針對合作夥伴和供應商的生成式AI 使用制定相關政策,儘管第三方是網路詐騙者常用的入侵管道。
內部威脅同樣不可小覷。以企業利用生成式AI 製作行銷內容為例,行銷專家安東尼・宮崎提醒,雖然生成式AI 在撰寫文字方面表現出色,但最終的文案依然需要經過人工編輯,以確保其說服力和準確性。此外,依賴AI 生成網站內容也可能導致負面影響,例如,Google已明確表示,如果利用AI 內容來操控搜尋過程,將會降低其搜尋排名,這對企業的搜尋引擎優化(SEO)將造成嚴重打擊。
為了因應這些挑戰,企業需確保內部政策全面覆蓋,並保障敏感資料的安全並遵循相關法規。德爾科技的首席安全官約翰・斯基莫尼表示,他們在生成式AI 熱潮之前就制定了相關原則,確保AI 應用的發展是公平、透明和負責任的。
在數位行銷機構Empathy First Media,副總裁瑞安・多瑟也強調了公司在員工使用AI 方面採取的嚴格措施,包括禁止將客戶敏感資料輸入生成式AI 工具、要求人工審核AI 生成內容等。這些措施旨在提高透明度,建立客戶信任。
總而言之,企業需積極應對生成式AI帶來的安全風險,制定完善的風險管理策略,並加強員工培訓,才能在AI時代保持競爭力並確保業務安全。 Downcodes小編建議企業參考報告中的建議,積極採取措施,防範於未然。