根據ISACA進行的一項全球調查,亞洲地區有三成企業尚未制定生成式人工智能(AI)的相關政策。這一數據揭示了亞洲企業在AI治理方面的滯後性,尤其是在生成式AI技術快速發展的背景下,企業亟需建立相應的政策框架來規範AI的使用。
調查顯示,65%的受訪者認為敵對勢力已經成功地利用了AI技術。這一結果反映了全球範圍內對AI技術被濫用的擔憂,尤其是在網絡安全和信息戰領域,AI技術的潛在威脅不容忽視。亞洲企業需要加強對此類風險的防範和應對能力。
儘管缺乏明確的政策支持,許多亞洲企業的員工已經開始廣泛使用生成式AI技術,其用途多樣化,涵蓋了從內容創作到數據分析等多個領域。這種自發的應用趨勢表明,生成式AI技術在實際業務中具有廣泛的潛力和價值,但同時也凸顯了企業製定相關政策的緊迫性。
亞洲企業對AI的道德問題和潛在風險存在一定的擔憂,包括隱私保護、數據安全以及算法偏見等。然而,大多數企業仍然對AI技術持樂觀態度,認為其將對企業產生積極或中性的影響。這種樂觀情緒可能源於AI技術在提升效率、創新業務模式等方面的顯著優勢。
總體而言,亞洲企業在生成式AI技術的應用和管理方面面臨著機遇與挑戰並存的局面。未來,企業需要在製定AI政策、加強風險管理和推動技術創新之間找到平衡,以確保AI技術的健康發展,並為企業和社會帶來更多積極的影響。