近年、人工知能(AI)技術が急速に発展し、企業に大きなチャンスをもたらしている一方で、多くのリスクも潜んでいます。 Downcodes の編集者は、企業が生成型 AI リスクにどのように対処すべきかに関するレポートをまとめ、特にネットワーク セキュリティ、AI によるネットワーク詐欺などの観点から、ほとんどの企業が生成型 AI リスクに対する効果的な対応戦略をまだ策定していないと指摘しました。この脅威はますます深刻になっており、企業は注意を払う必要があります。
近年、人工知能(AI)の急速な発展は企業に多くのチャンスをもたらしましたが、同時にその潜在的な脅威もますます明らかになってきています。最新の2024年版「新世代リスクレポート」によると、調査対象企業の80%が、AIを活用したオンライン詐欺などのセキュリティリスクを含む生成型AIリスクに対する特別な対応計画をまだ策定していないことが明らかになった。
この調査はリスク管理ソフトウェア会社リスクコネクトが実施したもので、世界のリスクコンプライアンスとレジリエンスの専門家218人が参加した。その結果、回答者の 24% が、AI によるサイバーセキュリティの脅威 (ランサムウェア、フィッシング、ディープフェイクなど) が今後 12 か月間で企業に大きな影響を与えると考えていることがわかりました。一方、回答者の72%は、サイバーセキュリティリスクが組織に重大または重大な影響を与えていると回答し、昨年の47%から増加しました。
AIの倫理、プライバシー、セキュリティなどの問題に対する懸念が強まる中、報告書は、企業のAIに対する懸念は高まっているものの、リスク管理戦略を適時にフォローできておらず、依然として多くの重要なギャップがあると指摘している。 。たとえば、サードパーティがサイバー詐欺師の一般的な侵入経路であるにもかかわらず、65% の企業はパートナーやベンダーによる生成 AI の使用に関するポリシーを定めていません。
内部の脅威も過小評価することはできません。企業がマーケティング コンテンツを作成するために生成 AI を使用していることを例に挙げ、マーケティング専門家のアンソニー ミヤザキ氏は、生成 AI はテキストの作成には優れていますが、説得力と正確性を確保するには最終的なコピーを手動で編集する必要があることを思い出させました。さらに、AI に依存して Web サイトのコンテンツを生成することは悪影響をもたらす可能性もあります。たとえば、Google は、AI コンテンツが検索プロセスの操作に使用された場合、検索順位が低下し、深刻な影響を与えることを明らかにしています。企業の検索エンジン最適化 (SEO) について。
これらの課題に対処するために、企業は社内ポリシーを包括的に適用し、機密データを保護し、関連する規制を遵守する必要があります。 Del Technology の最高セキュリティ責任者である John Skimoni 氏は、AI アプリケーションの開発が公正、透明性、責任あるものであることを保証するために、生成 AI の流行が起こる前に関連する原則を策定したと述べました。
デジタルマーケティング代理店Empathy First Mediaのライアン・ドーザー副社長も、AI生成ツールへの顧客の機密データの入力の禁止や、AI生成コンテンツの手動レビューの義務化など、従業員のAI利用に関して同社が講じている厳格な措置を強調した。これらの措置は、透明性を高め、顧客の信頼を築くことを目的としています。
全体として、企業は AI 時代に競争力を維持しビジネス セキュリティを確保するために、生成 AI によってもたらされるセキュリティ リスクに積極的に対応し、包括的なリスク管理戦略を策定し、従業員のトレーニングを強化する必要があります。 『Downcodes』編集者は、企業がレポートの提案を参考にし、問題の芽を防ぐために積極的に対策を講じることを推奨しています。