최근 몇 년 동안 인공지능(AI) 기술이 급속도로 발전하면서 기업에 엄청난 기회를 가져다 주지만 동시에 많은 위험도 도사리고 있습니다. Downcodes의 편집자는 기업이 생성적 AI 위험을 어떻게 처리해야 하는지에 대한 보고서를 작성했습니다. 보고서는 대부분의 기업이 특히 네트워크 보안, AI 기반 네트워크 사기 등의 측면에서 생성적 AI 위험에 대한 효과적인 대응 전략을 아직 수립하지 못했다고 지적했습니다. 위협은 점점 더 심각해지고 있으며 기업의 관심을 받을 만합니다.
최근 몇 년 동안 인공지능(AI)의 급속한 발전은 기업에 많은 기회를 가져왔지만 동시에 잠재적인 위협도 점점 더 분명해지고 있습니다. 최신 2024년 '신세대 리스크 보고서'에 따르면 조사 대상 기업 중 무려 80%가 아직 AI 기반 온라인 사기 등 보안 리스크를 포함한 생성적 AI 리스크에 대한 특별 대응 계획을 수립하지 않은 것으로 나타났다.
위험 관리 소프트웨어 회사인 Riskconnect가 실시한 설문 조사에는 218명의 글로벌 위험 규정 준수 및 탄력성 전문가가 포함되었습니다. 결과에 따르면 응답자의 24%는 AI 기반 사이버 보안 위협(예: 랜섬웨어, 피싱, 딥페이크)이 향후 12개월 내에 기업에 상당한 영향을 미칠 것이라고 믿고 있는 것으로 나타났습니다. 한편, 응답자의 72%는 사이버 보안 위험이 조직에 심각하거나 심각한 영향을 미친다고 답했습니다. 이는 작년의 47%보다 증가한 수치입니다.
보고서는 AI 윤리, 개인 정보 보호, 보안 등의 이슈에 대한 우려가 높아지면서 AI에 대한 기업의 우려가 높아졌음에도 불구하고 위험 관리 전략을 적시에 후속 조치하지 못했으며 여전히 핵심 격차가 많다고 지적했습니다. . 예를 들어, 사이버 사기꾼의 일반적인 진입 경로는 제3자임에도 불구하고 기업의 65%에는 파트너 및 공급업체의 생성 AI 사용과 관련된 정책이 마련되어 있지 않습니다.
내부 위협도 과소평가할 수 없습니다. 마케팅 전문가 앤서니 미야자키(Anthony Miyazaki)는 기업이 마케팅 콘텐츠를 제작하기 위해 생성 AI를 사용하는 경우를 예로 들며, 생성 AI가 텍스트 작성에는 탁월하지만 설득력과 정확성을 보장하려면 최종 사본을 수동으로 편집해야 한다고 상기시켰습니다. 또한 웹 사이트 콘텐츠를 생성하기 위해 AI에 의존하는 것도 부정적인 영향을 미칠 수 있습니다. 예를 들어 Google은 AI 콘텐츠가 검색 프로세스를 조작하는 데 사용되면 검색 순위가 낮아져 심각한 영향을 미칠 것이라고 분명히 밝혔습니다. 기업의 검색엔진 최적화(SEO)에 대해.
이러한 문제를 해결하기 위해 기업은 내부 정책의 포괄적인 적용 범위를 보장하고 민감한 데이터를 보호하며 관련 규정을 준수해야 합니다. Del Technology의 최고 보안 책임자인 John Skimoni는 AI 애플리케이션 개발이 공정하고 투명하며 책임감이 있도록 보장하기 위해 생성 AI 열풍 이전에 관련 원칙을 공식화했다고 말했습니다.
디지털 마케팅 대행사인 Empathy First Media의 Ryan Doser 부사장은 민감한 고객 데이터를 생성 AI 도구에 입력하는 것을 금지하고 AI 생성 콘텐츠를 수동으로 검토하도록 요구하는 등 회사가 직원의 AI 사용에 대해 취한 엄격한 조치를 강조했습니다. 이러한 조치는 투명성을 높이고 고객 신뢰를 구축하기 위해 고안되었습니다.
결국, 기업은 AI 시대에 경쟁력을 유지하고 비즈니스 보안을 보장하기 위해 생성적 AI로 인한 보안 위험에 적극적으로 대응하고, 포괄적인 위험 관리 전략을 수립하고, 직원 교육을 강화해야 합니다. 다운코드 편집장은 기업들이 보고서의 제안 사항을 참고하고, 문제가 발생하지 않도록 적극적으로 조치를 취할 것을 권고합니다.