인공 지능 기술의 빠른 발전은 기업에 전례없는 기회를 가져 왔지만 새로운 위험과 도전을 가져 왔습니다. 생성 AI의 증가는 잠재적 인 보안 위험에 특히 관심을 끌었습니다. 이 기사는 생성 AI 위험을 다루는 기업이 직면 한 어려움과 자체 안전 및 규정 준수를 보장하기 위해 효과적인 조치를 취하는 방법을 탐구하기 위해 최신 릴리스 위험 보고서를 분석합니다.
최근 몇 년 동안 인공 지능 (AI)의 빠른 발전은 기업에게 많은 기회를 가져 왔지만 동시에 잠재적 인 위협이 점점 더 명백 해지고 있습니다. 최신 2024 "New Generation Risk Report"에 따르면, 설문 조사에 따르면 설문 조사에 참여한 회사의 최대 80%가 AI 중심 온라인 사기와 같은 보안 위험을 포함하여 생성 AI 위험에 대한 특별 대응 계획을 아직 공식화하지 않았다고합니다.
이 설문 조사는 Risk Management 소프트웨어 회사 인 Risk Connect에 의해 수행되었으며 응답자는 218 개의 글로벌 위험 준수 및 탄력성 전문가를 포함했습니다. 결과는 응답자의 24%가 랜섬웨어, 피싱 및 심층 위조와 같은 AI 중심 사이버 보안 위협이 향후 12 개월 동안 기업에 큰 영향을 미칠 것이라고 생각합니다. 한편 응답자의 72%가 사이버 보안 위험이 조직에 중대한 영향을 미쳤으며 작년 데이터 47%에서 증가했다고 응답했습니다.
AI 윤리, 개인 정보 및 보안에 대한 우려가 강화됨에 따라 보고서는 AI에 대한 회사의 우려가 증가했지만 위험 관리 전략에서 시간이 지남에 따라 추적되지 않았으며 여전히 많은 주요 격차가 있다고 지적했다. 예를 들어, 회사의 65%는 파트너 및 공급 업체에서 생성 AI를 사용하는 정책이 없지만, 제 3자는 사이버 사기꾼에 대한 공통의 침입 채널이지만.
내부 위협을 과소 평가해서는 안됩니다. 마케팅 전문가 Anthony Miyazaki는 생성 AI를 사용하여 마케팅 컨텐츠를 생성하는 예를 들어 생성 AI가 글을 쓰는 데 잘 수행되지만 설득력과 정확성을 보장하기 위해 최종 사본을 수동으로 편집해야합니다. 또한 AI에 의존하여 웹 사이트 컨텐츠를 생성하면 부정적인 영향을 미칠 수 있습니다. Google은 AI 컨텐츠를 사용하여 검색 절차를 줄이면 회사의 검색에 심각한 타격을 줄 수 있습니다. 엔진 최적화 (SEO).
이러한 과제를 해결하기 위해 회사는 내부 정책을 완전히 보장하고 민감한 데이터의 보안을 보장하고 관련 규정을 준수해야합니다. Del Technology의 최고 보안 책임자 인 John Skimoni는 AI 애플리케이션이 공정하고 투명하며 책임이 있는지 확인하기 위해 생성 AI 붐에 앞서 원칙을 공식화했다고 밝혔다.
Ryan Doser 부사장은 공감 제 1 미디어에서 회사가 AI를 사용하여 AI 생성 컨텐츠에 대한 수동 검토가 필요한 생성 AI 도구에 고객에 민감한 데이터의 입력을 금지하는 등 직원들이 AI를 사용하기 위해 회사가 AI를 사용하기 위해 취한 엄격한 조치를 강조했습니다. 이러한 조치는 투명성을 높이고 고객 신뢰를 구축하도록 설계되었습니다.
핵심 사항 :
기업의 80%는 생성 AI 위험에 대한 전문 계획을 개발하지 않았으며 잠재적 인 보안 위험에 직면했습니다.
기업의 72%는 사이버 보안 위험이 그들에게 큰 영향을 미쳤으며 위험 관리 강화를 요구한다고 생각합니다.
기업은 AI 응용 프로그램의 보안 및 준수를 보장하고 내부 및 외부 위협을 피하기 위해 긍정적 인 조치를 취해야합니다.
요약하면, 기업은 생성 AI가 가져온 보안 위험에 적극적으로 대응하고, 완전한 위험 관리 전략을 공식화하며, AI 시대의 경쟁력을 유지하고 건강하게 발전하기 위해 내부 보안 관리를 강화해야합니다. AI 위험을 무시하면 심각한 안전 사고와 경제적 손실이 발생할 수 있습니다.