인공 지능 기술의 빠른 진보는 기술 산업의 구조를 재구성하고 있으며, 많은 기술 거대 기업들은 "AI 에이전트"시스템의 연구 개발 및 배치에 전념했습니다. 이러한 지능형 시스템은 지속적인 인간 개입이 필요없이 독립적으로 복잡한 작업을 수행하여 전례없는 자동화 잠재력을 보여줍니다. Microsoft 및 Anthropic과 같은 회사는 각각의 AI 프록시 솔루션을 시작했습니다 결정. .
권위있는 기술 미디어 "정보"에 따르면, Openai의 신중한 태도는 주로 "신속한 주입"공격에 대한 우려에서 비롯됩니다. 이 새로운 유형의 사이버 공격은 AI 시스템이 악의적 인 지침을 실행하도록 유도하여 심각한 보안 위험을 초래할 수 있습니다. 예를 들어, 사용자가 AI 에이전트가 온라인 쇼핑을 허가 할 때 시스템은 악의적 인 웹 사이트에 액세스하고 사용자 이메일 정보 또는 신용 카드 데이터를 훔치는 것과 같은 위험한 작업을 수행하도록 유도 될 수 있습니다. 이 보안 취약점은 사용자 개인 정보 유출로 이어질 수있을뿐만 아니라 OpenAI의 브랜드 명성에 돌이킬 수없는 손상을 유발할 수 있습니다.
AI 프록시 시스템의 독특한 점은 컴퓨터를 독립적으로 운영 할 수있어 기존 AI 시스템보다 훨씬 더 많은 보안 위험에 직면한다는 것입니다. 해킹되면이 에이전트는 사용자의 디지털 자산에 체계적인 손상을 일으킬 수 있습니다. OpenAI 내부 기술자는 모든 대형 언어 모델이 공격을받을 가능성이 있지만 AI 에이전트의 자율적 특성은 이러한 위험을 크게 증폭 시킨다고 인정했습니다.
공격 주입의 위협은 근거가 없으며이 위험은 다른 플랫폼에서 완전히 검증되었습니다. 작년 사이버 보안 전문가는 Microsoft의 Copilot AI 시스템을 조작하여 이메일 컨텐츠 및 은행 거래 기록을 포함한 조직의 기밀 정보를 유출하는 방법을 성공적으로 보여주었습니다. 더욱 충격적인 것은 공격자가 보안 보호 측면에서 AI 시스템의 취약성을 강조하면서 특정 직원의 작문 스타일을 모방하는 가짜 이메일을 보낼 수 있다는 것입니다.
Openai의 주력 제품인 Chatgpt는 또한 신속한 주입 공격으로 테스트되었습니다. 연구원들은 타사 파일 (예 : Word Documents)을 업로드하여 허위 "메모리"를 성공적으로 이식 했으며이 실험은 AI 시스템에서 잠재적 인 취약점을 완전히 노출 시켰습니다. 이러한 심각한 보안 문제에 직면 한 Openai 팀은 AI 요원을 발표했을 때 경쟁 업체의 인류의 느슨한 태도에 놀라움을 표명했습니다. Anthropic은 개발자에게 점점 더 복잡한 사이버 위협을 다루기가 어려운 비교적 간단한 보안 조치 인 "Claude를 민감한 데이터로부터 분리하기위한 조치를 취하도록 조언합니다.
OpenAI는 이번 달에 AI 프록시 제품을 출시 할 수 있다고보고되었습니다. 그러나 업계에서 일반적인 관심사의 문제는 다음과 같습니다. 개발 팀이 충분히 강력한 보안 보호 시스템을 구축 할 수있는 충분한 시간이 있습니까? AI 기술의 빠른 발전으로 혁신과 보안의 균형을 찾는 방법은 모든 AI 회사가 직면 한 중요한 문제가 될 것입니다.
핵심 포인트 :
OpenAI는 AI 시스템의 잠재적 위험을 강조하면서 공격 주입의 보안 위험으로 인해 AI 에이전트의 방출을 지연 시켰습니다.
Microsoft 및 Anthropic과 같은 회사는 AI 에이전트 제품을 출시했지만 보안 보호 조치는 여전히 불충분합니다.
OpenAi는 점점 더 복잡한 사이버 위협을 처리하기 위해 제품의 보안 성능을 향상시키기 위해 노력하고 있습니다.