OpenAI는 최근 인공지능 모델의 안전성과 신뢰성을 향상시키기 위해 일련의 주요 이니셔티브를 발표했습니다. 이러한 이니셔티브는 내부 보안 프로세스를 강화하고 고위험 AI 모델의 개발 및 배포에 대한 통제를 강화하여 잠재적인 위험을 최소화하고 AI 기술의 책임감 있는 개발을 보장하도록 설계되었습니다.
인공지능(AI) 기업 오픈AI(OpenAI)는 내부 보안 프로세스를 강화하고 보안자문그룹을 설립했으며 이사회에 고위험 인공지능에 대한 거부권을 부여했다. OpenAI는 모델에 내재된 위험을 평가, 완화 및 결정하는 경로를 명확하게 하기 위해 준비 프레임워크를 업데이트했습니다. 회사는 위험 수준에 따라 모델을 평가하고 그에 따른 완화 조치를 취합니다. 위험도가 높은 것으로 평가된 모델은 배포하거나 추가 개발할 수 없습니다. OpenAI는 또한 전문가 보고서를 검토하고 더 높은 수준의 권장 사항을 제시하기 위해 다기능 보안 자문 그룹을 설립했습니다. 이사회와 경영진은 모델을 출시할지 보류할지 공동으로 결정합니다. OpenAI는 이러한 움직임을 통해 이사회의 인지 또는 승인 없이 고위험 제품이나 프로세스가 승인되는 것을 방지하려고 합니다.
이러한 새로운 조치를 통해 OpenAI는 인공지능 안전 문제를 심각하게 받아들이고 다른 인공지능 기업에 좋은 모범이 된다는 점을 보여줍니다. 이는 인공지능 산업이 보다 안전하고 책임감 있는 개발 및 배포 모델을 적극적으로 모색하여 인공지능 기술의 건전한 발전을 위한 견고한 기반을 마련하고 있음을 의미합니다.