Meta는 새로운 최첨단 AI 위험 정책 프레임 워크를 발표하여 최첨단 AI 모델의 위험을 줄이고 위험 수준에 따라 해당 제어 조치를 취하기위한 것입니다. 이 프레임 워크는 AI 모델을 위험성과 키 위험의 두 가지 범주로 나누고 개발 중지, 액세스 권한 제한 등과 같은 다양한 레벨에 대한 해당 전략을 공식화합니다. 이 움직임은 AI 개발의 보안 및 투명성을 개선하고 생물학적 무기 확산 및 경제 사기와 같은 잠재적 위협을 예방하는 것을 목표로합니다.
Meta는 최근에 최첨단 AI 모델을 통해 발생하는 위험을 평가하고 줄이고 필요한 경우 이러한 시스템의 출시를 개발하거나 제한하는 새로운 위험 정책 프레임 워크를 발표했습니다. 프론티어 AI 프레임 워크 (Frontier AI Framework)라고 불리는 프레임 워크는 메타가 AI 모델을 위험이 높은 두 가지 범주로 나누는 방법에 대해 자세히 설명하며, 이에 따라 "허용 가능한 수준"으로 위험을 줄이기 위해 해당 조치를 취합니다.
이 프레임 워크에서 중요한 위험은 특정 위협 시나리오의 실행을 고유하게 촉진 할 수있는 것으로 정의됩니다. 위험이 높다는 것은 모델이 위협 시나리오를 달성 할 가능성을 크게 증가시킬 수 있지만 실행을 직접 촉진하지는 않습니다. 위협 시나리오에는 알려진 생물학적 요원과 비교할 수있는 능력과 대규모 장기 사기 및 사기로 인한 개인 또는 회사에 대한 광범위한 경제적 피해가있는 생물학적 무기의 확산이 포함됩니다.
중요한 위험 임계 값을 충족하는 모델의 경우 Meta는 개발을 중단하고 몇몇 전문가에게만 모델에 대한 공개 액세스를 중단하는 동시에 해커 나 데이터 위반이 기술적으로나 상업적으로 가능한 경우 보안 보호를 구현합니다. 고위험 모델의 경우 Meta는 액세스를 제한하고 위험을 완화하여 위험을 중간 수준으로 줄여서 모델이 위협 시나리오의 실행 능력을 크게 향상시키지 않도록합니다.
메타는 위험 평가 과정에는 여러 측면에 대한 의견이 완전히 고려되도록 여러 분야의 전문가와 내부 회사 리더가 포함될 것이라고 말했다. 이 새로운 프레임 워크는 현재 기술 수준과 일치하거나 초과하는 회사의 최첨단 모델 및 시스템에만 적용됩니다.
Meta는 고급 AI 시스템 개발 방법을 공유함으로써 투명성을 향상시키고 AI 평가 및 위험 정량 과학에 대한 외부 토론 및 연구를 촉진 할 수 있기를 희망합니다. 동시에 회사는 AI 평가를위한 의사 결정 프로세스가 테스트 환경의 결과가 실제 운영에서 모델의 성능을 진정으로 반영 할 수 있도록 기술 개발을 통해 계속 발전하고 개선 될 것이라고 강조했다.
핵심 사항 :
Meta는 새로운 위험 정책 프레임 워크를 시작하여 최첨단 AI 모델의 위험을 평가하고 줄입니다.
주요 위험 모델은 중단되며 전문가 액세스가 제한됩니다.
위험 평가 과정에는 여러 분야의 전문가가 포함되어 투명성과 과학을 개선하기 위해 노력합니다.
Meta의 새로운 프레임 워크는 책임있는 AI 개발에 대한 약속을 반영하여 향후 AI 모델의 개발 및 배치에 대한 높은 보안 표준을 설정합니다. 이는 AI 기술의 잠재적 위험을 줄이는 데 도움이 될뿐만 아니라 업계에 귀중한 경험과 참조를 제공합니다.