Anthropic은 새로운 AI 모델 벤치마크 개발에 자금을 지원하기 위한 야심찬 계획을 발표했습니다. 이 프로그램은 AI 안전 및 사회적 영향과 같은 중요한 측면에 특히 주의를 기울여 AI 모델 성능 및 영향에 대한 평가를 개선하는 것을 목표로 합니다. 이러한 움직임은 실제 애플리케이션 시나리오를 효과적으로 포착할 수 없고 측정 대상을 정확하게 측정하지 못하는 등 기존 벤치마크의 단점을 해결하기 위한 것입니다. Anthropic은 사이버 공격, 무기 강화, 정보 조작 등에서 AI 모델의 기능을 평가하고 과학 연구, 다국어 통신 및 기타 분야에서 AI의 잠재력을 탐색하기 위해 보다 까다로운 벤치마크 테스트의 개발을 요구합니다. 이는 AI의 역량과 위험성에 대한 보다 포괄적인 이해를 제공하고 AI 보안 분야의 발전을 촉진하는 데 도움이 될 것입니다.
Anthropic은 제3자 조직에 재정적 지원을 제공하여 이들이 보다 효과적인 평가 방법을 개발하도록 장려할 것입니다. 이 프로그램은 전반적인 AI 안전 분야를 개선하고 포괄적인 AI 평가를 업계 표준으로 장려하려는 Anthropic의 노력을 반영합니다. 그러나 Anthropic의 사업적 이익을 고려할 때 계획의 객관성과 공정성은 여전히 더 많이 고려되어야 합니다. 앞으로 프로그램의 성공 여부는 자금과 인력의 투자, 유관기관과의 협력 정도에 달려 있다.