OpenAI는 최근 일반 인공 지능(AGI)에서 대규모 언어 모델의 진행 상황을 추적하기 위한 내부 규모를 발표했습니다. 이러한 움직임은 AGI 분야에서 OpenAI의 야망을 보여줄 뿐만 아니라 AI 개발을 측정하기 위한 새로운 표준을 업계에 제공합니다. 이 척도는 AGI 구현을 오늘날의 챗봇부터 전체 조직의 작업을 수행할 수 있는 AI까지 5가지 수준으로 나눕니다. 각 수준은 AI 역량의 상당한 향상을 나타냅니다. Downcodes의 편집자는 이에 대해 자세히 설명하고 그 중요성과 잠재적 영향을 분석할 것입니다.
Bloomberg에 따르면 OpenAI는 일반 인공 지능(AGI)에서 대규모 언어 모델의 진행 상황을 추적하기 위해 내부 척도를 만들었습니다. 이러한 움직임은 AGI 분야에서 OpenAI의 야망을 보여줄 뿐만 아니라 AI 개발을 측정하기 위한 새로운 표준을 업계에 제공합니다.
규모는 5가지 수준으로 구분됩니다. 1. 수준 1: ChatGPT와 같은 현재의 챗봇이 이 수준에 속합니다. 2. 레벨 2: 박사 수준의 기본적인 문제를 해결할 수 있는 시스템입니다. OpenAI는 이 수준에 가깝다고 주장합니다. 3. 레벨 3: 사용자를 대신하여 조치를 취할 수 있는 AI 에이전트. 4. 레벨 4: 새로운 혁신을 창출할 수 있는 AI. 5. 레벨 5: 전체 조직의 업무를 수행할 수 있고 AGI 달성을 위한 마지막 단계로 간주되는 AI입니다.
그러나 전문가들은 AGI 구현 일정에 동의하지 않습니다. OpenAI CEO인 Sam Altman은 2023년 10월 AGI가 아직 5년이나 남았다고 말했습니다. 그러나 AGI가 실현되더라도 컴퓨팅 리소스에 수십억 달러의 투자가 필요합니다.
이 점수 표준의 발표는 생물학적 연구를 지원하기 위해 고급 AI 모델(예: GPT-4)을 안전하게 사용하는 방법을 탐색하기 위해 Los Alamos 국립 연구소와 협력하겠다는 OpenAI의 발표와 일치한다는 점은 주목할 가치가 있습니다. 이번 협력의 목표는 향후 다양한 AI 모델을 테스트하는 데 사용할 수 있는 미국 정부를 위한 일련의 안전성 및 기타 평가 요소를 확립하는 것입니다.
OpenAI는 이러한 내부 수준에 모델이 할당되는 방법에 대한 세부 정보 제공을 거부했지만 Bloomberg는 회사 경영진이 최근 GPT-4 AI 모델을 사용한 연구 프로젝트를 시연했으며 이 프로젝트가 인간 추론 능력과 유사한 몇 가지 새로운 기술을 보여주었다고 주장했습니다.
AGI 진행 상황을 정량화하는 이 방법은 AI 개발에 대한 보다 엄격한 정의를 제공하고 주관적인 해석을 피하는 데 도움이 됩니다. 그러나 AI 안전과 윤리에 대한 우려도 제기됩니다. 지난 5월 OpenAI는 보안팀을 해산했으며 일부 전직 직원은 회사의 보안 문화가 제품 개발에 뒷전으로 밀려났다고 말했지만 OpenAI는 이를 부인했습니다.
OpenAI의 움직임은 AGI 연구에 새로운 방향과 표준을 제공하지만 보안과 윤리에 대한 우려도 제기합니다. AGI의 최종 실현은 여전히 불확실하며 지속적인 관심과 주의가 필요합니다. AI의 향후 발전 방향은 이러한 규모와 관련 연구에 영향을 받을 것이며 지속적인 관심이 필요하다.