최근 Epoch AI Research는 Chatgpt의 에너지 소비를 재평가했으며 결과는 그 에너지 소비가 이전의 기대보다 훨씬 낮다는 것을 보여주었습니다. 이 연구는 Chatgpt 에너지 소비에 대한 대중의 오해를 교정 할뿐만 아니라 AI 산업의 미래 개발을위한 새로운 관점을 제공합니다. 연구에 따르면 ChatGpt의 현재 평균 에너지 소비는 이전 추정치보다 훨씬 낮아 AI의 높은 에너지 소비에 대한 대중의 우려를 제거하고 AI 기술의 더 넓은 적용을 촉진합니다.
최근 비영리 단체 인 Epoch AI가 수행 한 연구에 따르면 OpenAi의 챗봇 플랫폼 인 ChatGpt의 에너지 소비가 밝혀졌으며 결과는 Chatgpt의 에너지 소비가 이전 추정치보다 훨씬 낮았다는 것을 보여주었습니다. 일부 보고서에 따르면 Chatgpt는 질문에 답하기 위해 약 3 와트의 전기가 필요하며 Epoch AI Research는 데이터가 과대 평가되었다고 생각합니다. 연구에 따르면 OpenAI의 최신 기본 모델 인 GPT-4O를 사용할 때 평균 쿼리는 약 0.3 와트의 전기를 소비하는 것으로 나타났습니다.이 수치는 많은 가정용 가전 제품의 에너지 소비보다 훨씬 낮습니다.
Epoch AI의 데이터 분석가 인 Joshua You는 AI의 에너지 소비에 대한 우려가 전통적으로 현재 상황을 정확하게 반영하지는 않는다고 말했다. 초기 3 와트 시간 추정은 주로 OpenAI가 덜 효율적인 칩을 사용했다고 가정했을 때 주로 일부 구식 연구 및 가정에 기초했습니다. 또한 대중은 AI의 미래 에너지 소비에 대해 합리적인 우려를 가지고 있지만 현재 상황에 대한 명확한 이해는 없다고 지적했다.
그러나 OpenAI가 상세한 에너지 소비 계산 데이터를 공개하지 않기 때문에 Epoch의 0.3 Watt-Hour 그림은 여전히 근사치임을 인정합니다. 또한이 분석은 이미지 생성 또는 입력 처리와 같은 일부 추가 기능으로 인한 에너지 소비를 고려하지 않습니다. 파일이 다량의 파일을 가진 쿼리와 같은 더 긴 입력 쿼리의 경우, 그러한 쿼리가 더 많은 에너지를 소비 할 수 있음을 나타냅니다.
전류 에너지 소비 데이터가 낮음에도 불구하고 앞으로 에너지 소비가 증가 할 것으로 예상됩니다. 그는 AI 기술의 발전으로 이러한 모델을 훈련하기위한 에너지 요구 사항이 증가 할 수 있으며, 향후 AI는 더 복잡한 작업을 수행하여 더 많은 전력을 소비 할 수 있다고 언급했습니다.
한편, AI 인프라는 빠르게 확장되어 전기 수요가 많을 것입니다. 예를 들어, RAND Company의 보고서에 따르면 AI 데이터 센터는 향후 2 년 동안 거의 모든 캘리포니아의 2022 전기 공급을 요구할 것으로 예상됩니다. 2030 년까지 최첨단 모델 훈련의 에너지 소비는 8 개의 원자로의 전력 출력에 도달 할 것입니다.
OpenAI와 그 투자 파트너는 향후 몇 년간 새로운 AI 데이터 센터 프로젝트에 수십억을 투자 할 계획입니다. AI 기술의 발전으로 업계의 관심은 추론 모델로 전환되기 시작했으며, 이는 작업을 처리 할 때 더 능력이 있지만 더 많은 컴퓨팅 전력 및 전력 지원이 필요합니다.
AI 에너지 소비에 관심이있는 사람들의 경우 사용 빈도를 줄이거 나 컴퓨팅 요구 사항이 낮은 모델을 선택할 수 있습니다.
핵심 사항 :
Chatgpt의 평균 에너지 소비는 0.3 와트 시간이며, 이는 3 와트 시간의 초기 추정치보다 훨씬 낮습니다.
AI 에너지 소비의 증가는 주로 미래의 기술 발전 및보다 복잡한 작업의 처리와 관련이 있습니다.
OpenAI는 향후 몇 년 동안 증가하는 전기 수요를 충족시키기 위해 AI 데이터 센터를 확장하는 데 많은 투자를 할 계획입니다.
요컨대, Epoch AI Research는 ChatGpt의 현재 에너지 소비 상태에 대한 명확한 이해를 제공하며 향후 AI 에너지 소비의 잠재적 성장에주의를 기울 이도록 상기시켜줍니다. AI 기술의 발전을 즐기면서 지속 가능한 개발을 달성하기 위해보다 에너지 효율적인 AI 기술 및 인프라를 적극적으로 탐색해야합니다.