เมื่อเร็ว ๆ นี้การวิจัย Epoch AI ได้ประเมินการใช้พลังงานของ ChatGPT อีกครั้งและผลการวิจัยพบว่าการใช้พลังงานต่ำกว่าความคาดหมายก่อนหน้านี้มาก การศึกษาครั้งนี้ไม่เพียง แต่แก้ไขความเข้าใจผิดของประชาชนเกี่ยวกับการใช้พลังงานของ CHATGPT แต่ยังให้มุมมองใหม่สำหรับการพัฒนาในอนาคตของอุตสาหกรรม AI การวิจัยชี้ให้เห็นว่าการใช้พลังงานเฉลี่ยในปัจจุบันของ CHATGPT นั้นต่ำกว่าการประมาณการก่อนหน้านี้มากซึ่งช่วยขจัดข้อกังวลของสาธารณชนเกี่ยวกับการใช้พลังงานสูงของ AI และส่งเสริมการใช้เทคโนโลยี AI ที่กว้างขึ้น
เมื่อเร็ว ๆ นี้การศึกษาที่จัดทำโดยองค์กรที่ไม่แสวงหาผลกำไร Epoch AI เปิดเผยการใช้พลังงานของ ChatGPT ซึ่งเป็นแพลตฟอร์ม Chatbot ของ OpenAI และผลลัพธ์แสดงให้เห็นว่าการใช้พลังงานของ ChatGPT นั้นต่ำกว่าการประมาณการก่อนหน้านี้มาก จากรายงานบางฉบับระบุว่า ChatGPT ต้องการไฟฟ้าประมาณ 3 วัตต์เพื่อตอบคำถามและการวิจัยยุค AI เชื่อว่าข้อมูลนั้นประเมินค่าสูงเกินไป การวิจัยแสดงให้เห็นว่าเมื่อใช้โมเดลเริ่มต้นล่าสุดของ OpenAI GPT-4O การสืบค้นเฉลี่ยจะใช้ไฟฟ้าเพียง 0.3 วัตต์ชั่วโมงซึ่งเป็นตัวเลขที่ต่ำกว่าการใช้พลังงานของเครื่องใช้ในครัวเรือนจำนวนมาก
Joshua You นักวิเคราะห์ข้อมูลที่ Epoch AI กล่าวว่าความกังวลเกี่ยวกับการใช้พลังงาน AI แบบดั้งเดิมนั้นไม่ได้สะท้อนสถานการณ์ปัจจุบันอย่างถูกต้อง การประมาณ 3 วัตต์ชั่วโมงนั้นขึ้นอยู่กับการวิจัยและสมมติฐานที่ล้าสมัยเป็นหลักเมื่อสมมติฐานคือ OpenAI ใช้ชิปที่มีประสิทธิภาพน้อยกว่า คุณยังชี้ให้เห็นว่าแม้ว่าประชาชนจะมีข้อกังวลที่สมเหตุสมผลเกี่ยวกับการใช้พลังงานในอนาคตของ AI แต่ก็ไม่มีความเข้าใจที่ชัดเจนเกี่ยวกับสถานการณ์ปัจจุบัน
อย่างไรก็ตามคุณยังยอมรับด้วยว่าตัวเลข 0.3 วัตต์ของ Epoch ยังคงเป็นการประมาณเนื่องจาก OpenAI ไม่เปิดเผยข้อมูลการคำนวณการใช้พลังงานโดยละเอียด นอกจากนี้การวิเคราะห์นี้ไม่ได้คำนึงถึงการใช้พลังงานที่เกิดจากฟังก์ชั่นเพิ่มเติมบางอย่างเช่นการสร้างภาพหรือการประมวลผลอินพุต สำหรับการสืบค้นอินพุตนานขึ้นเช่นไฟล์ที่มีไฟล์จำนวนมากคุณระบุว่าการสืบค้นดังกล่าวอาจใช้พลังงานมากขึ้น
แม้จะมีข้อมูลการใช้พลังงานในปัจจุบันต่ำ แต่คุณคาดว่าการใช้พลังงานจะเพิ่มขึ้นในอนาคต เขากล่าวว่าด้วยความก้าวหน้าในเทคโนโลยี AI ความต้องการพลังงานสำหรับการฝึกอบรมแบบจำลองเหล่านี้อาจเพิ่มขึ้นและ AI ในอนาคตอาจทำงานที่ซับซ้อนมากขึ้นซึ่งจะใช้พลังงานมากขึ้น
ในขณะเดียวกันโครงสร้างพื้นฐานของ AI กำลังขยายตัวอย่างรวดเร็วซึ่งจะนำไปสู่ความต้องการไฟฟ้าขนาดใหญ่ ตัวอย่างเช่นตามรายงานของ บริษัท RAND คาดว่าศูนย์ข้อมูล AI อาจต้องใช้การจัดหาไฟฟ้าปี 2022 ของแคลิฟอร์เนียเกือบทั้งหมดในอีกสองปีข้างหน้า ภายในปี 2573 การใช้พลังงานของการฝึกอบรมแบบจำลองที่ทันสมัยจะถึงกำลังขับของเครื่องปฏิกรณ์นิวเคลียร์แปดตัว
Openai และพันธมิตรการลงทุนวางแผนที่จะลงทุนหลายพันล้านในโครงการศูนย์ข้อมูล AI ใหม่ในอีกไม่กี่ปีข้างหน้า ด้วยการพัฒนาเทคโนโลยี AI ความสนใจของอุตสาหกรรมได้เริ่มเปลี่ยนไปใช้โมเดลการอนุมานซึ่งมีความสามารถมากขึ้นเมื่อจัดการงาน แต่ยังต้องใช้กำลังการคำนวณและการสนับสนุนพลังงานมากขึ้น
สำหรับผู้ที่ใส่ใจเกี่ยวกับการใช้พลังงาน AI ของพวกเขาคุณขอแนะนำให้คุณสามารถลดความถี่ในการใช้งานหรือเลือกแบบจำลองที่มีข้อกำหนดด้านคอมพิวเตอร์ที่ต่ำกว่าที่จะใช้
ประเด็นสำคัญ:
การใช้พลังงานเฉลี่ยของ CHATGPT คือ 0.3 วัตต์ชั่วโมงซึ่งต่ำกว่าการประมาณการก่อนหน้านี้ของ 3 วัตต์ชั่วโมง
การเพิ่มขึ้นของการใช้พลังงาน AI ส่วนใหญ่เกี่ยวข้องกับความก้าวหน้าทางเทคโนโลยีในอนาคตและการจัดการงานที่ซับซ้อนมากขึ้น
Openai วางแผนที่จะลงทุนอย่างมากในการขยายศูนย์ข้อมูล AI ในอีกไม่กี่ปีข้างหน้าเพื่อตอบสนองความต้องการไฟฟ้าที่เพิ่มขึ้น
ในระยะสั้นการวิจัย Epoch AI ให้เรามีความเข้าใจที่ชัดเจนขึ้นเกี่ยวกับสถานะการใช้พลังงานในปัจจุบันของ ChatGPT และยังเตือนให้เราใส่ใจกับการเติบโตที่อาจเกิดขึ้นของการใช้พลังงาน AI ในอนาคต ในขณะที่เพลิดเพลินไปกับความก้าวหน้าของเทคโนโลยี AI เรายังต้องสำรวจเทคโนโลยี AI ที่ประหยัดพลังงานมากขึ้นและโครงสร้างพื้นฐานเพื่อให้บรรลุการพัฒนาที่ยั่งยืน