Dario Amodei ซีอีโอของ Anthropic สตาร์ทอัพด้าน AI มูลค่า 19,000 ล้านเหรียญสหรัฐ กล่าวสุนทรพจน์เกี่ยวกับความเสี่ยงของการพัฒนาปัญญาประดิษฐ์ที่การประชุม AI ที่ซานฟรานซิสโก ซึ่งจุดประกายให้เกิดการอภิปรายอย่างดุเดือด เขาและนายทุนร่วมทุน Marc Andreessen มีความแตกต่างอย่างมีนัยสำคัญในมุมมองของพวกเขาเกี่ยวกับความเสี่ยงของ AI Amodei เชื่อว่าการที่ AI กลายเป็น "คณิตศาสตร์" เป็นเรื่องง่าย และวิพากษ์วิจารณ์คนบางคนที่มองข้ามความเสี่ยงของ AI เขาเชื่อว่าแม้ว่าภัยคุกคามต่อโมเดล AI ในปัจจุบันจะมีจำกัด แต่ด้วยการพัฒนาอย่างรวดเร็วของเทคโนโลยี AI โดยเฉพาะอย่างยิ่งเมื่อมีการเกิดขึ้นของตัวแทน AI ที่ดำเนินการคำสั่งโดยอัตโนมัติ ความเสี่ยงที่อาจเกิดขึ้นไม่สามารถละเลยได้ และจำเป็นต้องสร้างกลไกการควบคุมที่ดีขึ้น สิ่งนี้ทำให้เกิดการอภิปรายเชิงลึกเกี่ยวกับความปลอดภัยและกฎระเบียบของ AI
Dario Amodei ซีอีโอของ Anthropic ซึ่งเป็นสตาร์ทอัพ AI มูลค่า 19 พันล้านดอลลาร์ ให้ข้อมูลเชิงลึกที่กระตุ้นความคิดเกี่ยวกับความเสี่ยงของการพัฒนาปัญญาประดิษฐ์ในการประชุม AI ที่ซานฟรานซิสโกเมื่อวันพุธ แม้ว่าเขาจะเชื่อว่าโมเดล AI ในปัจจุบันไม่ได้เป็นภัยคุกคามต่อมนุษยชาติในทันที แต่เขาก็ได้วิพากษ์วิจารณ์เพื่อนร่วมงานบางคนอย่างรุนแรงที่มองข้ามความเสี่ยงของ AI มากเกินไป
Amodei เปิดตัวการวิเคราะห์ที่ไม่เหมือนใครโดยอิงจากมุมมองของ Marc Andreessen ผู้ร่วมทุนชื่อดัง Andreessen ทวีตเมื่อเดือนมีนาคมปีนี้ว่า "การจำกัด AI เทียบเท่ากับการจำกัดคณิตศาสตร์ ซอฟต์แวร์ และชิป" และเรียกง่ายๆ ว่า AI เป็น "คณิตศาสตร์" ในเรื่องนี้ Amodei ชี้ให้เห็นว่าตรรกะนี้มีข้อบกพร่องโดยพื้นฐาน “ถ้าคุณใช้ตรรกะนี้ สมองของมนุษย์ก็เป็นคณิตศาสตร์ด้วยไม่ใช่หรือ การยิงและการคำนวณของเซลล์ประสาทก็เป็นคณิตศาสตร์เช่นกัน ตามคำกล่าวนี้ เราไม่ควรกลัวฮิตเลอร์ด้วยซ้ำ เพราะนั่นเป็นเพียงคณิตศาสตร์ ทั้งจักรวาลสามารถ ลดเหลือคณิตศาสตร์”
ในฐานะอดีตรองประธานของ OpenAI Amodei จากไปในปี 2021 เพื่อก่อตั้ง Anthropic เขาอยู่ในกลุ่มผู้บริหารเทคโนโลยีที่ได้เตือนต่อสาธารณะถึงความเสี่ยงที่อาจเกิดขึ้นจาก AI และสนับสนุนกฎระเบียบระดับปานกลางของอุตสาหกรรม AI ในความเป็นจริง Anthropic ยังสนับสนุนร่างกฎหมายควบคุม AI ของแคลิฟอร์เนีย แม้ว่าร่างกฎหมายดังกล่าวจะพ่ายแพ้ในที่สุด
ในทางตรงกันข้าม Andreessen ได้ลงทุนในบริษัท AI หลายแห่ง รวมถึง OpenAI และ Xai เขายืนยันว่าเทคโนโลยี AI ควรพัฒนาอย่างไม่หยุดยั้ง แม้จะเรียกกลุ่มเตือนความปลอดภัยของ AI ว่าเป็น "ลัทธิ" และเชื่อว่าการกำกับดูแลของ AI จะนำไปสู่ "ลัทธิเผด็จการใหม่"
แม้ว่า Amodei ยอมรับว่าโมเดล AI ในปัจจุบัน "ไม่ฉลาดพอหรือเป็นอิสระเพียงพอ" ที่จะก่อให้เกิดภัยคุกคามร้ายแรงต่อมนุษย์ แต่เขาเน้นย้ำว่าเทคโนโลยี AI กำลังพัฒนาอย่างรวดเร็ว โดยเฉพาะอย่างยิ่งกับการเกิดขึ้นของ "ตัวแทน" AI ที่สามารถดำเนินการตามคำสั่งของมนุษย์ได้โดยอัตโนมัติ ประชาชนจะตระหนักถึงความสามารถของ AI และอันตรายที่อาจเกิดขึ้นได้มากขึ้น
“ตอนนี้ผู้คนอาจหัวเราะเยาะพฤติกรรมที่คาดเดาไม่ได้ของแชทบอท” Amodei กล่าว “แต่สำหรับตัวแทน AI ในอนาคต เราต้องสร้างกลไกการควบคุมที่ดีขึ้น”
การอภิปรายครั้งนี้ไม่เพียงสะท้อนถึงความแตกต่างในประเด็นด้านความปลอดภัยในชุมชน AI เท่านั้น แต่ยังเน้นย้ำถึงความสำคัญของการค้นหาสมดุลระหว่างนวัตกรรมและการกำกับดูแลในขณะที่ AI พัฒนาอย่างรวดเร็ว ในขณะที่เทคโนโลยีกำลังก้าวหน้าอย่างรวดเร็ว การประเมินอย่างมีเหตุผลและการป้องกันความเสี่ยงที่อาจเกิดขึ้นจะเป็นกุญแจสำคัญในการสร้างความมั่นใจในการพัฒนา AI ที่ดี
มุมมองของ Amodei กระตุ้นให้เกิดความคิดเชิงลึกเกี่ยวกับทิศทางการพัฒนาในอนาคตของ AI และยังเตือนเราว่าในขณะที่เทคโนโลยี AI กำลังพัฒนาอย่างรวดเร็ว เราจำเป็นต้องใส่ใจกับความเสี่ยงที่อาจเกิดขึ้น แสวงหาความสมดุลระหว่างนวัตกรรมและการกำกับดูแล และให้แน่ใจว่า AI มีประโยชน์ต่อมนุษยชาติ