เมื่อเร็ว ๆ นี้ บรรณาธิการของ Downcodes ได้เรียนรู้ว่าการฟ้องร้องระหว่าง Elon Musk และ Sam Altman เปิดเผยอีเมลภายในของ OpenAI ในช่วงแรก ๆ โดยไม่ได้ตั้งใจ ซึ่งเผยให้เห็นถึงการต่อสู้แย่งชิงอำนาจอย่างดุเดือดระหว่างผู้ก่อตั้งบริษัทเกี่ยวกับการควบคุมปัญญาประดิษฐ์ เนื้อหาของอีเมลทำให้เกิดความกังวลอย่างกว้างขวางเกี่ยวกับทิศทางการพัฒนาในอนาคตและความปลอดภัยของปัญญาประดิษฐ์ โดยเฉพาะอย่างยิ่งปัญหาการควบคุมปัญญาประดิษฐ์ระดับมนุษย์ (AGI) ในอีเมล Ilya Suzkovel ผู้ร่วมก่อตั้ง OpenAI แสดงความกังวลเกี่ยวกับการควบคุม AI ที่มากเกินไปของ Musk โดยเชื่อว่าสิ่งนี้อาจนำไปสู่ความเสี่ยงของการเผด็จการ AGI และเรียกร้องให้มีการสร้างกลไกที่เหมาะสมเพื่อป้องกันไม่ให้สิ่งนี้เกิดขึ้น
หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และผู้ให้บริการอนุญาตรูปภาพ Midjourney
ในอีเมลถึง Musk และ Altman ในเดือนกันยายน 2017 Suzkowir ชี้ให้เห็นว่าความปรารถนาในการควบคุมของ Musk อาจเป็นภัยคุกคามต่อปัญญาประดิษฐ์ระดับมนุษย์ (AGI) ในอนาคต เขาเน้นย้ำในอีเมลว่า "โครงสร้างปัจจุบันเป็นหนทางให้คุณสามารถควบคุม AGI อย่างสมบูรณ์ฝ่ายเดียวได้ในที่สุด" แม้ว่า Musk จะบอกว่าเขาไม่ต้องการควบคุม AGI ขั้นสุดท้าย แต่ Suzkville เชื่อว่าพฤติกรรมของเขาแสดงให้เห็นถึงการมุ่งเน้นที่สัมบูรณ์ ควบคุม.
โดยเฉพาะอย่างยิ่ง อีเมลดังกล่าวมาไม่ถึงหกเดือนหลังจากที่ Musk ลาออกจาก OpenAI เนื่องจากไม่เห็นด้วยกับวิธีการระดมทุนของบริษัท Sutskower ชี้แจงข้อกังวลของเขาอย่างชัดเจนในอีเมล โดยกล่าวว่า "ในขณะที่บริษัทมีความก้าวหน้าอย่างแท้จริงกับ AGI คุณอาจเลือกที่จะรักษาการควบคุมบริษัทโดยเด็ดขาด แม้ว่านั่นจะไม่ใช่ความตั้งใจของคุณในปัจจุบันก็ตาม"
ในช่วงครึ่งหลังของอีเมล Suzkwer ชี้ให้เห็นเพิ่มเติมว่าเป้าหมายของ OpenAI คือการสร้างอนาคตที่ดีกว่า และหลีกเลี่ยงการเกิดขึ้นของเผด็จการ AGI เขากล่าวถึงข้อกังวลของ Musk ที่ว่า Demis Hassabis ผู้ก่อตั้ง Google DeepMind อาจสร้างเผด็จการ AGI และเชื่อว่าข้อกังวลนี้สมเหตุสมผล ดังนั้นเขาจึงเรียกร้องให้สร้างโครงสร้างที่จะป้องกันไม่ให้ Musk กลายเป็นเผด็จการ โดยเฉพาะอย่างยิ่งในบริบทของเทคโนโลยีที่ทำให้เป็นไปได้นี้
เนื้อหาของอีเมลมีความโดดเด่นเป็นพิเศษในวันนี้ เนื่องจากเผยให้เห็นว่าปัญหาการควบคุมเป็นหัวข้อที่ซับซ้อนและละเอียดอ่อนเมื่อพูดถึงการสร้างปัญญาประดิษฐ์ด้วยปัญญาของมนุษย์ เมื่อเวลาผ่านไป Suzkowir เองก็ออกจาก OpenAI เพื่อก่อตั้งบริษัทใหม่ที่เน้นเรื่องความปลอดภัยของปัญญาประดิษฐ์ ซึ่งเป็นการเปลี่ยนแปลงที่เพิ่มน้ำหนักให้กับเนื้อหาของอีเมล
การเปิดเผยอีเมลนี้เตือนเราอีกครั้งว่าในขณะที่ปัญญาประดิษฐ์พัฒนาอย่างรวดเร็ว การใส่ใจกับจริยธรรมทางเทคนิคและความปลอดภัยจึงเป็นสิ่งสำคัญ เราจำเป็นต้องสร้างกลไกที่ดีกว่าเพื่อให้แน่ใจว่าเทคโนโลยีปัญญาประดิษฐ์จะเป็นประโยชน์ต่อมนุษยชาติ แทนที่จะกลายเป็นเครื่องมือที่คุกคามอนาคตของมนุษยชาติ บรรณาธิการของ Downcodes จะยังคงให้ความสนใจกับการพัฒนาล่าสุดในด้านปัญญาประดิษฐ์ และนำข้อมูลอันมีค่ามาสู่ผู้อ่าน