Ilya Sutskever นักวิทยาศาสตร์ชื่อดังในสาขาปัญญาประดิษฐ์ ประสบความสำเร็จอย่างมากกับบริษัทใหม่ของเขา Safe Superintelligence (SSI) และได้รับเงินทุนจำนวนมหาศาล 1 พันล้านดอลลาร์สหรัฐ โดยบริษัทมีมูลค่า 5 พันล้านดอลลาร์สหรัฐ เป็นที่น่าสังเกตว่า SSI เสร็จสิ้นการจัดหาเงินทุนนี้ภายในเวลาเพียงสามเดือนด้วยทีมงาน 10 คน ซึ่งแสดงให้เห็นถึงความแข็งแกร่งและความน่าดึงดูดของตลาดในด้านปัญญาประดิษฐ์ การจัดหาเงินทุนนี้ดึงดูดการมีส่วนร่วมของสถาบันการลงทุนที่มีชื่อเสียง เช่น Andreessen Horowitz และ Sequoia Capital และยังยืนยันถึงศักยภาพในการพัฒนาขนาดใหญ่และความต้องการของตลาดในด้านความปลอดภัยของ AI
Ilya Sutskever บุคคลที่มีอิทธิพลในอุตสาหกรรม AI เพิ่งประกาศว่าบริษัทใหม่ของเขา SSI (Safe Superintelligence) ได้เสร็จสิ้นการจัดหาเงินทุนสูงถึง 1 พันล้านดอลลาร์สหรัฐ และการประเมินมูลค่าของบริษัทเพิ่มขึ้นเป็น 5 พันล้านดอลลาร์สหรัฐ เป็นที่น่าสังเกตว่า SSI ใช้เวลาเพียงสามเดือนเท่านั้นในการได้รับเงินทุนจำนวนมหาศาลจากการก่อตั้ง โดยมีสมาชิกในทีมเพียง 10 คน
สถานะของ Ilya Sutskever ในโลก AI นั้นไม่อาจมองข้ามได้ เขาเคยเป็นหนึ่งในบุคคลสำคัญใน OpenAI วันนี้ เขาได้ร่วมก่อตั้ง SSI ร่วมกับ Daniel Gross อดีตหัวหน้าโครงการ AI ของ Apple และ Daniel Levy อดีตนักวิจัย OpenAI การจัดหาเงินทุนรอบแรกของบริษัทดึงดูดการมีส่วนร่วมจากนักลงทุนที่มีชื่อเสียง เช่น Andreessen Horowitz, Sequoia Capital, DST Global, SV Angel และ NFDG Investment Partners
เป้าหมายของ SSI นั้นชัดเจนมาก - เพื่อให้บรรลุสติปัญญาขั้นสูงที่ปลอดภัย Ilya Sutskever กล่าวว่าบริษัทจะมุ่งเน้นไปที่การวิจัยและพัฒนา และอาจต้องใช้เวลาหลายปีในการนำผลิตภัณฑ์ออกสู่ตลาด โดยเน้นย้ำว่าบริษัทจะมองหาผู้ที่มีความสามารถระดับแนวหน้าซึ่งสอดคล้องกับวัฒนธรรมและภารกิจของบริษัท เพื่อให้มั่นใจว่าทิศทางการพัฒนาเทคโนโลยี AI สอดคล้องกับค่านิยมของมนุษย์
บนเส้นทางทางเทคนิค SSI จะใช้แนวทางที่แตกต่างจาก OpenAI แม้ว่า Ilya Sutskever จะไม่เปิดเผยรายละเอียดมากนัก แต่เขากล่าวว่าบริษัทจะสำรวจ "สมมติฐานแบบขยาย" (สมมติฐานแบบขยาย) นั่นคือประสิทธิภาพของโมเดล AI จะเป็นสัดส่วนโดยตรงกับพลังการประมวลผลที่เพิ่มขึ้น SSI วางแผนที่จะทำงานร่วมกับผู้ให้บริการระบบคลาวด์และผู้ผลิตชิปเพื่อตอบสนองความต้องการด้านพลังการประมวลผล
แม้ว่า SSI จะใช้โครงสร้างบริษัทที่แสวงหาผลกำไรแบบดั้งเดิม ซึ่งแตกต่างจากโมเดล "การกำหนดกำไรสูงสุด" ของ OpenAI และโครงสร้าง "ความไว้วางใจดอกเบี้ยระยะยาว" ของ Anthropic แต่ความมุ่งมั่นในการรักษาความปลอดภัยของ AI ก็ไม่เปลี่ยนแปลง Ilya Sutskever และทีมงานของเขากำลังทำงานเพื่อให้แน่ใจว่าการพัฒนาสติปัญญาขั้นสูงนั้นรวดเร็วและปลอดภัย โดยหลีกเลี่ยงสถานการณ์ที่ AI ยึดครองโลกซึ่งเป็นเรื่องปกติในภาพยนตร์นิยายวิทยาศาสตร์
ขณะที่ SSI ก่อตั้งทีมวิจัยในซิลิคอนวัลเลย์และเทลอาวีฟ ประเทศอิสราเอล ความกระตือรือร้นในการเป็นผู้ประกอบการของ Ilya Sutskever ก็เพิ่มมากขึ้น เขามองว่าการเป็นผู้ประกอบการรายนี้เสมือนการปีนภูเขาลูกใหม่ ซึ่งแตกต่างจากประสบการณ์การทำงานครั้งก่อนของเขาที่ OpenAI แม้ว่าบทบาทของเขาที่ OpenAI จะเปลี่ยนไปเนื่องจากการตัดสินใจภายในหลายครั้ง แต่วิสัยทัศน์ของเขาเกี่ยวกับอนาคตของ AI ยังคงแน่วแน่
การก่อตั้งและความสำเร็จทางการเงินของ SSI ได้พิสูจน์ความน่าดึงดูดใจของการวิจัย AI ขั้นพื้นฐานต่อตลาดทุนอีกครั้ง เมื่อเทคโนโลยี AI เติบโตเต็มที่มากขึ้น นักลงทุนก็ยินดีที่จะสนับสนุนทีมที่มุ่งมั่นที่จะแก้ไขปัญหาด้านความปลอดภัยและจริยธรรมของ AI ด้วยการสำรวจเชิงลึกของ SSI ในด้าน AI เรามีเหตุผลที่จะคาดหวังว่าบริษัทนี้จะนำการเปิดเผยและความเป็นไปได้ใหม่ๆ มาสู่การพัฒนา AI ในอนาคต
การพัฒนาอย่างรวดเร็วและการจัดหาเงินทุนจำนวนมหาศาลของ SSI ถือเป็นความก้าวหน้าครั้งใหม่ในด้านความปลอดภัยของ AI ความพยายามของ Ilya Sutskever และทีมงานของเขาได้ให้หลักประกันที่สำคัญสำหรับการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ที่ดี และยังเป็นแหล่งอ้างอิงใหม่สำหรับทิศทางการพัฒนา AI ในอนาคต