Google เพิ่งอัปเดตข้อกำหนดการใช้งานสำหรับ generative AI โดยอนุญาตให้ลูกค้าใช้เครื่องมือ generative AI สำหรับการตัดสินใจอัตโนมัติในพื้นที่ที่มีความเสี่ยงสูง เช่น การรักษาพยาบาลและการจ้างงาน แต่ต้องอยู่ภายใต้การควบคุมดูแลของมนุษย์เท่านั้น ความเคลื่อนไหวครั้งนี้ได้กระตุ้นให้เกิดการอภิปรายในอุตสาหกรรมเกี่ยวกับการประยุกต์ใช้ AI ในพื้นที่ที่มีความเสี่ยงสูง และความกังวลเกี่ยวกับการควบคุมดูแลที่เกี่ยวข้อง การเคลื่อนไหวของ Google แตกต่างกับคู่แข่งอย่าง OpenAI และ Anthropic ซึ่งมีข้อจำกัดที่เข้มงวดมากขึ้นในการตัดสินใจอัตโนมัติที่มีเดิมพันสูง การอัปเดตนี้ยังเน้นย้ำถึงความจำเป็นเร่งด่วนสำหรับกฎระเบียบด้าน AI ทั่วโลก และความท้าทายในการสร้างสมดุลระหว่างนวัตกรรม AI กับความเสี่ยงที่อาจเกิดขึ้น
Google เพิ่งอัปเดตข้อกำหนดการใช้งานสำหรับ generative AI โดยอนุญาตให้ลูกค้าใช้เครื่องมือ generative AI อย่างชัดเจนสำหรับ "การตัดสินใจอัตโนมัติ" ในพื้นที่ "ที่มีความเสี่ยงสูง" เช่น การดูแลสุขภาพและการจ้างงาน ตราบใดที่ต้องมีการควบคุมดูแลโดยมนุษย์ การเปลี่ยนแปลงนี้สะท้อนให้เห็นในนโยบายที่ออกใหม่ของบริษัทที่ห้ามการใช้ generative AI
หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และผู้ให้บริการอนุญาตรูปภาพ Midjourney
ภายใต้นโยบายที่อัปเดต ลูกค้าสามารถใช้ generative AI ของ Google พร้อมการควบคุมดูแล เพื่อทำการตัดสินใจอัตโนมัติที่อาจส่งผลกระทบในทางลบอย่างมีนัยสำคัญต่อสิทธิของแต่ละบุคคล พื้นที่ที่มีความเสี่ยงสูงเหล่านี้ ได้แก่ การจ้างงาน ที่อยู่อาศัย การประกันภัย สวัสดิการสังคม ฯลฯ บทบัญญัติก่อนหน้านี้ดูเหมือนจะมีการห้ามการตัดสินใจแบบอัตโนมัติที่มีความเสี่ยงสูง แต่ Google กล่าวว่าได้อนุญาตให้ใช้ generative AI สำหรับการตัดสินใจดังกล่าวภายใต้การดูแลของมนุษย์ตั้งแต่ต้น
โฆษกของ Google ตอบสื่อว่า "ข้อกำหนดสำหรับการควบคุมดูแลโดยมนุษย์มีอยู่ในนโยบายของเรามาโดยตลอดและครอบคลุมทุกส่วนที่มีความเสี่ยงสูง เราเพิ่งจัดประเภทคำศัพท์บางคำใหม่และแจกแจงตัวอย่างบางส่วนให้ชัดเจนยิ่งขึ้นเพื่อให้ผู้ใช้เข้าใจ"
เมื่อเปรียบเทียบกับแนวทางของ Google คู่แข่งหลักของ Google เช่น OpenAI และ Anthropic มีกฎระเบียบที่เข้มงวดกว่าเกี่ยวกับการตัดสินใจอัตโนมัติที่มีเดิมพันสูง OpenAI ห้ามมิให้ใช้บริการเพื่อการตัดสินใจอัตโนมัติที่เกี่ยวข้องกับสินเชื่อ การจ้างงาน ที่อยู่อาศัย การศึกษา การให้คะแนนทางสังคม และการประกันภัย Anthropic ช่วยให้ AI ทำการตัดสินใจอัตโนมัติในพื้นที่ที่มีความเสี่ยงสูง เช่น กฎหมาย การประกันภัย และการรักษาพยาบาล แต่อยู่ภายใต้การดูแลของ "ผู้เชี่ยวชาญที่มีคุณสมบัติเหมาะสม" เท่านั้น และกำหนดให้ลูกค้าต้องแจ้งอย่างชัดเจนถึงการใช้ AI ในการตัดสินใจดังกล่าว
ในส่วนของระบบ AI สำหรับการตัดสินใจแบบอัตโนมัติ หน่วยงานกำกับดูแลได้แสดงความกังวลว่าเทคโนโลยีดังกล่าวอาจนำไปสู่ผลลัพธ์ที่มีอคติ ตัวอย่างเช่น การวิจัยแสดงให้เห็นว่า AI อาจทำให้การเลือกปฏิบัติในอดีตในการอนุมัติสินเชื่อและการจำนองยังคงอยู่ต่อไป
ฮิวแมนไรท์วอทช์และองค์กรไม่แสวงหาผลกำไรอื่นๆ เรียกร้องให้มีการห้ามระบบ "การให้คะแนนทางสังคม" โดยเฉพาะ โดยให้เหตุผลว่าระบบดังกล่าวคุกคามการเข้าถึงระบบประกันสังคมของประชาชน และอาจบุกรุกความเป็นส่วนตัว และสร้างโปรไฟล์ที่มีอคติ
ในสหภาพยุโรป ระบบ AI ที่มีความเสี่ยงสูง รวมถึงระบบที่เกี่ยวข้องกับสินเชื่อส่วนบุคคลและการตัดสินใจในการจ้างงาน ต้องเผชิญกับการกำกับดูแลที่เข้มงวดที่สุดภายใต้พระราชบัญญัติ AI ผู้ให้บริการระบบเหล่านี้จะต้องลงทะเบียนในฐานข้อมูล ดำเนินการจัดการคุณภาพและความเสี่ยง จ้างหัวหน้างานที่เป็นมนุษย์ และรายงานเหตุการณ์ต่อหน่วยงานที่เกี่ยวข้อง และอื่นๆ อีกมากมาย
ในสหรัฐอเมริกา โคโลราโดเพิ่งผ่านกฎหมายกำหนดให้นักพัฒนา AI ต้องเปิดเผยข้อมูลเกี่ยวกับระบบ AI ที่ "มีความเสี่ยงสูง" และเผยแพร่สรุปความสามารถและข้อจำกัดของระบบ ในขณะเดียวกัน นครนิวยอร์กห้ามมิให้นายจ้างใช้เครื่องมืออัตโนมัติในการคัดกรองผู้สมัคร เว้นแต่เครื่องมือดังกล่าวจะผ่านการตรวจสอบอคติภายในปีที่ผ่านมา
ไฮไลท์:
Google อนุญาตให้ใช้ generative AI ในพื้นที่ที่มีความเสี่ยงสูง แต่ต้องมีการควบคุมดูแลโดยมนุษย์
บริษัท AI อื่นๆ เช่น OpenAI และ Anthropic มีข้อจำกัดที่เข้มงวดมากขึ้นในการตัดสินใจที่มีความเสี่ยงสูง
หน่วยงานกำกับดูแลในประเทศต่างๆ กำลังตรวจสอบระบบ AI เพื่อการตัดสินใจแบบอัตโนมัติ เพื่อป้องกันผลลัพธ์ที่เอนเอียง
การอัปเดตข้อกำหนดการใช้งาน generative AI ของ Google ทำให้เกิดการอภิปรายอย่างกว้างขวางเกี่ยวกับจริยธรรมและกฎระเบียบของ AI รัฐบาลและสถาบันต่างๆ ทั่วโลกก็กำลังสำรวจวิธีการควบคุมเทคโนโลยี AI ให้ดีขึ้นเพื่อให้มั่นใจว่ามีการพัฒนาที่ปลอดภัยและมีความรับผิดชอบ ในอนาคต การประยุกต์ใช้ AI ในด้านที่มีความเสี่ยงสูงจะต้องเผชิญกับการตรวจสอบและกำกับดูแลที่เข้มงวดมากขึ้น