Google เพิ่งอัปเดตข้อกำหนดการใช้งานสำหรับ generative AI เพื่อกำหนดแอปพลิเคชัน AI อย่างชัดเจนในพื้นที่ที่ "มีความเสี่ยงสูง" เช่น การดูแลสุขภาพ ข้อกำหนดใหม่อนุญาตให้ลูกค้าใช้ AI เจนเนอเรชั่นของ Google เพื่อการตัดสินใจอัตโนมัติในพื้นที่เหล่านี้ แต่ต้องอยู่ภายใต้การควบคุมดูแลของมนุษย์เท่านั้น ความเคลื่อนไหวดังกล่าวทำให้เกิดข้อกังวลในด้าน AI เนื่องจากเกี่ยวข้องกับการประยุกต์ใช้ AI ในการตัดสินใจที่มีเดิมพันสูง ตลอดจนการพิจารณาถึงอคติที่อาจเกิดขึ้นและประเด็นด้านจริยธรรม ความเคลื่อนไหวของ Google ตอบสนองต่อความกังวลของสังคมเกี่ยวกับแอปพลิเคชัน AI ในระดับหนึ่ง และสะท้อนให้เห็นถึงความพยายามในการสร้างสมดุลระหว่างแอปพลิเคชันเทคโนโลยี AI และการบริหารความเสี่ยง
Google เพิ่งอัปเดตข้อกำหนดการใช้งานสำหรับ generative AI โดยชี้แจงว่าลูกค้าสามารถใช้เครื่องมือ generative AI สำหรับ "การตัดสินใจอัตโนมัติ" ในพื้นที่ "ที่มีความเสี่ยงสูง" เช่น การดูแลสุขภาพ แต่ต้องอยู่ภายใต้การควบคุมดูแลของมนุษย์เท่านั้น ตาม "นโยบายการใช้ Generative AI Prohibited Use Policy" ของ Google เวอร์ชันล่าสุดที่เผยแพร่เมื่อวันอังคาร ลูกค้าสามารถใช้ Generative AI ของ Google เพื่อทำ "การตัดสินใจอัตโนมัติ" ที่อาจมี "ผลกระทบด้านลบอย่างมีนัยสำคัญ" ต่อสิทธิส่วนบุคคล ลูกค้าสามารถใช้ generative AI ของ Google เพื่อตัดสินใจเกี่ยวกับการจ้างงาน ที่พักอาศัย การประกันภัย สวัสดิการสังคม และพื้นที่ที่ "มีความเสี่ยงสูง" อื่นๆ ตราบใดที่ยังมีรูปแบบการกำกับดูแลของมนุษย์ ในด้าน AI การตัดสินใจอัตโนมัติหมายถึงการตัดสินใจที่ทำโดยระบบ AI โดยอิงจากข้อมูลข้อเท็จจริงและข้อมูลที่อนุมาน ตัวอย่างเช่น ระบบอาจตัดสินใจโดยอัตโนมัติว่าจะอนุมัติใบสมัครสินเชื่อหรือคัดกรองผู้สมัครงาน ก่อนหน้านี้ ข้อกำหนดฉบับร่างของ Google กล่าวถึงการห้ามใช้ generative AI ของบริษัทในการตัดสินใจอัตโนมัติที่มีเดิมพันสูง แต่ Google บอกกับ TechCrunch ว่าลูกค้าสามารถใช้ generative AI เพื่อทำการตัดสินใจโดยอัตโนมัติได้เสมอ แม้แต่กับแอปพลิเคชันที่มีความเสี่ยงสูง ตราบใดที่ยังมีการควบคุมดูแลโดยมนุษย์ “เช่นเดียวกับพื้นที่ที่มีความเสี่ยงสูง ข้อกำหนดในการควบคุมดูแลมนุษย์ของเราจะแสดงอยู่ในนโยบายของเราเสมอ” โฆษกของ Google กล่าวเมื่อได้รับการติดต่อทางอีเมล “เรากำลังจัดประเภทรายการบางรายการใหม่ [ในข้อกำหนด] และแสดงรายการรายการเหล่านั้นให้ชัดเจนยิ่งขึ้น เพื่อให้ลูกค้าเห็นภาพที่ชัดเจนยิ่งขึ้น "คู่แข่งด้าน AI หลักของ Google อย่าง OpenAI และ Anthropic มีกฎระเบียบที่เข้มงวดมากขึ้นเกี่ยวกับการใช้ AI ในการตัดสินใจแบบอัตโนมัติที่มีเดิมพันสูง ตัวอย่างเช่น OpenAI ห้ามมิให้ใช้บริการเพื่อการตัดสินใจอัตโนมัติที่เกี่ยวข้องกับสินเชื่อ การจ้างงาน ที่อยู่อาศัย การศึกษา การให้คะแนนทางสังคม และการประกันภัย Anthropic ช่วยให้ AI ถูกนำมาใช้ในการตัดสินใจโดยอัตโนมัติในด้านกฎหมาย การประกันภัย การดูแลสุขภาพ และพื้นที่ที่มีความเสี่ยงสูงอื่นๆ เฉพาะในกรณีที่ได้รับการดูแลโดย "ผู้เชี่ยวชาญที่ผ่านการรับรอง" และกำหนดให้ลูกค้าต้องเปิดเผยว่าพวกเขากำลังใช้ AI เพื่อจุดประสงค์นี้ AI ที่ทำการตัดสินใจโดยอัตโนมัติซึ่งส่งผลกระทบต่อบุคคลนั้นได้รับการตรวจสอบอย่างละเอียดจากหน่วยงานกำกับดูแล ซึ่งได้แสดงความกังวลเกี่ยวกับผลลัพธ์ที่เอนเอียงที่เทคโนโลยีสามารถสร้างได้ การวิจัยชี้ให้เห็นว่า AI ใช้ในการอนุมัติการสมัครสินเชื่อและการจำนอง อาจทำให้การเลือกปฏิบัติในอดีตยืดเยื้อต่อไปได้ ฮิวแมนไรท์วอทช์ องค์กรไม่แสวงผลกำไร เรียกร้องให้มีการห้ามระบบ "การให้คะแนนทางสังคม" ซึ่งระบุว่าอาจบ่อนทำลายการเข้าถึงการสนับสนุนด้านประกันสังคมของผู้คน ประนีประนอมความเป็นส่วนตัว และเปิดเผยข้อมูลพวกเขาอย่างมีอคติ ระบบ AI ที่มีความเสี่ยงสูง รวมถึงระบบที่ใช้ตัดสินใจเรื่องสินเชื่อส่วนบุคคลและการจ้างงาน ต้องเผชิญกับกฎระเบียบที่เข้มงวดที่สุดภายใต้ร่างพระราชบัญญัติปัญญาประดิษฐ์ของสหภาพยุโรป ผู้ให้บริการระบบเหล่านี้จะต้องลงทะเบียนกับฐานข้อมูล ดำเนินการจัดการคุณภาพและความเสี่ยง จ้างหัวหน้างานที่เป็นมนุษย์ และรายงานเหตุการณ์ต่อหน่วยงานที่เกี่ยวข้อง รวมถึงข้อกำหนดอื่นๆ ในสหรัฐอเมริกา โคโลราโดเพิ่งผ่านกฎหมายที่กำหนดให้นักพัฒนา AI ต้องเปิดเผยข้อมูลเกี่ยวกับระบบ AI ที่ "มีความเสี่ยงสูง" และออกแถลงการณ์สรุปความสามารถและข้อจำกัดของระบบ ในขณะเดียวกัน นครนิวยอร์กห้ามมิให้นายจ้างใช้เครื่องมืออัตโนมัติเพื่อคัดกรองผู้สมัครเพื่อการตัดสินใจจ้างงาน เว้นแต่เครื่องมือดังกล่าวจะได้รับการตรวจสอบอคติภายในปีที่แล้ว ครั้งนี้ Google ชี้แจงเงื่อนไขการใช้ AI ชี้ให้เห็นถึงทัศนคติของบริษัทต่อการกำกับดูแลแอปพลิเคชัน AI การอนุญาตให้มีการตัดสินใจโดยอัตโนมัติในพื้นที่ที่มีความเสี่ยงสูง แต่เน้นย้ำถึงความสำคัญของการควบคุมดูแลด้วยตนเอง ไม่เพียงสะท้อนถึงศักยภาพของการประยุกต์ใช้เทคโนโลยี AI เท่านั้น แต่ยังสะท้อนถึงการเฝ้าระวังต่อความเสี่ยงที่อาจเกิดขึ้นอีกด้วย
การอัปเดตข้อกำหนดการใช้งาน AI ของ Google ในขณะที่เน้นการควบคุมดูแลด้วยตนเอง ยังสะท้อนให้เห็นถึงความท้าทายและการสำรวจที่บริษัทเทคโนโลยีเผชิญในการกำกับดูแล AI วิธีสร้างสมดุลระหว่างนวัตกรรมและความเสี่ยงในบริบทของการพัฒนาอย่างรวดเร็วของเทคโนโลยี AI จะเป็นประเด็นสำคัญที่ต้องให้ความสนใจอย่างต่อเนื่องในอนาคต