โครงการ AI ของ Google Gemini เพิ่งก่อให้เกิดความขัดแย้งเนื่องจากกฎระเบียบภายในใหม่ ตามรายงาน พนักงานภายนอกที่รับผิดชอบในการประเมินเนื้อหาที่สร้างโดย Gemini ถูกขอให้ประเมินพื้นที่ที่พวกเขาไม่มีความเชี่ยวชาญ โดยเฉพาะอย่างยิ่งในพื้นที่ที่มีความละเอียดอ่อน เช่น การดูแลสุขภาพ ซึ่งทำให้เกิดความกังวลเกี่ยวกับความถูกต้องของข้อมูลของ Gemini การปรับนโยบายนี้ส่งผลโดยตรงต่อการทำงานของบุคลากรภายนอก และส่งผลทางอ้อมต่อคุณภาพของการประเมินของ Gemini
เมื่อเร็ว ๆ นี้โครงการ AI ของ Google Gemini ได้หยิบยกข้อกังวลเกี่ยวกับความถูกต้องของข้อมูลเนื่องจากกฎระเบียบภายในใหม่ ตามรายงาน เจ้าหน้าที่ภายนอกที่ได้รับมอบหมายให้ประเมินเนื้อหาที่สร้างโดย AI ถูกขอให้ให้คะแนนพื้นที่ที่พวกเขาไม่มีความเชี่ยวชาญ โดยเฉพาะอย่างยิ่งในหัวข้อที่ละเอียดอ่อน เช่น การดูแลสุขภาพ
บุคลากรภายนอกเหล่านี้มาจาก GlobalLogic ซึ่งเป็นบริษัทผู้ให้บริการเทคโนโลยีระดับโลก Google กำหนดให้พวกเขาประเมินการตอบสนองที่สร้างโดย AI โดยพิจารณาจากปัจจัยต่างๆ เช่น "ความถูกต้อง" เป็นหลัก ก่อนหน้านี้ ผู้จ้างภายนอกสามารถเลือกข้ามคำถามที่พวกเขาไม่มีความรู้ความชำนาญที่เกี่ยวข้องได้ ตัวอย่างเช่น พวกเขาสามารถเลือกที่จะไม่ประเมินคำถามพิเศษเกี่ยวกับหทัยวิทยาได้ ซึ่งทำเพื่อรับรองความถูกต้องของการให้คะแนน และเฉพาะผู้ที่มีพื้นหลังที่เกี่ยวข้องเท่านั้นที่สามารถทำการประเมินที่มีประสิทธิผลได้
อย่างไรก็ตาม เมื่อสัปดาห์ที่แล้ว GlobalLogic ได้ประกาศข้อกำหนดล่าสุดของ Google ซึ่งขณะนี้ผู้จ้างภายนอกไม่ได้รับอนุญาตให้ข้ามคำถามในสาขาที่เชี่ยวชาญดังกล่าวอีกต่อไป แต่จะต้องให้คะแนนส่วนที่พวกเขาเข้าใจและอธิบายการขาดความรู้ในสาขาที่เกี่ยวข้องแทน การเปลี่ยนแปลงดังกล่าวก่อให้เกิดความกังวลอย่างกว้างขวางในหมู่ผู้ให้บริการภายนอกว่าแนวทางปฏิบัตินี้อาจส่งผลต่อความแม่นยำของราศีเมถุนในหัวข้อที่ซับซ้อนบางหัวข้อ
ตัวอย่างเช่น ผู้ให้บริการภายนอกบางรายกล่าวถึงในการสื่อสารภายในว่าตัวเลือกการข้ามก่อนหน้านี้คือการปรับปรุงความแม่นยำของการให้คะแนน แต่การนำกฎใหม่ไปใช้บังคับให้พวกเขาประเมินปัญหาบางอย่างที่พวกเขาไม่มีประสบการณ์ เช่น โรคที่หายาก อีเมลภายในแสดงให้เห็นว่ากฎเดิมคือ: "ถ้าคุณไม่มีความเชี่ยวชาญที่จำเป็นสำหรับงานนี้ โปรดข้ามไป" กฎใหม่คือ: "ไม่ควรข้ามการแจ้งเตือนที่ต้องใช้ความเชี่ยวชาญ" อึดอัด.
ภายใต้กฎระเบียบใหม่ ผู้จ้างภายนอกสามารถข้ามงานการประเมินได้ในสองสถานการณ์เท่านั้น สถานการณ์แรกคือข้อมูลที่ขาดหายไปโดยสิ้นเชิง เช่น การแจ้งหรือการตอบสนองอย่างสมบูรณ์ อีกอย่างคือในกรณีที่เนื้อหาอาจเป็นอันตรายและต้องได้รับความยินยอมเป็นพิเศษจึงจะดำเนินการประเมินได้ แม้ว่ากฎใหม่เหล่านี้มีจุดมุ่งหมายเพื่อปรับปรุงประสิทธิภาพของ Gemini แต่ก็อาจส่งผลกระทบต่อความเข้าใจและข้อเสนอแนะในหัวข้อที่ซับซ้อนในการปฏิบัติงานจริง
Google ไม่ตอบสนองต่อเรื่องนี้ และความกังวลของผู้ให้บริการภายนอกก็ค่อยๆ เพิ่มขึ้นเช่นกัน
ไฮไลท์:
บุคลากรภายนอกจะถูกขอให้ประเมินการตอบสนองที่สร้างโดย AI โดยที่พวกเขาไม่มีความเชี่ยวชาญ โดยเฉพาะอย่างยิ่งในด้านที่มีความละเอียดอ่อน เช่น การดูแลสุขภาพ
กฎระเบียบใหม่จะขจัดตัวเลือก "ข้าม" และกำหนดให้ผู้จ้างภายนอกยังคงให้คะแนนแม้ว่าจะขาดความเชี่ยวชาญก็ตาม
นโยบายนี้อาจส่งผลต่อความแม่นยำของ Gemini ในหัวข้อที่ซับซ้อน ทำให้เกิดความไม่สบายใจและความกังวลในหมู่บุคลากรภายนอก
การตอบสนองของ Google ต่อกฎระเบียบใหม่ของ Gemini เกิดความล่าช้า และความกังวลในหมู่บุคลากรเอาท์ซอร์สยังคงเพิ่มขึ้น ซึ่งทำให้การพัฒนาในอนาคตของ Gemini เผชิญกับความท้าทายใหม่ๆ วิธีการประเมินความแม่นยำของแบบจำลอง AI จำเป็นต้องได้รับการปรับปรุงเพิ่มเติมเพื่อให้มั่นใจในความน่าเชื่อถือและความปลอดภัยของเทคโนโลยี AI