เมื่อเร็วๆ นี้ เอกสารสองฉบับเกี่ยวกับปัญญาประดิษฐ์เชิงกำเนิด (AI) ได้จุดประกายให้เกิดการอภิปรายอย่างดุเดือด โดยชี้ให้เห็นว่าข้อความที่สร้างโดย AI มักจะ "ไร้สาระ" เอกสารทั้งสองฉบับนี้ให้การวิเคราะห์เชิงลึกเกี่ยวกับอันตรายที่อาจเกิดขึ้นต่อสังคมที่เกิดจากข้อมูลที่ผิดที่สร้างโดย AI จากมุมมองของคุณลักษณะที่สำคัญของ AI และข้อบกพร่องของกฎหมายและกฎระเบียบในปัจจุบัน และเรียกร้องให้มีมาตรการที่มีประสิทธิภาพมากขึ้นเพื่อหลีกเลี่ยงความเสี่ยง ผู้เขียนรายงานเชื่อว่าการระบุข้อผิดพลาดของ AI ว่าเป็น "ภาพลวงตา" ถือเป็นเรื่องเข้าใจผิด และควรใช้คำที่แม่นยำยิ่งขึ้นในการอธิบายปรากฏการณ์นี้ ซึ่งจะช่วยปรับปรุงการรับรู้และความเข้าใจของสาธารณชนเกี่ยวกับเทคโนโลยี AI ตลอดจนส่งเสริมการดำเนินการตามกฎหมายที่เกี่ยวข้องและ ข้อบังคับ.
เมื่อเร็วๆ นี้ ทีมวิจัยสองทีมได้เผยแพร่รายงานที่ดึงดูดความสนใจอย่างกว้างขวาง โดยระบุอย่างตรงไปตรงมาว่าเนื้อหาของผลิตภัณฑ์ปัญญาประดิษฐ์ (AI) โดยพื้นฐานแล้วถือได้ว่าเป็น "เรื่องไร้สาระ" บทความเรื่อง "ChatGPT is Bullshit" ชี้ให้เห็นว่าการไม่คำนึงถึงความถูกต้องของ Gener AI ในการผลิตข้อมูลทำให้เกิดความท้าทายมากมายสำหรับข้าราชการ โดยเฉพาะอย่างยิ่งเจ้าหน้าที่ที่มีหน้าที่ทางกฎหมายในการบอกความจริง
ผู้เขียน Michael Townsen Hicks, James Humphries และ Joe Slater เน้นย้ำว่าข้อมูลที่ผิดที่เกิดจาก generative AI ไม่สามารถอธิบายได้ง่ายๆว่าเป็น "การโกหก" หรือ "ภาพลวงตา" ต่างจากคำโกหกที่จงใจหลอกลวง คำโกหกหมายถึงรูปแบบการแสดงออกที่ไม่สนใจความจริงเพื่อพยายามสร้างความประทับใจอย่างเจาะจง พวกเขาแย้งว่าการเรียกข้อผิดพลาดของ AI ว่า "ภาพหลอน" เพียงทำให้ประชาชนเข้าใจผิดคิดว่าเครื่องเหล่านี้ยังคงพยายามสื่อสารสิ่งที่พวกเขา "เชื่อ"
“การเรียกข้อผิดพลาดเหล่านี้ว่า 'ไร้สาระ' มากกว่า 'ภาพลวงตา' ไม่เพียงแต่จะแม่นยำมากขึ้นเท่านั้น แต่ยังช่วยปรับปรุงความเข้าใจของสาธารณชนเกี่ยวกับเทคโนโลยีอีกด้วย” พวกเขากล่าวเน้นย้ำถึงความสำคัญของการใช้คำที่แม่นยำยิ่งขึ้นเพื่ออธิบายข้อผิดพลาดของ AI โดยเฉพาะในบริบทปัจจุบันที่การสื่อสารทางวิทยาศาสตร์และเทคโนโลยีมีความจำเป็นเร่งด่วนในการปรับปรุง
ในขณะเดียวกัน บทความวิจัยอีกฉบับเกี่ยวกับโมเดลภาษาขนาดใหญ่ (LLM) มุ่งเน้นไปที่สภาพแวดล้อมทางกฎหมายและจริยธรรมของสหภาพยุโรปในประเด็นนี้ ข้อสรุปของรายงานคือกฎหมายและข้อบังคับในปัจจุบันเกี่ยวกับ AI ยังคงไม่สมบูรณ์แบบเพียงพอที่จะป้องกันอันตรายที่เกิดจาก "เรื่องไร้สาระ" ที่เกิดจาก AI เหล่านี้ได้อย่างมีประสิทธิภาพ ผู้เขียน Sandra Wachter, Brent Mittelstadt และ Chris Russell เสนอแนะให้มีการนำกฎระเบียบที่คล้ายคลึงกับกฎระเบียบในการตีพิมพ์ โดยเน้นที่การหลีกเลี่ยง "คำพูดที่ไม่เป็นทางการ" ที่อาจก่อให้เกิดอันตรายต่อสังคม
พวกเขาทราบว่าข้อผูกพันนี้เน้นว่าไม่มีหน่วยงานใดทั้งภาครัฐหรือเอกชนควรเป็นผู้ตัดสินความจริงแต่เพียงผู้เดียว พวกเขายังกล่าวด้วยว่า "คำพูดแบบสุ่ม" ของ generative AI สามารถเปลี่ยนความจริงให้กลายเป็นเรื่องของความถี่และความคิดเห็นของคนส่วนใหญ่มากกว่าข้อเท็จจริงที่เกิดขึ้นจริง
โดยรวมแล้ว เอกสารทั้งสองฉบับนี้ร่วมกันเปิดเผยความเสี่ยงที่อาจเกิดขึ้นจาก generative AI และเรียกร้องให้ทุกภาคส่วนในสังคมให้ความสนใจและดำเนินการเพื่อปรับปรุงกฎหมายและกฎระเบียบที่เกี่ยวข้อง สร้างมาตรฐานการพัฒนาเทคโนโลยี AI และรับรองว่าเทคโนโลยี AI จะสามารถตอบสนองได้ดียิ่งขึ้น สังคมมนุษย์