PaliGemma2 โมเดล AI ล่าสุดของ Google อ้างว่าสามารถระบุอารมณ์ของมนุษย์ผ่านการวิเคราะห์ภาพ ทำให้เกิดข้อโต้แย้งอย่างกว้างขวาง โมเดลนี้อิงตามโมเดลเปิดของ Gemma และสามารถสร้างคำอธิบายรูปภาพโดยละเอียด รวมถึงพฤติกรรมและอารมณ์ของตัวละครได้ อย่างไรก็ตาม ผู้เชี่ยวชาญตั้งคำถามอย่างมากถึงลักษณะทางวิทยาศาสตร์และความปลอดภัยของเทคโนโลยีนี้ โดยเชื่อว่าทฤษฎีพื้นฐานของเทคโนโลยีนี้อ่อนแอและอาจมีความลำเอียงที่ร้ายแรงและความเสี่ยงด้านจริยธรรม
Google เพิ่งเปิดตัวตระกูลโมเดล AI ใหม่ PaliGemma2 ฟีเจอร์ที่สะดุดตาที่สุดคืออ้างว่าสามารถ "รับรู้" อารมณ์ของมนุษย์ผ่านการวิเคราะห์ภาพ คำกล่าวอ้างนี้กระตุ้นให้เกิดการอภิปรายอย่างกว้างขวางและเกิดข้อสงสัยอย่างรุนแรงในหมู่นักวิชาการและผู้เชี่ยวชาญด้านจริยธรรมด้านเทคโนโลยี
ระบบ AI นี้ที่ใช้โมเดลเปิดของ Gemma สามารถสร้างคำอธิบายภาพโดยละเอียด ไม่ใช่แค่การจดจำวัตถุธรรมดา แต่ยังพยายามอธิบายพฤติกรรมและอารมณ์ของตัวละครในภาพด้วย อย่างไรก็ตาม ผู้เชี่ยวชาญที่เชื่อถือได้จำนวนมากได้ออกคำเตือนที่ร้ายแรงเกี่ยวกับวิทยาศาสตร์และความเสี่ยงที่อาจเกิดขึ้นจากเทคโนโลยีนี้
Sandra Wachter ศาสตราจารย์ด้านจริยธรรมข้อมูลจาก Oxford Internet Institute กล่าวอย่างตรงไปตรงมาว่าการพยายาม "อ่าน" อารมณ์ของมนุษย์ผ่าน AI ก็เหมือนกับ "การขอคำแนะนำจากลูกบอลวิเศษแปดลูก" คำอุปมานี้เผยให้เห็นความไร้สาระของเทคโนโลยีการจดจำอารมณ์อย่างชัดเจน
ในความเป็นจริง พื้นฐานทางวิทยาศาสตร์สำหรับการรับรู้อารมณ์นั้นเปราะบางอย่างยิ่ง ทฤษฎีเบื้องต้นของอารมณ์พื้นฐานหกประการที่เสนอโดยนักจิตวิทยา Paul Ekman ได้ถูกตั้งคำถามอย่างกว้างขวางในการวิจัยครั้งต่อไป มีความแตกต่างอย่างมีนัยสำคัญในวิธีที่ผู้คนจากวัฒนธรรมที่แตกต่างกันแสดงอารมณ์ ทำให้การจดจำอารมณ์แบบสากลเป็นงานที่แทบจะเป็นไปไม่ได้เลย
Mike Cook นักวิจัยด้าน AI จากมหาวิทยาลัย Queen Mary กล่าวอย่างตรงไปตรงมาว่า การตรวจจับอารมณ์เป็นไปไม่ได้ในแง่ทั่วไป แม้ว่ามนุษย์มักจะเชื่อว่าพวกเขาสามารถตัดสินอารมณ์ของผู้อื่นผ่านการสังเกตได้ แต่ความสามารถนี้ซับซ้อนและไม่น่าเชื่อถือมากกว่าที่จินตนาการไว้มาก
สิ่งที่น่ากังวลยิ่งกว่าก็คือระบบ AI ดังกล่าวมักจะมีอคติร้ายแรง การศึกษาหลายชิ้นแสดงให้เห็นว่าแบบจำลองการวิเคราะห์ใบหน้าอาจทำให้เกิดการตัดสินทางอารมณ์ที่แตกต่างกันสำหรับคนที่มีสีผิวต่างกัน ซึ่งจะทำให้การเลือกปฏิบัติทางสังคมที่มีอยู่รุนแรงขึ้นอย่างไม่ต้องสงสัย
แม้ว่า Google จะอ้างว่าได้ทดสอบ PaliGemma2 อย่างครอบคลุมและทำงานได้ดีกับเกณฑ์มาตรฐานบางรายการ แต่ผู้เชี่ยวชาญก็ยังคงไม่เชื่ออย่างจริงจัง พวกเขาเชื่อว่าการทดสอบอย่างจำกัดเพียงอย่างเดียวไม่สามารถประเมินความเสี่ยงด้านจริยธรรมที่อาจเกิดขึ้นจากเทคโนโลยีนี้ได้อย่างเต็มที่
สิ่งที่อันตรายที่สุดคือโมเดลแบบเปิดนี้สามารถนำไปใช้ในทางที่ผิดในด้านสำคัญๆ เช่น การจ้างงาน การศึกษา การบังคับใช้กฎหมาย ฯลฯ ซึ่งก่อให้เกิดอันตรายอย่างแท้จริงต่อกลุ่มเปราะบาง ดังที่ศาสตราจารย์ Wachter เตือน สิ่งนี้อาจนำไปสู่อนาคต "ที่หนีไม่พ้น" ที่น่ากลัว โอกาสในการจ้างงาน เงินกู้ และการศึกษาของผู้คนจะถูกกำหนดโดย "การตัดสินทางอารมณ์" ของระบบ AI ที่ไม่น่าเชื่อถือ
ปัจจุบัน ด้วยการพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ นวัตกรรมทางเทคโนโลยีจึงมีความสำคัญ แต่จริยธรรมและความปลอดภัยก็ไม่สามารถละเลยได้ การเกิดขึ้นของ PaliGemma2 ตอกย้ำถึงความจำเป็นที่เราจะต้องรักษามุมมองที่ชัดเจนและสำคัญเกี่ยวกับเทคโนโลยี AI อีกครั้ง
ข้อขัดแย้งของ PaliGemma2 เตือนเราว่าเราจำเป็นต้องปฏิบัติต่อเทคโนโลยี AI ด้วยความระมัดระวัง โดยเฉพาะอย่างยิ่งในด้านที่เกี่ยวข้องกับอารมณ์ของมนุษย์และความยุติธรรมทางสังคม ในการพัฒนา AI ในอนาคต ควรคำนึงถึงจริยธรรมเป็นอันดับแรกเพื่อหลีกเลี่ยงการใช้เทคโนโลยีในทางที่ผิดและผลกระทบทางสังคมที่แก้ไขไม่ได้