PaliGemma2 โมเดลปัญญาประดิษฐ์ล่าสุดของ Google มีความสามารถในการวิเคราะห์รูปภาพและสร้างคำบรรยาย และสามารถตอบคำถามเกี่ยวกับอารมณ์และพฤติกรรมของบุคคลในรูปภาพได้ โมเดลนี้อิงตามตระกูลโมเดลแบบเปิดของ Gemma และให้คำอธิบายภาพที่ลึกกว่าการจดจำวัตถุแบบเดิม สามารถระบุอารมณ์และสร้างคำอธิบายโดยละเอียดที่ตรงกับบริบทได้ อย่างไรก็ตาม ผลกระทบด้านจริยธรรมและสังคมของเทคโนโลยีนี้ทำให้เกิดความกังวลในหมู่ผู้เชี่ยวชาญ โดยความน่าเชื่อถือของความสามารถในการจดจำอารมณ์และความเสี่ยงที่อาจเกิดขึ้นจากการละเมิดกลายเป็นประเด็นสำคัญ บทความนี้จะเจาะลึกคุณสมบัติทางเทคนิค ข้อโต้แย้งด้านจริยธรรม และการพัฒนาในอนาคตของ PaliGemma2
Google เพิ่งเปิดตัวโมเดลปัญญาประดิษฐ์รุ่นใหม่ PaliGemma2 ซึ่งสามารถวิเคราะห์รูปภาพและสร้างคำบรรยาย พร้อมตอบคำถามเกี่ยวกับอารมณ์และการกระทำของบุคคลในรูปภาพ PaliGemma2 อิงตามซีรีส์โมเดลแบบเปิด Gemma ของ Google และให้คำอธิบายภาพที่ลึกกว่าการจดจำวัตถุแบบเดิม โดยสามารถจดจำอารมณ์และสร้างคำอธิบายโดยละเอียดที่ตรงกับบริบทได้ อย่างไรก็ตาม แม้ว่าเทคโนโลยีนี้ดูเหมือนจะเป็นนวัตกรรมที่ก้าวล้ำ แต่ผู้เชี่ยวชาญก็ได้ออกมาเตือนอย่างจริงจังเกี่ยวกับผลกระทบทางจริยธรรมและสังคมที่อาจเกิดขึ้น
การจดจำอารมณ์ไม่ใช่คุณสมบัติมาตรฐานของ PaliGemma2 แต่ทำได้โดยการปรับแต่งอย่างละเอียด แม้ว่า Google จะบอกว่าได้ดำเนินการ "การทดสอบอย่างกว้างขวาง" และทำได้ดีกว่าเกณฑ์มาตรฐานอุตสาหกรรมในด้านอคติทางประชากรศาสตร์ แต่ผู้เชี่ยวชาญได้แสดงความกังวลเกี่ยวกับความน่าเชื่อถือของเทคโนโลยี ศาสตราจารย์แซนดรา วอคเตอร์แห่งมหาวิทยาลัยอ็อกซ์ฟอร์ด เชื่อว่า "มีปัญหาสำคัญกับการ 'อ่าน' อารมณ์ของมนุษย์ผ่านปัญญาประดิษฐ์" และกระบวนการนี้อาศัยสมมติฐานมากเกินไป ซึ่งอาจนำไปสู่การตัดสินที่ผิดและอคติได้
เทคโนโลยีการจดจำอารมณ์เป็นจุดสนใจของความขัดแย้งในชุมชนเทคโนโลยีมานานแล้ว ในขณะที่การศึกษาในช่วงแรกๆ เช่น ทฤษฎีอารมณ์ของพอล เอคแมน เสนออารมณ์พื้นฐาน 6 อารมณ์ การวิจัยในเวลาต่อมาแสดงให้เห็นว่าการแสดงออกทางอารมณ์แตกต่างกันไปอย่างมากตามวัฒนธรรมและบริบท นักวิจัย Mike Cook จากมหาวิทยาลัย Queen Mary ในสหราชอาณาจักรชี้ให้เห็นว่า "ความซับซ้อนของประสบการณ์ทางอารมณ์ทำให้การตรวจจับอารมณ์ที่แม่นยำแทบจะเป็นไปไม่ได้เลย" นอกจากนี้ การวิจัยยังแสดงให้เห็นว่าระบบการวิเคราะห์การแสดงออกทางสีหน้าที่มีอยู่มักจะมีอคติต่ออารมณ์บางอย่าง เช่น การยิ้ม หรือการแสดงออกทางสีหน้าในแต่ละกลุ่มเชื้อชาติ
เนื่องจากเทคโนโลยีการจดจำอารมณ์ค่อยๆ กลายเป็นเชิงพาณิชย์ ความเสี่ยงของการละเมิดอาจดึงดูดความสนใจจากทุกฝ่าย ผู้เชี่ยวชาญบางคนกังวลว่าเทคโนโลยีประเภทนี้อาจถูกนำไปใช้ในการบังคับใช้กฎหมาย การสรรหาบุคลากร และสาขาอื่นๆ ซึ่งยิ่งทำให้ความไม่เท่าเทียมกันทางสังคมรุนแรงขึ้นอีก ร่างกฎหมายปัญญาประดิษฐ์ของสหภาพยุโรปได้กำหนดข้อจำกัดที่เข้มงวดเกี่ยวกับเทคโนโลยีการจดจำอารมณ์ โดยเฉพาะอย่างยิ่งเมื่อใช้ในสภาพแวดล้อมที่มีความเสี่ยงสูง
Google ยืนยันว่า PaliGemma2 ได้พิจารณาปัญหาด้านจริยธรรมและความปลอดภัยอย่างเต็มที่ในระหว่างขั้นตอนการทดสอบ โดยเฉพาะความปลอดภัยของเด็กและเนื้อหา อย่างไรก็ตาม ความเพียงพอของการค้ำประกันเหล่านี้ยังคงต้องได้รับการพิจารณาอย่างละเอียด ดร. Heidy Khlaaf จากสถาบัน AI Now กล่าวว่าการจดจำอารมณ์ไม่ได้เป็นเพียงปัญหาทางสายตาเท่านั้น แต่ยังเกี่ยวข้องกับภูมิหลังทางสังคมและวัฒนธรรมที่ลึกซึ้งอีกด้วย "อารมณ์ไม่สามารถสรุปได้อย่างแม่นยำจากลักษณะใบหน้าเพียงอย่างเดียว"
ด้วยการเปิดตัวเทคโนโลยีนี้สู่สาธารณะ PaliGemma2 ไม่เพียงแต่จะส่งเสริมการประยุกต์ใช้ปัญญาประดิษฐ์ในด้านความเข้าใจภาพเท่านั้น แต่ยังก่อให้เกิดความท้าทายใหม่ ๆ ต่อจริยธรรมทางสังคมและความเป็นส่วนตัวของข้อมูล ซึ่งจำเป็นต้องได้รับความสนใจและการแทรกแซงจากหน่วยงานกำกับดูแลที่เกี่ยวข้องอย่างเร่งด่วน
การเกิดขึ้นของ PaliGemma2 ได้ส่งเสริมการพัฒนาเทคโนโลยีการทำความเข้าใจภาพปัญญาประดิษฐ์อย่างไม่ต้องสงสัย แต่ก็ยังได้เปิดโปงข้อจำกัดและความเสี่ยงที่อาจเกิดขึ้นของเทคโนโลยีการจดจำอารมณ์ด้วย ในอนาคตการประยุกต์ใช้เทคโนโลยีจำเป็นต้องค้นหาความสมดุลระหว่างนวัตกรรมและจริยธรรม และเสริมสร้างการกำกับดูแลเพื่อให้แน่ใจว่าจะไม่ถูกละเมิดเพื่อรับใช้สังคมได้ดีขึ้น