การพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ได้นำสิ่งอำนวยความสะดวกมามากมาย แต่ก็มีความเสี่ยงอย่างมาก เมื่อเร็ว ๆ นี้ตัวแทน AI ชื่อ "Fungifriend" ให้คำแนะนำการทำอาหารเห็ดที่ผิดในกลุ่มผู้ที่ชื่นชอบเห็ด Facebook ซึ่งเกือบจะทำให้เกิดภัยพิบัติโดยเน้นถึงความเสี่ยงด้านความปลอดภัยของ AI ที่ถูกนำไปใช้กับพื้นที่ที่มีความเสี่ยงสูง เหตุการณ์ดังกล่าวได้จุดประกายความกังวลของสาธารณชนเกี่ยวกับความปลอดภัยของ AI และกระตุ้นให้ผู้คนตรวจสอบขอบเขตแอปพลิเคชันของเทคโนโลยี AI อีกครั้ง
เมื่อเร็ว ๆ นี้เหตุการณ์ที่เกิดขึ้นในกลุ่มผู้ที่ชื่นชอบเห็ด Facebook ได้ก่อให้เกิดความกังวลเกี่ยวกับความปลอดภัยของแอปพลิเคชัน AI อีกครั้ง จากข้อมูลของ 404Media ตัวแทน AI ชื่อ "fungifriend" แอบเข้าไปในกลุ่ม "การระบุเห็ดและการอภิปราย" ภาคตะวันออกเฉียงเหนือ "ที่มีสมาชิก 13,000 คนและให้คำแนะนำเท็จกับความเสี่ยงที่อาจถึงแก่ชีวิต
เมื่อถูกถามถึงวิธีการปรุงเห็ด sarcosphaera coronaria ที่มีความเข้มข้นสูงของสารหนู, fungifriend ไม่เพียง แต่ระบุอย่างผิดพลาดว่าเห็ดเป็น "กินได้" แต่ยังแนะนำวิธีการทำอาหารที่หลากหลายรวมถึงการทอด ในความเป็นจริงเห็ดนี้ก่อให้เกิดกรณีร้ายแรง
Rick Claypool ผู้อำนวยการวิจัยขององค์กรความปลอดภัยของผู้บริโภคพลเมืองสาธารณะชี้ให้เห็นว่าการใช้ AI เพื่อระบุตัวตนของเห็ดที่กินได้และเป็นพิษโดยอัตโนมัติเป็น "กิจกรรมที่มีความเสี่ยงสูง" และระบบ AI ปัจจุบันไม่สามารถทำงานนี้ได้อย่างถูกต้อง
นี่ไม่ใช่กรณีที่แยกได้ ในปีที่ผ่านมาแอปพลิเคชัน AI มักทำผิดพลาดอย่างรุนแรงในด้านความปลอดภัยของอาหาร: - แอปพลิเคชั่น AI บางตัวแนะนำให้ทำแซนวิชที่มียากันยุงและระบบ AI บางอย่างให้สูตรอาหารที่มีคลอรีน AI เขาเคยอ้างว่า "สุนัขสามารถออกกำลังกาย" และแนะนำโดยใช้กาวเพื่อทำพิซซ่า ฯลฯ
แม้จะมีข้อผิดพลาด AI บ่อยครั้ง แต่ บริษัท อเมริกันยังคงส่งเสริมการให้ความนิยมของการบริการลูกค้า AI อย่างรวดเร็ว เบื้องหลังวิธีการนี้ "มุ่งเน้นไปที่ความเร็วและคุณภาพการละเลย" สะท้อนให้เห็นว่า บริษัท มีความกังวลมากเกินไปเกี่ยวกับการประหยัดต้นทุนและขาดการพิจารณาเพื่อความปลอดภัยของผู้ใช้ ผู้เชี่ยวชาญเรียกร้องให้ใช้เทคโนโลยี AI ในพื้นที่เฉพาะโดยเฉพาะผู้ที่เกี่ยวข้องกับความปลอดภัยเพื่อให้แน่ใจว่ามีความแม่นยำและความน่าเชื่อถือของข้อมูล
เหตุการณ์ "fungifriend" ฟังเสียงตื่นขึ้นมาเพื่อเตือนเราว่าในขณะที่เพลิดเพลินกับความสะดวกสบายของ AI เราต้องให้ความสนใจกับความเสี่ยงด้านความปลอดภัย ในอนาคตเทคโนโลยี AI จะต้องได้รับการทดสอบและควบคุมก่อนที่จะนำไปใช้เพื่อให้แน่ใจว่ามีความน่าเชื่อถือและความปลอดภัยและหลีกเลี่ยงเหตุการณ์ที่คล้ายกันอีกครั้ง ด้วยวิธีนี้สามารถใช้ประโยชน์จาก AI ได้อย่างแท้จริงและหลีกเลี่ยงการกลายเป็นอันตรายที่อาจเกิดขึ้น