ปัจจุบันเทคโนโลยีปัญญาประดิษฐ์กำลังพัฒนาอย่างรวดเร็ว แต่ปัญหาความน่าเชื่อถือและความปลอดภัยก็ดึงดูดความสนใจที่เพิ่มขึ้น ศาสตราจารย์ Eerke Boiten ศาสตราจารย์ด้านความปลอดภัยทางไซเบอร์ที่มหาวิทยาลัยเดอมอนต์ฟอร์ดถามถึงความน่าเชื่อถือของระบบ AI ที่มีอยู่เชื่อว่าพวกเขามีความเสี่ยงในการใช้งานที่สำคัญ เขาชี้ให้เห็นว่า AI แบบกำเนิดและแบบจำลองภาษาขนาดใหญ่บนพื้นฐานของเครือข่ายประสาทขนาดใหญ่เช่น CHATGPT มีความซับซ้อนที่ทำให้ยากที่จะทำนายและตรวจสอบพฤติกรรมของพวกเขาซึ่งทำให้มีความเสี่ยงในการใช้งานที่ต้องใช้ความรับผิดชอบ
ในสภาพแวดล้อมทางเทคโนโลยีในปัจจุบันปัญญาประดิษฐ์ (AI) ได้จุดประกายการอภิปรายอย่างกว้างขวาง Eerke Boiten ศาสตราจารย์ด้านความปลอดภัยทางไซเบอร์ที่มหาวิทยาลัยเดอมอนต์ฟอร์ดกล่าวว่าระบบ AI ที่มีอยู่มีข้อบกพร่องพื้นฐานในการจัดการและความน่าเชื่อถือและไม่ควรใช้ในการใช้งานที่สำคัญ
ศาสตราจารย์ Boiten ชี้ให้เห็นว่าระบบ AI ปัจจุบันส่วนใหญ่พึ่งพาเครือข่ายประสาทขนาดใหญ่โดยเฉพาะอย่างยิ่ง AI ที่กำเนิดและรูปแบบภาษาขนาดใหญ่ (เช่น CHATGPT) หลักการทำงานของระบบเหล่านี้ค่อนข้างซับซ้อน
จากมุมมองของวิศวกรรมซอฟต์แวร์ศาสตราจารย์ Boiten เน้นว่าระบบ AI ขาดความสามารถในการผสมและไม่สามารถพัฒนาได้อย่างเป็นโมดูลเหมือนซอฟต์แวร์แบบดั้งเดิม หากไม่มีโครงสร้างภายในที่ชัดเจนนักพัฒนาไม่สามารถแบ่งกลุ่มและจัดการความซับซ้อนได้อย่างมีประสิทธิภาพและเป็นเรื่องยากสำหรับพวกเขาที่จะทำการพัฒนาทีละขั้นตอนหรือการทดสอบที่มีประสิทธิภาพ สิ่งนี้ทำให้การตรวจสอบระบบ AI จำกัด การทดสอบโดยรวมซึ่งเป็นเรื่องยากมากเนื่องจากอินพุตและพื้นที่สถานะมากเกินไป
นอกจากนี้พฤติกรรมที่ผิดของระบบ AI มักจะทำนายและแก้ไขได้ยาก ซึ่งหมายความว่าแม้ว่าจะพบข้อผิดพลาดในระหว่างการฝึกอบรมการฝึกอบรมการฝึกอบรมไม่รับประกันว่าข้อผิดพลาดเหล่านี้จะได้รับการแก้ไขอย่างมีประสิทธิภาพและอาจแนะนำปัญหาใหม่ ๆ ดังนั้นศาสตราจารย์ Boiten เชื่อว่าในแอปพลิเคชันใด ๆ ที่ต้องใช้ความรับผิดชอบควรหลีกเลี่ยงระบบ AI ปัจจุบัน
อย่างไรก็ตามศาสตราจารย์ Boiten ไม่ได้สูญเสียความหวังอย่างสมบูรณ์ เขาเชื่อว่าแม้ว่าระบบ AI ที่เกิดขึ้นในปัจจุบันอาจถึงคอขวดโดยการรวมความฉลาดทางสัญลักษณ์และ AI ที่ใช้งานง่าย แต่ก็ยังเป็นไปได้ที่จะพัฒนาระบบ AI ที่เชื่อถือได้มากขึ้นในอนาคต ระบบใหม่เหล่านี้อาจสร้างแบบจำลองความรู้ที่ชัดเจนหรือระดับความเชื่อมั่นที่เพิ่มความน่าเชื่อถือของ AI ในการใช้งานจริง
มุมมองของศาสตราจารย์ Boiten ทำให้ผู้คนคิดอย่างลึกซึ้งเกี่ยวกับความน่าเชื่อถือและขอบเขตการประยุกต์ของปัญญาประดิษฐ์และยังได้ชี้ให้เห็นเส้นทางใหม่สำหรับทิศทางการพัฒนาในอนาคตของเทคโนโลยีปัญญาประดิษฐ์ ในขณะที่ติดตามความก้าวหน้าในเทคโนโลยีปัญญาประดิษฐ์เราจำเป็นต้องให้ความสำคัญกับความปลอดภัยและความน่าเชื่อถือเพื่อให้แน่ใจว่าสามารถควบคุมและจัดการได้อย่างมีประสิทธิภาพในแอปพลิเคชันและหลีกเลี่ยงความเสี่ยงที่อาจเกิดขึ้น