Saat ini, teknologi kecerdasan buatan berkembang dengan cepat, tetapi masalah keandalan dan keamanannya juga menarik perhatian yang semakin meningkat. Profesor Eerke Boiten, seorang profesor keamanan siber di University of de Montford, mempertanyakan keandalan sistem AI yang ada, percaya bahwa mereka berisiko dalam aplikasi penting. Dia menunjukkan bahwa AI generatif dan model bahasa besar berdasarkan jaringan saraf besar, seperti chatgpt, memiliki kompleksitas yang menyulitkan untuk memprediksi dan memverifikasi perilaku mereka, yang membuatnya berpotensi berisiko dalam aplikasi yang membutuhkan rasa tanggung jawab.
Dalam lingkungan teknologi saat ini, kecerdasan buatan (AI) telah memicu diskusi luas. Eerke Boiten, seorang profesor cybersecurity di University of de Montford, mengatakan bahwa sistem AI yang ada memiliki kekurangan mendasar dalam manajemen dan keandalan dan tidak boleh digunakan dalam aplikasi penting.
Profesor Boiten menunjukkan bahwa sebagian besar sistem AI saat ini bergantung pada jaringan saraf besar, terutama AI generatif dan model bahasa besar (seperti chatgpt). Prinsip kerja sistem ini relatif kompleks.
Dari perspektif rekayasa perangkat lunak, Profesor Boiten menekankan bahwa sistem AI tidak memiliki komposabilitas dan tidak dapat dikembangkan secara modular seperti perangkat lunak tradisional. Tanpa struktur internal yang jelas, pengembang tidak dapat secara efektif membagi dan mengelola kompleksitas, dan juga sulit bagi mereka untuk melakukan pengembangan langkah demi langkah atau pengujian yang efektif. Ini membuat verifikasi sistem AI terbatas pada pengujian keseluruhan, yang sangat sulit karena input yang berlebihan dan ruang keadaan.
Selain itu, perilaku yang salah dari sistem AI seringkali sulit diprediksi dan diperbaiki. Ini berarti bahwa bahkan jika kesalahan ditemukan selama pelatihan, pelatihan ulang tidak menjamin bahwa kesalahan ini akan secara efektif diperbaiki dan bahkan dapat memperkenalkan masalah baru. Oleh karena itu, Profesor Boiten percaya bahwa dalam aplikasi apa pun yang membutuhkan rasa tanggung jawab, sistem AI saat ini harus dihindari.
Namun, Profesor Boiten tidak sepenuhnya kehilangan harapan. Dia percaya bahwa meskipun sistem AI generatif saat ini mungkin telah mencapai hambatan, dengan menggabungkan kecerdasan simbolik dan AI berbasis intuitif, masih mungkin untuk mengembangkan sistem AI yang lebih andal di masa depan. Sistem baru ini dapat menghasilkan beberapa model pengetahuan yang jelas atau tingkat kepercayaan yang meningkatkan keandalan AI dalam aplikasi praktis.
Pandangan Profesor Boiten telah memicu pemikiran mendalam orang tentang keandalan dan ruang lingkup aplikasi kecerdasan buatan, dan juga menunjukkan jalan baru untuk arah pengembangan teknologi kecerdasan buatan di masa depan. Saat mengejar kemajuan dalam teknologi kecerdasan buatan, kita perlu sangat mementingkan keamanan dan keandalannya untuk memastikan bahwa hal itu dapat dikendalikan dan dikelola secara efektif dalam aplikasi dan menghindari risiko potensial.