Pada Seminar Perbatasan dan Tata Kelola Kecerdasan Buatan Tiongkok-Singapura, mengapa para akademisi dari Tiongkok dan Singapura tidak memberikan tanggapan apa pun terhadap AI?
Penulis:Eve Cole
Waktu Pembaruan:2024-11-15 12:24:01
Sejak konsep kecerdasan buatan pertama kali dikemukakan pada tahun 1956, AI semakin berkembang menuju kecerdasan kognitif yang berbasis pada kecerdasan komputasi dan kecerdasan perseptual. Dalam beberapa tahun terakhir, dengan munculnya ChatGPT dan sora, perkembangan AI berkembang pesat. Namun, pada Seminar Tata Kelola dan Perbatasan Kecerdasan Buatan Sino-Singapura yang diselenggarakan oleh Chinese Academy of Engineering dan Singapore Academy of Engineering dan diselenggarakan oleh Universitas Tongji hari ini (28 Oktober), banyak akademisi yang meremehkan "demam AI". “Masalah keamanan endogen jaringan secara komprehensif menantang paradigma penggerak ekosistem digital saat ini.” Wu Jiangxing, seorang akademisi dari Akademi Teknik Tiongkok dan seorang profesor di Universitas Fudan, mengatakan dengan blak-blakan bahwa baik sistem keamanan itu sendiri maupun sistem keamanannya sangat disesalkan. penjaga keamanan jaringan yang menjaga rumah dan panti jompo saat ini mampu Menjawab tiga pertanyaan utama penyiksaan jiwa: "Apakah ada celah?" "Apakah ada pintu belakang/pintu jebakan?" "Apakah ada banyak masalah keamanan?" Dia dengan serius menunjukkan bahwa sistem aplikasi AI saat ini memiliki ketidakseimbangan yang serius antara tanggung jawab dan risiko keamanan. Tidak ada pedagang yang dapat menjamin bahwa produknya tidak memiliki kerentanan keamanan dan pintu belakang, dan tidak ada lembaga pengujian yang dapat menjamin bahwa produk yang diserahkan untuk diperiksa akan bebas dari kerentanan dan pintu belakang. Hal ini menjadi mimpi buruk yang tidak bisa dihindari bagi semua negara di era AI. Pada pertemuan tersebut, banyak ahli menganalisis bahwa kecerdasan buatan dan model berukuran besar yang tampaknya kuat juga memiliki kekurangan dalam hal konsumsi, keselamatan, dan etika. Perkembangan kecerdasan buatan masih dalam tahap pengembangan, dan masih banyak ruang untuk pengembangan. Para akademisi dari Tiongkok dan Singapura harus memperkuat kerja sama dan bekerja sama untuk memandu AI agar lebih hemat energi, aman, dan berbudi luhur. Kecerdasan buatan yang tampaknya kuat sebenarnya penuh dengan bahaya tersembunyi. Jika menyangkut risiko keamanan jaringan, banyak orang yang sangat terkesan dengan insiden layar biru Microsoft yang terjadi pada bulan Juli tahun ini. Pada tanggal 19 Juli, pengguna dari banyak negara di seluruh dunia menemukan bahwa komputer perusahaan mereka mengalami layar biru, yang menunjukkan “Perangkat mengalami masalah dan perlu dimulai ulang. Selanjutnya, masalah layar biru dipastikan terkait dengan pembaruan perangkat lunak oleh perusahaan keamanan jaringan Crowd Strike. Dalam pandangan Wu Jiangxing, ini adalah kasus umum “pengawal” keamanan yang menikam manusia dari belakang. “Masalah kecerdasan buatan dan keamanan sangat erat hubungannya, dan keamanan adalah cacat genetik yang ditimbulkannya ibu dalam arsitektur komputer modern. Masalah keamanan lingkungan operasi AI harus diperhatikan. " Dalam hal ini, Zheng Qinghua, rektor Universitas Tongji dan akademisi Akademi Teknik Tiongkok, memiliki pandangan yang sama. "Meskipun kami sangat mengapresiasi pencapaian besar dari model-model besar, kami juga harus sangat menyadari bahwa ada beberapa kelemahan yang melekat pada model tersebut model besar." Zheng Qinghua mencontohkan. Performa pertama adalah Konsumsi data dan daya komputasi yang berlebihan. "Suatu hari nanti, informasi berharga yang ditambang manusia dari data sumber terbuka di Internet akan mencapai puncaknya, sama seperti manusia menambang logam langka dari sumber daya mineral, akan ada saatnya mereka habis." dari kelupaan yang parah dan kemampuan traksi yang lemah pada adegan tersebut. Zheng Qinghua menjelaskan bahwa model besar menyukai yang baru dan membenci yang lama, dan sulit menarik kesimpulan dari satu contoh. Seringkali sulit untuk beradaptasi dengan A, tetapi sulit untuk beradaptasi dengan B. Tidak mudah untuk menemukannya keseimbangan antara keduanya. Yang ketiga adalah kemampuan penalaran yang lemah. Model besar menggunakan algoritma pelatihan autoregresif, sehingga tidak mampu membentuk kemampuan penalaran logis berdasarkan penalaran kausal yang dibangun oleh manusia. Metode pembangkitan autoregresif juga sulit untuk mengatasi tugas-tugas penalaran kompleks yang memerlukan penelusuran mundur dan coba-coba, yang sering kali mengarah pada fenomena bahwa model besar mempelajari informasi yang salah untuk menyelesaikan tugas. Cacat inheren keempat adalah model besar tidak mengetahui di mana kesalahannya dan mengapa kesalahannya, apalagi mengoreksinya ketika diketahui. Zheng Qinghua dengan blak-blakan mengatakan bahwa kelemahan bawaan ini telah menyebabkan masalah seperti halusinasi dan pengendalian yang buruk pada model besar. “Khususnya dalam aplikasi teknik dan skenario lain di mana kita perlu mengetahui apa yang terjadi dan mengapa, model besar bisa dikatakan tidak berdaya.” Wen Yonggang, akademisi dari Singapore Academy of Engineering dan profesor di Nanyang Technological University, percaya bahwa masyarakat manusia sedang memasuki periode transformasi ganda yaitu era digitalisasi dan keberlanjutan. Khususnya pada transformasi digital, banyaknya perubahan aktivitas dari offline menjadi online yang menghabiskan banyak sumber daya komputasi dan server. Prediksinya, pada tahun 2030, konsumsi listrik pusat data Singapura akan mencapai 12% dari total konsumsi listrik masyarakat. Yang lebih mengkhawatirkan lagi adalah penggunaan AI secara ekstensif juga akan meningkatkan volume emisi karbon dan berdampak buruk terhadap lingkungan. Memandu AI untuk berlari ke arah yang benar. Ketika AI berjalan dengan mata tertutup, bagaimana manusia, para pengembang teknologi, bisa memegang kemudi? Pada pertemuan tersebut, para ahli juga memberikan saran-saran yang layak berdasarkan penelitian jangka panjang. Wu Jiangguang telah menciptakan teori keamanan endogen dan meniru teori pertahanan sejak 2013. Berdasarkan landasan teori, tim membangun arsitektur keselamatan endogen untuk memberdayakan sistem mengemudi cerdas di laboratorium Nanjing. Sistem ini memiliki lebih dari 20 skenario aplikasi dan lebih dari 100 individu aplikasi yang berbeda. Sistem ini memiliki tingkat keberhasilan identifikasi komprehensif lebih dari 90% pada masalah AI umum seperti serangan balik dan kerentanan pintu belakang. Zheng Qinghua mengatakan bahwa sejarah dan pengalaman telah membuktikan bahwa setiap kemajuan manusia dalam ilmu otak memiliki acuan, inspirasi dan pedoman bagi penelitian jaringan saraf tiruan dan kecerdasan mesin. “Model besar saat ini hanyalah referensi paling awal dan sederhana tentang otak manusia. Jika kita dapat menarik referensi mendalam dari ilmu otak, terutama mekanisme representasi memori, aktivasi, pengambilan, dan pengkodean ingatan yang unik pada manusia, kita diharapkan dapat memecahkan masalah yang dihadapi oleh model-model besar saat ini. "Oleh karena itu, ia mengusulkan: Tiongkok harus memiliki model kecerdasan mesinnya sendiri. Universitas Tongji saat ini membuka batasan disiplin ilmu, mempromosikan integrasi ilmu komputer dan ilmu otak, mempelajari korelasi antara memori otak manusia dan memori mesin, dan mengeksplorasi cara-cara baru menggunakan ilmu informasi untuk mempelajari ilmu otak. Kecerdasan buatan saat ini telah mendobrak batas-batas disiplin ilmu tradisional dan meluas ke hampir semua disiplin ilmu. Guo Guisheng, akademisi dari Singapore Academy of Engineering dan profesor di Singapore University of Technology and Design, juga merupakan anggota AI-RAN Association. Dapat dipahami bahwa AI-RAN mengacu pada "Artificial Intelligence (AI)-Radio Access Network (RAN)" dan merupakan asosiasi industri yang bertujuan untuk merevitalisasi integrasi kecerdasan buatan dan komunikasi nirkabel serta inovasi teknologi terdepan. Guo Guisheng memperkenalkan bahwa sejumlah besar proyek terkait AI dan proyek komputasi kuantum dipromosikan melalui interkoneksi interdisipliner. Dalam pandangannya, membimbing AI untuk berbuat baik tidak hanya perlu keluar dari lingkaran akademis, namun juga secara aktif terhubung dengan kearifan global. Ia berharap kedepannya akan semakin banyak laboratorium dan perusahaan dari universitas-universitas Tiongkok yang bergabung dalam lingkaran pertemanan AI dan menjalin kemitraan. Reporter tersebut mengetahui bahwa Singapura, sebagai "Ibukota Kecerdasan Buatan" yang terkenal di dunia, adalah salah satu negara pertama di dunia yang meluncurkan strategi kecerdasan buatan nasional dan telah melakukan banyak pekerjaan perintis dalam tata kelola kecerdasan buatan. Di tempat kejadian, Zheng Qinghua juga mengusulkan bahwa di masa depan, jika kita ingin mewujudkan gambaran indah "setiap orang memiliki kecerdasan, mesin memiliki kecerdasan, masing-masing memiliki kebijaksanaannya sendiri, dan kebijaksanaan serta kebijaksanaan dimiliki bersama", para ahli di bidangnya kecerdasan buatan dari Tiongkok dan Singapura perlu bekerja sama untuk menciptakan sesuatu yang lebih bermanfaat bagi dunia.