Perkembangan cepat kecerdasan buatan telah membawa banyak kenyamanan, tetapi juga menimbulkan risiko besar. Baru-baru ini, seorang agen AI bernama "Fungifried" memberikan nasihat memasak jamur yang salah dalam kelompok penggemar jamur Facebook, yang hampir menyebabkan bencana, menyoroti risiko pengaman AI diterapkan pada daerah berisiko tinggi. Insiden ini telah memicu kekhawatiran publik tentang keamanan AI dan mendorong orang untuk menguji kembali batas -batas aplikasi teknologi AI.
Baru -baru ini, sebuah insiden yang terjadi di Grup Penggemar Jamur Facebook sekali lagi menyebabkan kekhawatiran tentang keamanan aplikasi AI. Menurut 404Media, seorang agen AI bernama "Fungifries" menyelinap ke kelompok "Identifikasi Jamur Northeast dan Diskusi dengan 13.000 anggota dan memberikan saran palsu dengan risiko yang berpotensi fatal.
Ketika ditanya cara memasak jamur sarkosphaera coronaria yang mengandung konsentrasi arsenik tinggi, jamur tidak hanya secara keliru menyatakan bahwa jamur itu "dapat dimakan", tetapi juga memperkenalkan berbagai metode memasak termasuk menggoreng, menggoreng, rebus, dll. Bahkan, jamur ini telah menyebabkan kasus fatal.
Rick Claypool, direktur penelitian di organisasi keamanan konsumen Public Citizen, menunjukkan bahwa menggunakan AI untuk mengotomatiskan identifikasi jamur yang dapat dimakan dan beracun adalah "aktivitas berisiko tinggi" dan sistem AI saat ini tidak dapat secara akurat menyelesaikan tugas ini.
Ini bukan kasus yang terisolasi. Dalam setahun terakhir, aplikasi AI sering membuat kesalahan serius di bidang keamanan pangan: - Beberapa aplikasi AI merekomendasikan membuat sandwich yang mengandung penolak nyamuk, dan sistem AI tertentu memberikan resep yang mengandung klorin, dan bahkan panduan yang tidak masuk akal tentang menyarankan batu makan - Google AI juga dia pernah mengklaim bahwa "anjing dapat berolahraga" dan menyarankan menggunakan lem untuk membuat pizza, dll.
Meskipun ada kesalahan AI yang sering, perusahaan -perusahaan Amerika masih dengan cepat mempromosikan mempopulerkan layanan pelanggan AI. Di balik pendekatan "fokus pada kecepatan dan pengabaian" ini mencerminkan bahwa perusahaan terlalu khawatir tentang penghematan biaya dan kurang pertimbangan untuk keselamatan pengguna. Para ahli menyerukan agar hati -hati menggunakan teknologi AI di bidang tertentu, terutama yang melibatkan keamanan, untuk memastikan keakuratan dan keandalan informasi.
Insiden "Fungifriend" itu membunyikan panggilan bangun untuk memperingatkan kita bahwa sambil menikmati kenyamanan AI, kita harus memperhatikan risiko keamanannya. Di masa depan, teknologi AI perlu diuji dan diatur sebelum diterapkan untuk memastikan keandalan dan keamanannya dan menghindari insiden serupa terjadi lagi. Hanya dengan cara ini manfaat AI dapat benar -benar dimanfaatkan dan menghindarinya menjadi potensi bahaya.