Menurut Economic Daily, serangkaian video dubbing yang dihasilkan oleh AI telah menarik perhatian di Internet. Video tersebut ternyata sangat realistis 100 juta kali dalam jumlah waktu singkat. Namun, konten dalam video tersebut tidak ada hubungannya dengan figur publik dalam gambar tersebut dan telah dihapus dari platform.
Perkembangan teknologi AI telah menurunkan ambang batas pemalsuan mendalam dan produksi massal berbiaya rendah, dan gambar, video pengubah suara, dan video pengubah wajah yang dihasilkan AI telah muncul dalam jumlah besar. Meskipun video-video ini menarik perhatian, risiko yang tersembunyi di baliknya tidak dapat diabaikan.
Saat ini, pembuatan dan penyebaran informasi palsu telah menjadi masalah global, dan penggunaan teknologi sintesis kecerdasan buatan agar terlihat nyata membuat masyarakat awam kesulitan dalam mengidentifikasi informasi. "Laporan Keamanan Kecerdasan Buatan 2024" menunjukkan bahwa penipuan pemalsuan mendalam berbasis AI akan meningkat 30 kali lipat pada tahun 2023, sehingga menimbulkan ancaman serius terhadap keamanan jaringan dan jaminan sosial. Penyebaran informasi palsu tidak hanya mengganggu tatanan normal dunia maya, namun juga dapat menularkan emosi negatif dari dunia maya ke dunia nyata, sehingga memperburuk kecemasan sosial.
Mengatasi kekacauan seperti pemalsuan yang mendalam memerlukan kolaborasi multi-partai dan tata kelola bersama. Saat ini, negara kita telah mengumumkan undang-undang dan peraturan seperti "Peraturan tentang Manajemen Sintesis Mendalam Layanan Informasi Internet" untuk memperkuat pengelolaan konten dari sumbernya. Pada saat yang sama, dirilisnya "Langkah-langkah Pelabelan Konten Sintetis yang Dihasilkan oleh Kecerdasan Buatan (Draft untuk Komentar)" juga menandai bahwa tingkat nasional meningkatkan pengawasan terhadap teknologi AI. Hanya dengan membiarkan AI berkembang secara sehat dalam kerangka hukum dan kepatuhan, masyarakat dapat benar-benar menikmati keuntungan yang dibawa oleh perubahan teknologi dan mendorong perkembangan industri kecerdasan buatan yang sehat.
Sebagai bagian penting dari penyebaran informasi, operator platform dan penyedia layanan juga harus memikul tanggung jawab yang sesuai, menarik garis merah untuk konten yang dihasilkan AI, melarang keras penyebaran konten ilegal, melanggar, dan menipu, serta menambahkan tanda peringatan yang jelas untuk mencegah penyebaran informasi palsu. . Selain itu, penggunaan tanda air digital, stempel waktu, fungsi hash, dan sarana teknis lainnya tidak hanya dapat meningkatkan kemampuan verifikasi keaslian informasi, namun juga menjadi cara yang efektif untuk mencegah penyebaran informasi palsu. Sebagai konsumen konten, penonton juga harus tetap waspada, meningkatkan kemampuan mereka dalam mengidentifikasi konten yang dihasilkan AI, dan menghindari keyakinan yang bias.