Baru-baru ini, kontroversi besar muncul dalam gugatan federal di Minnesota mengenai undang-undang yang "menggunakan teknologi deepfake untuk mempengaruhi pemilu": isi pernyataan tertulis yang mendukung undang-undang tersebut dipertanyakan sebagai teks yang dibuat oleh AI. Inti dari kejadian ini adalah dalam alat bukti yang diajukan Jaksa Agung, banyak makalah penelitian yang diduga tidak ada, sehingga menimbulkan kekhawatiran akan penerapan teknologi kecerdasan buatan di bidang hukum dan tantangan berat dalam verifikasi keasliannya. informasi. Peristiwa ini tidak hanya terkait dengan keadilan proses hukum, namun juga menyoroti pentingnya menjaga keakuratan informasi di era kecerdasan buatan.
Baru-baru ini, kontroversi baru muncul dalam gugatan federal yang sedang berlangsung di Minnesota mengenai penggunaan deepfake untuk mempengaruhi pemilu. Pernyataan tertulis yang mendukung undang-undang tersebut mungkin berisi teks yang dihasilkan oleh kecerdasan buatan, kata pengacara penggugat dalam pengajuan hukum terbaru.
Catatan sumber gambar: Gambar dihasilkan oleh AI, dan penyedia layanan otorisasi gambar Midjourney
Menurut Reformator Minnesota, Jaksa Agung negara bagian Keith Ellison meminta Jeff Hancock, direktur pendiri Lab Media Sosial Stanford, untuk memberikan bukti yang relevan. Namun, beberapa penelitian yang disebutkan dalam pernyataan tertulis Hancock kurang memiliki bukti substansial dan menunjukkan kemungkinan "halusinasi" AI.
Pernyataan tertulis Hancock mengutip penelitian tahun 2023 yang diterbitkan dalam Journal of Information Technology and Politics berjudul "The Impact of Deepfake Video on Political Attitudes and Behavior."
Namun, laporan menyatakan tidak ada catatan penelitian yang ditemukan di jurnal atau publikasi lainnya. Selain itu, penelitian lain yang disebutkan dalam pernyataan tertulis bertajuk “Deepfakes dan Ilusi Keaslian: Proses Kognitif di Balik Penerimaan Misinformasi” juga kurang memiliki dasar empiris.
Sebagai tanggapan, pengacara Perwakilan Minnesota Mary Franson dan YouTuber konservatif Christopher Khols mengatakan dalam pengajuannya: "Kutipan ini jelas memiliki efek fitur 'ilusi' kecerdasan buatan (AI), yang menyiratkan bahwa setidaknya sebagian dari konten dihasilkan oleh sejumlah besar model bahasa seperti ChatGPT.” Mereka lebih lanjut menunjukkan bahwa situasi seperti ini mempertanyakan kredibilitas seluruh pernyataan tertulis, terutama karena banyak argumennya kurang didukung oleh metodologi dan logika analitis.
Hancock tidak menanggapi kejadian tersebut. Peristiwa ini memicu perbincangan mengenai penerapan kecerdasan buatan di bidang hukum, khususnya terkait kepentingan publik dan pemilu, menjadi topik penting.
Kejadian ini tidak hanya menarik perhatian terhadap dampak teknologi deepfakes, namun juga memberikan pemikiran baru bagi komunitas hukum ketika berhadapan dengan bukti terkait kecerdasan buatan. Cara mengidentifikasi dan memverifikasi sumber informasi secara efektif telah menjadi tantangan penting yang perlu dihadapi dalam praktik hukum.
Menyorot:
Isi pernyataan tertulis Minnesota Deepfakes Act telah dipertanyakan sebagai teks yang dibuat oleh AI.
Tim kuasa hukum menegaskan penelitian yang dikutip tidak ada dan menduga ada "halusinasi" AI.
Insiden ini memicu diskusi luas mengenai penggunaan kecerdasan buatan dalam dokumen hukum, dengan fokus pada keakuratan informasi.
Kejadian ini telah memberikan peringatan bagi komunitas hukum, mengingatkan kita bahwa kita perlu mengkaji ulang penerapan teknologi kecerdasan buatan dalam bukti hukum dan menetapkan mekanisme verifikasi yang lebih lengkap untuk memastikan keadilan dan keandalan prosedur hukum. Di masa depan, cara mengidentifikasi dan mencegah informasi palsu yang dihasilkan oleh AI secara efektif akan menjadi topik penting.