Sengketa hukum baru-baru ini di British Columbia, Kanada, yang disebabkan oleh penggunaan ChatGPT untuk menghasilkan kasus-kasus palsu, telah memicu kekhawatiran luas mengenai penerapan kecerdasan buatan di bidang hukum. Insiden ini menyoroti pentingnya penggunaan alat kecerdasan buatan secara hati-hati dalam praktik hukum dan juga memperingatkan pengacara untuk meninjau secara ketat konten yang dihasilkan AI untuk memastikan keakuratan dan keaslian informasi. Artikel ini akan merinci kejadian tersebut dan implikasinya.
Pengacara British Columbia, Chong Ke, menyebabkan kekacauan di pengadilan setelah mengutip kasus palsu yang dibuat oleh ChatGPT dalam proses perceraian atas nama jutawan Wei Chen. Hakim menekankan bahwa kecerdasan buatan generatif tidak dapat menggantikan pengetahuan profesional pengacara dan menekankan bahwa pilihan yang cermat harus dibuat ketika menggunakan alat teknologi. Ke diperintahkan untuk menanggung biaya pengacara pihak lawan dan meninjau dokumen dari kasus lain. Komunitas hukum memperingatkan risiko penggunaan alat kecerdasan buatan dan menekankan bahwa materi yang diserahkan ke pengadilan harus akurat dan benar.Kejadian ini tidak hanya mengungkap keterbatasan teknologi kecerdasan buatan, namun juga memberikan peringatan bagi para pengacara dan praktisi terkait. Di masa depan, bagaimana memanfaatkan kecerdasan buatan dengan lebih baik untuk membantu pekerjaan hukum sambil menghindari potensi risikonya akan menjadi isu penting. Kita perlu merumuskan norma dan pedoman yang lebih lengkap untuk memastikan perkembangan dan penerapan teknologi kecerdasan buatan yang sehat di bidang hukum.