Baru-baru ini, dua makalah tentang kecerdasan buatan generatif (AI) telah memicu diskusi hangat, menunjukkan bahwa teks yang dihasilkan oleh AI seringkali "tidak masuk akal". Kedua makalah ini memberikan analisis mendalam tentang potensi kerugian bagi masyarakat yang disebabkan oleh misinformasi yang dihasilkan oleh AI dari perspektif karakteristik penting AI dan kelemahan undang-undang dan peraturan saat ini, serta menyerukan langkah-langkah yang lebih efektif untuk menghindari risiko. Para penulis makalah ini berpendapat bahwa mengaitkan kesalahan AI dengan “ilusi” adalah hal yang menyesatkan dan istilah yang lebih akurat harus digunakan untuk menggambarkan fenomena ini, sehingga meningkatkan kesadaran dan pemahaman masyarakat terhadap teknologi AI serta mendorong penerapan undang-undang dan peraturan yang relevan. peraturan. Lengkap.
Baru-baru ini, dua tim peneliti merilis makalah yang menarik perhatian luas, secara blak-blakan menyatakan bahwa konten produk kecerdasan buatan generatif (AI) pada dasarnya dapat dianggap sebagai "omong kosong". Makalah yang berjudul "ChatGPT is Nonsense" menunjukkan bahwa pengabaian keakuratan oleh AI generatif dalam menghasilkan informasi menimbulkan banyak tantangan bagi pegawai negeri, terutama pejabat yang memiliki kewajiban hukum untuk mengatakan kebenaran.
Penulis Michael Townsen Hicks, James Humphries, dan Joe Slater menekankan bahwa misinformasi yang dihasilkan oleh AI generatif tidak bisa begitu saja digambarkan sebagai "kebohongan" atau "ilusi". Berbeda dengan kebohongan yang sengaja menipu, omong kosong mengacu pada bentuk ekspresi yang tidak peduli pada kebenaran dalam upaya memberikan kesan tertentu. Mereka berpendapat bahwa menyebut kesalahan AI sebagai “halusinasi” hanya menyesatkan masyarakat dengan berpikir bahwa mesin ini masih mencoba mengkomunikasikan apa yang mereka “yakini”.
“Menyebut kesalahan ini sebagai ‘omong kosong’ dan bukan ‘ilusi’ tidak hanya akan lebih akurat, namun juga akan membantu meningkatkan pemahaman masyarakat mengenai teknologi tersebut,” kata mereka. terutama dalam konteks saat ini dimana komunikasi ilmu pengetahuan dan teknologi sangat membutuhkan perbaikan.
Sementara itu, makalah penelitian lain mengenai Large Language Models (LLMs) berfokus pada lingkungan hukum dan etika UE mengenai masalah ini. Kesimpulan dari makalah ini adalah bahwa undang-undang dan peraturan mengenai AI yang ada saat ini masih belum cukup sempurna untuk secara efektif mencegah kerugian yang disebabkan oleh "omong kosong" yang ditimbulkan oleh AI tersebut. Penulis Sandra Wachter, Brent Mittelstadt dan Chris Russell menyarankan penerapan peraturan serupa dengan peraturan dalam penerbitan, dengan penekanan pada menghindari "ucapan santai" yang dapat menyebabkan kerugian sosial.
Mereka mencatat bahwa kewajiban ini menekankan bahwa tidak ada satu entitas pun, baik pemerintah maupun swasta, yang boleh menjadi satu-satunya penentu kebenaran. Mereka juga berpendapat bahwa "ucapan acak" dari AI generatif dapat mengubah kebenaran menjadi masalah frekuensi dan opini mayoritas, bukan fakta sebenarnya.
Secara keseluruhan, kedua makalah ini bersama-sama mengungkapkan potensi risiko AI generatif dan menyerukan semua sektor masyarakat untuk memperhatikan dan mengambil tindakan guna menyempurnakan undang-undang dan peraturan yang relevan, menstandardisasi pengembangan teknologi AI, dan memastikan bahwa teknologi AI dapat memberikan pelayanan yang lebih baik. masyarakat manusia.