Dengan pesatnya perkembangan teknologi kecerdasan buatan, khususnya model bahasa besar (LLM), masalah keamanannya menjadi semakin menonjol. Namun, undang-undang dan peraturan yang ada, khususnya Computer Fraud and Abuse Act (CFAA) di Amerika Serikat, tidak cukup dalam menangani risiko hukum dalam penelitian keamanan AI. Para peneliti di Universitas Harvard baru-baru ini menunjukkan pada Konferensi Black Hat bahwa CFAA gagal melindungi peneliti keamanan AI secara efektif dan malah dapat membuat mereka terkena risiko hukum, sehingga memicu perhatian dan diskusi luas di industri mengenai kerangka hukum untuk penelitian keamanan AI. Artikel ini akan memberikan analisis mendalam mengenai hal tersebut.
Saat ini, dengan pesatnya perkembangan teknologi modern, kecerdasan buatan, khususnya model bahasa besar (LLM), secara bertahap menjadi fokus. Namun, undang-undang keamanan siber AS tampaknya gagal mengimbangi bidang yang berubah dengan cepat ini. Baru-baru ini, sekelompok peneliti dari Universitas Harvard menunjukkan pada Konferensi Black Hat bahwa Undang-undang Penipuan dan Penyalahgunaan Komputer (CFAA) yang berlaku saat ini tidak secara efektif melindungi mereka yang terlibat dalam penelitian keamanan AI dan malah dapat membuat mereka terkena risiko hukum.
Catatan sumber gambar: Gambar dihasilkan oleh AI, dan penyedia layanan otorisasi gambar Midjourney
Para sarjana ini termasuk Kendra Albert, Ram Shankar Siva Kumar dan Jonathon Penney dari Harvard Law School. Albert menyebutkan dalam sebuah wawancara bahwa undang-undang yang ada tidak secara jelas mendefinisikan perilaku seperti "serangan suntikan petunjuk", sehingga menyulitkan peneliti untuk menilai apakah tindakan mereka melanggar hukum. Dia mengatakan bahwa meskipun beberapa tindakan, seperti mengakses model tanpa izin, jelas-jelas ilegal, pertanyaannya adalah apakah peneliti yang telah memperoleh akses ke sistem AI menggunakan model tersebut dengan cara yang tidak mereka inginkan.
Pada tahun 2021, kasus Van Buren v. Amerika Serikat di Mahkamah Agung AS mengubah interpretasi CFAA, dengan menetapkan bahwa undang-undang tersebut hanya berlaku bagi mereka yang memiliki akses tidak sah ke informasi di dalam komputer. Keputusan ini masuk akal dalam sistem komputer tradisional, namun gagal jika diterapkan pada model bahasa besar. Albert menunjukkan bahwa penggunaan bahasa alami untuk berinteraksi dengan AI membuat definisi hukum ini menjadi lebih rumit, dan sering kali, respons AI tidak setara dengan mengambil informasi dari database.
Pada saat yang sama, Sivakumar juga menyebutkan bahwa diskusi hukum tentang penelitian keamanan AI kurang mendapat perhatian dibandingkan isu-isu seperti hak cipta, dan dia sendiri tidak yakin apakah dia akan terlindungi saat melakukan uji serangan tertentu. Albert mengatakan, mengingat ketidakpastian undang-undang yang ada, masalah ini mungkin akan diklarifikasi melalui litigasi di pengadilan di masa depan, namun saat ini, banyak peneliti yang “berniat baik” merasa bingung.
Dalam lingkungan hukum ini, Albert menyarankan peneliti keamanan untuk mencari dukungan hukum guna memastikan tindakan mereka tidak melanggar hukum. Dia juga khawatir bahwa ketentuan hukum yang tidak jelas dapat menakuti calon peneliti dan membiarkan penyerang jahat lolos begitu saja, sehingga menciptakan risiko keamanan yang lebih besar.
Menyorot:
Undang-undang Penipuan dan Penyalahgunaan Komputer di AS tidak memberikan perlindungan yang memadai bagi peneliti keamanan AI dan mungkin menghadapi risiko hukum.
Undang-undang yang ada saat ini tidak memiliki definisi yang jelas mengenai tindakan seperti serangan suntikan tip, sehingga menyulitkan peneliti untuk menentukan legalitasnya.
Para ahli percaya bahwa proses pengadilan mungkin diperlukan di masa depan untuk memperjelas ketentuan hukum yang relevan dan melindungi peneliti yang bonafid.
Secara keseluruhan, dilema hukum di bidang penelitian keamanan AI memerlukan perhatian. Mengingat karakteristik model bahasa yang besar, undang-undang dan peraturan yang lebih jelas dan bertarget perlu dirumuskan untuk melindungi hak dan kepentingan peneliti yang sah, mendorong perkembangan penelitian keamanan AI yang sehat, dan secara efektif memerangi serangan jahat. Hanya dengan cara ini kita dapat memastikan perkembangan teknologi kecerdasan buatan yang sehat dan bermanfaat bagi seluruh umat manusia.