LLM SECURITY
1.0.0
Tautan ke artikel, alat, makalah, buku, dll. yang berisi materi pendidikan bermanfaat yang relevan dengan proyek Keamanan LLM.
Publikasi | Pengarang | Tanggal | Judul dan Tautan |
---|---|---|---|
Dengan Lab Aman | Benjamin Hull, Donato Capitella | 08-April-24 | Deteksi injeksi cepat khusus domain dengan pengklasifikasi BERT |
Dengan Lab Aman | Donato Capitella | 21-Februari-24 | Haruskah Anda membiarkan ChatGPT mengontrol browser Anda? / Video YouTube |
Penjelasan Injeksi Cepat dengan contoh video | Arnav Bathla | 12-Des-23 | Penjelasan Injeksi Cepat dengan contoh video |
Dengan Lab Aman | Donato Capitella | 04-Des-23 | Studi Kasus dalam Injeksi Cepat untuk Agen ReAct LLM/ Video YouTube |
Keamanan Cyber Terhadap AI Wiki | Aditya Rana | 04-Des-23 | Wiki AI Keamanan Cyber |
Tim Cybersec iFood | Emanuel Valente | 04-Sep-23 | Injeksi Cepat: Menjelajahi, Mencegah & Mengidentifikasi Kerentanan Langchain |
Sandy Dunn | 15-Oktober-23 | Peta Pikiran Ancaman AI | |
Sedang | Ken Huang | 11-Jun-23 | Pola Arsitektur dan Kontrol Keamanan Aplikasi yang Didukung LLM |
Sedang | Avinash Sinha | 02-Februari-23 | AI-ChatGPT-Kemampuan Pengambilan Keputusan- Percakapan yang Terlalu Ramah dengan ChatGPT |
Sedang | Avinash Sinha | 06-Februari-23 | AI-ChatGPT-Kemampuan Pengambilan Keputusan- Meretas Psikologi ChatGPT- ChatGPT Vs Siri |
Kabel | Matt Burgess | 13-April-23 | Peretasan ChatGPT Baru Saja Dimulai |
Perusahaan Matematika | Arjun Menon | 23-Jan-23 | Keracunan Data dan Dampaknya terhadap Ekosistem AI |
Spektrum IEEE | Payal Dhar | 24-Mar-23 | Melindungi Model AI dari “Keracunan Data” |
Kripto AMB | Suzuki Shillsalot | 30-April-23 | Inilah cara siapa pun dapat melakukan jailbreak pada ChatGPT dengan 4 metode teratas ini |
Teknologipedia | Kaushik Sobat | 22-April-23 | Apa itu Jailbreak pada model AI seperti ChatGPT? |
Daftar | Thomas Claburn | 26-April-23 | Bagaimana serangan injeksi cepat membajak AI kelas atas saat ini – dan hal ini sulit untuk diperbaiki |
Itemis | Rafael Tappe Maestro | 14-Februari-23 | Bangkitnya Model Bahasa Besar ~ Bagian 2: Serangan Model, Eksploitasi, dan Kerentanan |
Lapisan Tersembunyi | Eoin Wickens, Marta Janus | 23-Mar-23 | Sisi Gelap Model Bahasa Besar: Bagian 1 |
Lapisan Tersembunyi | Eoin Wickens, Marta Janus | 24-Mar-23 | Sisi Gelap Model Bahasa Besar: Bagian 2 |
Rangkullah si Merah | Johann Rehberger (wunderwuzzi) | 29-Mar-23 | Suntikan AI: Suntikan Segera Langsung dan Tidak Langsung serta Implikasinya |
Rangkullah si Merah | Johann Rehberger (wunderwuzzi) | 15-April-23 | Jangan begitu saja mempercayai tanggapan LLM. Ancaman terhadap chatbot |
MufeedDVH | umpan mu | 9-Des-22 | Keamanan di era LLM |
danielmiessler.com | Daniel Miessler | 15-Mei-23 | Peta Permukaan Serangan AI v1.0 |
Bacaan Gelap | Gary McGraw | 20-April-23 | Wawasan Pakar: Bahaya Menggunakan Model Bahasa Besar Sebelum Dipanggang |
sarang lebah.io | Phillip Carter | 25-Mei-23 | Semua Hal Sulit yang Tidak Dibicarakan Siapa pun saat Membangun Produk dengan LLM |
Kabel | Matt Burgess | 25-Mei-23 | Lubang Keamanan di Inti ChatGPT dan Bing |
Ulasan BizPac | Terresa Monroe-Hamilton | 30-Mei-23 | 'Saya tidak menyadarinya': Pengacara NY menghadapi sanksi setelah menggunakan ChatGPT untuk menulis laporan singkat yang berisi kutipan 'palsu' |
Washington Post | Prashu Verma | 18-Mei-23 | Seorang profesor menuduh kelasnya menggunakan ChatGPT, sehingga membahayakan ijazah |
Penelitian Keamanan Kudelski | Natan Hamiel | 25-Mei-23 | Mengurangi Dampak Serangan Injeksi Cepat Melalui Desain |
Desa AI | GTKlondike | 7-Juni-23 | Aplikasi LLM Pemodelan Ancaman |
Rangkullah si Merah | Johann Rehberger | 28-Mar-23 | Penjelasan Eksploitasi Plugin ChatGPT |
Pengembang NVIDIA | Will Pearce, Joseph Lucas | 14-Jun-23 | Tim Merah NVIDIA AI: Sebuah Pengantar |
Kanari | Naomi Clarkson | 7-April-23 | Pembobolan penjara Google Bard |
Lembaga | Tanggal | Judul dan Tautan |
---|---|---|
NIST | 8-Maret-2023 | Buku Putih NIST AI 100-2e2023 (Draf) |
Kantor Komisaris Informasi Inggris (ICO) | 3-April-2023 | AI Generatif: delapan pertanyaan yang perlu ditanyakan oleh pengembang dan pengguna |
Pusat Keamanan Siber Nasional Inggris (NCSC) | 2-Juni-2023 | ChatGPT dan model bahasa besar: apa risikonya? |
Pusat Keamanan Siber Nasional Inggris (NCSC) | 31 Agustus 2022 | Prinsip keamanan pembelajaran mesin |
Parlemen Eropa | 31 Agustus 2022 | EU AI Act: peraturan pertama tentang kecerdasan buatan |
Publikasi | Pengarang | Tanggal | Judul dan Tautan |
---|---|---|---|
Arxiv | Samuel Gehman, dkk | 24-Sep-20 | REALTOXICITYPROMPTS: Mengevaluasi Degenerasi Neural Toxic dalam Model Bahasa |
Arxiv | Fabio Perez, Ian Ribeiro | 17-Nov-22 | Abaikan Perintah Sebelumnya: Teknik Serangan Untuk Model Bahasa |
Arxiv | Nicholas Carlini, dkk | 14-Des-20 | Mengekstraksi Data Pelatihan dari Model Bahasa Besar |
Grup NCC | Chris Anley | 06-Juli-22 | Serangan Praktis pada Sistem Pembelajaran Mesin |
Grup NCC | Jose Selvi | 5-Des-22 | Menjelajahi Serangan Injeksi Segera |
Arxiv | Varshini Subhash | 22-Februari-2023 | Bisakah Model Bahasa Besar Mengubah Preferensi Pengguna? |
? | Jing Yang dkk | 23 Mei 2023 | Tinjauan Literatur Sistematis tentang Keamanan Informasi di Chatbots |
Arxiv | Ishak dkk | 18 April 2023 | Keamanan Produk AI: Hal Utama bagi Pengembang |
OpenAI | OpenAI | 15-Mar-23 | Laporan Teknis GPT-4 |
Arxiv | Kai Greshake, dkk | 05-Mei-23 | Bukan tujuan Anda mendaftar: Mengkompromikan Aplikasi Terintegrasi LLM Dunia Nyata dengan Injeksi Prompt Tidak Langsung |
Arxiv | Alexander Wan, dkk | 01-Mei-23 | Model Bahasa Keracunan Selama Penyetelan Instruksi |
Arxiv | Leon Derczynski, dkk | 31-Mar-23 | Menilai Penerapan Model Bahasa dengan Kartu Risiko |
Arxiv | Jan von der Assen, dkk | 11-Mar-24 | Pemodelan Ancaman Berbasis Aset untuk Sistem berbasis AI |
Publikasi | Pengarang | Tanggal | Judul dan Tautan |
---|---|---|---|
Deloitte | Institut AI Deloitte | 13-Mar-23 | Perbatasan baru dalam kecerdasan buatan - Implikasi AI Generatif terhadap bisnis |
Tim8 | Tim8 Desa CISO | 18-April-23 | Risiko Perusahaan AI Generatif dan ChatGPT |
Jejak Bit | Heidy Khlaaf | 7-Mar-23 | Menuju Penilaian Risiko Komprehensif dan Jaminan Sistem Berbasis AI |
Implikasi Keamanan ChatGPT | Aliansi Keamanan Cloud (CSA) | 23-April-2023 | Implikasi Keamanan ChatGPT |
Melayani | Saluran | Tanggal | Judul dan Tautan |
---|---|---|---|
YouTube | Kronik LLM | 29-Mar-24 | Injeksi Cepat di Agen Browser LLM |
YouTube | Lapisan | 03-Mar-24 | Penjelasan GenAI Worms: Ancaman Dunia Maya yang Muncul terhadap LLM |
YouTube | RALFKAIROS | 05-Februari-23 | ChatGPT untuk Serangan dan Pertahanan- Risiko AI: Privasi, IP, Phishing, Ransomware-Oleh Avinash Sinha |
YouTube | AI Dijelaskan | 25-Mar-23 | 'Mengatur Superintelligensi' - Patogen Sintetis, Makalah Pohon Pikiran dan Kesadaran Diri |
YouTube | Aliran Langsung | 14-April-23 | 'Menyerang LLM - Injeksi Segera' |
YouTube | Aliran Langsung | 27-April-23 | 'Pintu Belakang LLM yang Tidak Disengaja - Trik Cepat' |
YouTube | Aliran Langsung | 11-Mei-23 | 'Membela LLM - Injeksi Segera' |
YouTube | Podcast Keamanan Cloud | 30-Mei-23 | 'BISAKAH LLM DISERANG!' |
YouTube | Hari API | 28-Juni-23 | Keamanan AI Bahasa di tingkat API: Menghindari Peretasan, Suntikan, dan Pelanggaran |
Melayani | Saluran | Tanggal | Judul dan Tautan |
---|---|---|---|
YouTube | Hari API | 28-Juni-23 | Mengamankan API LLM dan NLP: Perjalanan Menghindari Pelanggaran Data, Serangan, dan Lainnya |
Nama | Jenis | Catatan | Link |
---|---|---|---|
DetikDim | Serangan dan Pertahanan | Tantangan serangan dan pertahanan di mana pemain harus melindungi frase rahasia chatbot mereka sambil menyerang chatbot pemain lain untuk mengekstraksi frase rahasia mereka. | https://play.secdim.com/game/ai-battle |
Serangan Cepat GPT | Menyerang | Tujuan permainan ini adalah menghasilkan masukan pengguna terpendek yang mengelabui perintah sistem agar mengembalikan kunci rahasia kepada Anda. | https://ggpt.43z.one |
Gandalf | Menyerang | Tujuan Anda adalah membuat Gandalf mengungkapkan kata sandi rahasia untuk setiap level. Namun, Gandalf akan naik level setiap kali Anda menebak kata sandinya, dan akan berusaha lebih keras untuk tidak memberikannya | https://gandalf.lakera.ai |