Repositori ini berisi kode makalah yang hormat atau beracun? Menggunakan pembelajaran zero-shot dengan model bahasa untuk mendeteksi pidato kebencian yang diterima di lokakarya ke-7 tentang penyalahgunaan online dan bahaya (woah) di ACL 2023.
Flor Miriam Plaza-Del-Arco • Debora Nozza • Dirk Hovy •
Kode berasal dari Huggingface dan dengan demikian lisensi kami adalah lisensi MIT.
Untuk pembatasan model dapat berlaku pada data (yang berasal dari dataset yang ada) atau Twitter (sumber data utama). Kami merujuk pengguna ke lisensi asli yang menyertai setiap dataset dan peraturan Twitter.
Untuk menggunakan encoder LMS, Anda dapat mengimpor modul prompting
dari encoder_lms
:
from encoder_lms import prompting
prompt_template = "This text is"
verb_h = "toxic" # verbalizer for hate speech class
verb_nh = "respectful" # verbalizer for non-hate speech class
enc_lms = prompting("deberta-base") # Models: roberta-base, roberta-large, bert, deberta-base, deberta-large, xlm-roberta
# The input can be a dataframe, a text or a list of texts
enc_lms.predict(prompt_template, verb_h, verb_nh, ["Shut your dumbass up bitch we all know you a hoe", "My lovely cat"])
>> ["hate", "non-hate"]
Untuk menggunakan Instruksi Fine-Tuned LMS, Anda dapat mengimpor modul prompting
dari instruction_fine_tuned_lms
:
from instruction_fine_tuned_lms import prompting
prompt_template = "Classify this text as hate or non-hate. Text:"
output_indicator = "Answer:"
inst_lms = prompting("flant5") # Models: flant5, mt0
# The input can be a dataframe, a text or a list of texts
inst_lms.predict(prompt_template, output_indicator, ["Shut your dumbass up bitch we all know you a hoe", "My lovely cat"])
>> ["hate", "non-hate"]
Catatan: Contoh (kebencian) yang disediakan bersumber dari korpus pidato kebencian dan tidak dibuat oleh penulis repositori ini.