Этот репозиторий содержит код статьи уважительным или токсичным? Использование нулевого обучения с языковыми моделями для обнаружения ненавистнической речи, принятой на 7-м семинаре по онлайн-злоупотреблениям и вредам (WOAH) в ACL 2023.
Flor Miriam Plaza-Del-Arco • Debora vzza • Dirk Hovy •
Код поступает из HuggingFace, и, таким образом, наша лицензия является лицензией MIT.
Для моделей ограничения могут применяться для данных (которые получены из существующих наборов данных) или Twitter (основной источник данных). Мы ссылаемся на оригинальные лицензии, сопровождающие каждый набор данных и правила Twitter.
Чтобы использовать Encoder LMS, вы можете импортировать модуль prompting
от encoder_lms
:
from encoder_lms import prompting
prompt_template = "This text is"
verb_h = "toxic" # verbalizer for hate speech class
verb_nh = "respectful" # verbalizer for non-hate speech class
enc_lms = prompting("deberta-base") # Models: roberta-base, roberta-large, bert, deberta-base, deberta-large, xlm-roberta
# The input can be a dataframe, a text or a list of texts
enc_lms.predict(prompt_template, verb_h, verb_nh, ["Shut your dumbass up bitch we all know you a hoe", "My lovely cat"])
>> ["hate", "non-hate"]
Чтобы использовать инструкции с тонкой настройкой LMS, вы можете импортировать модуль prompting
из instruction_fine_tuned_lms
:
from instruction_fine_tuned_lms import prompting
prompt_template = "Classify this text as hate or non-hate. Text:"
output_indicator = "Answer:"
inst_lms = prompting("flant5") # Models: flant5, mt0
# The input can be a dataframe, a text or a list of texts
inst_lms.predict(prompt_template, output_indicator, ["Shut your dumbass up bitch we all know you a hoe", "My lovely cat"])
>> ["hate", "non-hate"]
Примечание. Приведенные примеры (ненависть) поступают из корпуса речи ненавистников и не создаются авторами этого репозитория.