¿Este repositorio contiene el código del documento respetuoso o tóxico? Uso de aprendizaje de cero disparo con modelos de idiomas para detectar el discurso de odio aceptado en el séptimo taller sobre abuso y daños en línea (WOAH) en ACL 2023.
Flor Miriam Plaza-Del-Arco • Debora Nozza • Dirk Hovy •
El código proviene de Huggingface y, por lo tanto, nuestra licencia es una licencia del MIT.
Para modelos, las restricciones pueden aplicarse en los datos (que se derivan de conjuntos de datos existentes) o Twitter (fuente de datos principal). Referimos a los usuarios a las licencias originales que acompañan a cada conjunto de datos y regulaciones de Twitter.
Para usar el codificador LMS, puede importar el módulo prompting
desde encoder_lms
:
from encoder_lms import prompting
prompt_template = "This text is"
verb_h = "toxic" # verbalizer for hate speech class
verb_nh = "respectful" # verbalizer for non-hate speech class
enc_lms = prompting("deberta-base") # Models: roberta-base, roberta-large, bert, deberta-base, deberta-large, xlm-roberta
# The input can be a dataframe, a text or a list of texts
enc_lms.predict(prompt_template, verb_h, verb_nh, ["Shut your dumbass up bitch we all know you a hoe", "My lovely cat"])
>> ["hate", "non-hate"]
Para usar la instrucción LMS ajustada, puede importar el módulo prompting
de instruction_fine_tuned_lms
:
from instruction_fine_tuned_lms import prompting
prompt_template = "Classify this text as hate or non-hate. Text:"
output_indicator = "Answer:"
inst_lms = prompting("flant5") # Models: flant5, mt0
# The input can be a dataframe, a text or a list of texts
inst_lms.predict(prompt_template, output_indicator, ["Shut your dumbass up bitch we all know you a hoe", "My lovely cat"])
>> ["hate", "non-hate"]
Nota: Los ejemplos (odio) proporcionados provienen de un corpus de discurso de odio y no son creados por los autores de este repositorio.