belgpt2
1.0.0
نموذج GPT-2 تم تدريبه مسبقًا على مجموعة فرنسية كبيرة جدًا وغير متجانسة (حوالي 60 جيجا بايت).
يمكنك استخدام BelGPT-2 مع ؟ مكتبة المحولات على النحو التالي:
import torch
from transformers import GPT2Tokenizer , GPT2LMHeadModel
# Load pretrained model and tokenizer
model = GPT2LMHeadModel . from_pretrained ( "antoiloui/ belgpt2 " )
tokenizer = GPT2Tokenizer . from_pretrained ( "antoiloui/ belgpt2 " )
# Generate a sample of text
model . eval ()
output = model . generate (
bos_token_id = random . randint ( 1 , 50000 ),
do_sample = True ,
top_k = 50 ,
max_length = 100 ,
top_p = 0.95 ,
num_return_sequences = 1
)
# Decode it
decoded_output = []
for sample in output :
decoded_output . append ( tokenizer . decode ( sample , skip_special_tokens = True ))
print ( decoded_output )
يمكن العثور على الوثائق التفصيلية حول النموذج المُدرب مسبقًا وتنفيذه والبيانات هنا.
للإسناد في السياقات الأكاديمية، يرجى الاستشهاد بهذا العمل على النحو التالي:
@misc{louis2020 belgpt2 ,
author = {Louis, Antoine},
title = {{BelGPT-2: a GPT-2 model pre-trained on French corpora.}},
year = {2020},
howpublished = {url{https://github.com/antoiloui/belgpt2}},
}