يحتوي هذا المستودع على نصوص برمجية ملائمة لضبط LLaMa3-8B (أو أي نموذج أساسي آخر) للدردشة مع أي لغة (غير الإنجليزية). الأساس المنطقي وراء ذلك هو أن LLaMa3 تم تدريبه على البيانات الإنجليزية بشكل أساسي، وبينما يعمل إلى حد ما مع لغات أخرى، فإن أداءه ضعيف مقارنة باللغة الإنجليزية.
اجمع بين قوة الضبط الدقيق وقوة RAG - تحقق من مستودع RAG Me Up الخاص بنا على RAG والذي يمكن استخدامه أعلى النماذج التي تم ضبطها باستخدام LLaMa2Lang.
pip install -r requirements.txt
# Translate OASST1 to target language
python translate.py m2m target_lang checkpoint_location
# Combine the checkpoint files into a dataset
python combine_checkpoints.py input_folder output_location
# Finetune
python finetune.py tuned_model dataset_name instruction_prompt
# Optionally finetune with DPO (RLHF)
python finetune_dpo.py tuned_model dataset_name instruction_prompt
# Run inference
python run_inference.py model_name instruction_prompt input
العملية التي نتبعها لضبط نموذج أساسي مثل LLaMa3 للغة معينة هي كما يلي:
تم اختبار ما يلي ولكن من المحتمل أن ينجح المزيد
يمكن تشغيل العملية المذكورة أعلاه بالكامل على وحدة معالجة الرسومات Google Colab T4 المجانية. ومع ذلك، لا يمكن تشغيل الخطوة الأخيرة بنجاح إلا باستخدام نوافذ سياق قصيرة بما يكفي ومجموعة مكونة من 2 على الأكثر. بالإضافة إلى ذلك، تستغرق الترجمة في الخطوة 2 حوالي 36 ساعة إجمالاً لأي لغة معينة، لذا يجب تشغيلها في خطوات متعددة إذا كنت تريد الالتزام بوحدة معالجة الرسومات Google Colab المجانية.
تم تنفيذ نماذجنا المضبوطة بدقة للخطوة 5 باستخدام A40 على موقع Vast.ai وكلفتنا أقل من دولار لكل نموذج، وتم استكمالها في حوالي 1.5 ساعة.
تأكد من تثبيت pytorch وعمله مع بيئتك (يفضل استخدام CUDA): https://pytorch.org/get-started/locally/
استنساخ الريبو وتثبيت المتطلبات.
pip install -r requirements.txt
usage: translate.py [-h] [--quant8] [--quant4] [--base_dataset BASE_DATASET] [--base_dataset_text_field BASE_DATASET_TEXT_FIELD] [--base_dataset_lang_field BASE_DATASET_LANG_FIELD]
[--checkpoint_n CHECKPOINT_N] [--batch_size BATCH_SIZE] [--max_length MAX_LENGTH] [--cpu] [--source_lang SOURCE_LANG]
{opus,mbart,madlad,m2m,nllb,seamless_m4t_v2,towerinstruct} ... target_lang checkpoint_location
Translate an instruct/RLHF dataset to a given target language using a variety of translation models
positional arguments:
{opus,mbart,madlad,m2m,nllb,seamless_m4t_v2,towerinstruct}
The model/architecture used for translation.
opus Translate the dataset using HelsinkiNLP OPUS models.
mbart Translate the dataset using mBART.
madlad Translate the dataset using Google's MADLAD models.
m2m Translate the dataset using Facebook's M2M models.
nllb Translate the dataset using Facebook's NLLB models.
seamless_m4t_v2 Translate the dataset using Facebook's SeamlessM4T-v2 multimodal models.
towerinstruct Translate the dataset using Unbabel's Tower Instruct. Make sure your target language is in the 10 languages supported by the model.
target_lang The target language. Make sure you use language codes defined by the translation model you are using.
checkpoint_location The folder the script will write (JSONized) checkpoint files to. Folder will be created if it doesn't exist.
options:
-h, --help show this help message and exit
--quant8 Optional flag to load the translation model in 8 bits. Decreases memory usage, increases running time
--quant4 Optional flag to load the translation model in 4 bits. Decreases memory usage, increases running time
--base_dataset BASE_DATASET
The base dataset to translate, defaults to OpenAssistant/oasst1
--base_dataset_text_field BASE_DATASET_TEXT_FIELD
The base dataset's column name containing the actual text to translate. Defaults to text
--base_dataset_lang_field BASE_DATASET_LANG_FIELD
The base dataset's column name containing the language the source text was written in. Defaults to lang
--checkpoint_n CHECKPOINT_N
An integer representing how often a checkpoint file will be written out. To start off, 400 is a reasonable number.
--batch_size BATCH_SIZE
The batch size for a single translation model. Adjust based on your GPU capacity. Default is 10.
--max_length MAX_LENGTH
How much tokens to generate at most. More tokens might be more accurate for lengthy input but creates a risk of running out of memory. Default is unlimited.
--cpu Forces usage of CPU. By default GPU is taken if available.
--source_lang SOURCE_LANG
Source language to select from OASST based on lang property of dataset
إذا كنت تريد المزيد من المعلمات لنماذج الترجمة المختلفة، قم بتشغيل:
python translate.py [MODEL] -h
تأكد من تحديد المعلمات الخاصة بالنموذج أولاً قبل تحديد المعلمات الشائعة من القائمة أعلاه. مثال للمكالمات:
# Using M2M with 4bit quantization and differen batch sizes to translate Dutch
python translate.py m2m nl ./output_nl --quant4 --batch_size 20
# Using madlad 7B with 8bit quantization for German with different max_length
python translate.py madlad --model_size 7b de ./output_de --quant8 --batch_size 5 --max_length 512
# Be sure to use target language codes that the model you use understands
python translate.py mbart xh_ZA ./output_xhosa
python translate.py nllb nld_Latn ./output_nl
HF_TOKEN
وفقًا للوثائق. usage: combine_checkpoints.py [-h] input_folder output_location
Combine checkpoint files from translation.
positional arguments:
input_folder The checkpoint folder used in translation, with the target language appended.
Example: "./output_nl".
output_location Where to write the Huggingface Dataset. Can be a disk location or a Huggingface
Dataset repository.
options:
-h, --help show this help message and exit
usage: finetune.py [-h] [--base_model BASE_MODEL] [--base_dataset_text_field BASE_DATASET_TEXT_FIELD] [--base_dataset_rank_field BASE_DATASET_RANK_FIELD] [--base_dataset_id_field BASE_DATASET_ID_FIELD] [--base_dataset_parent_field BASE_DATASET_PARENT_FIELD]
[--base_dataset_role_field BASE_DATASET_ROLE_FIELD] [--quant8] [--noquant] [--max_seq_length MAX_SEQ_LENGTH] [--num_train_epochs NUM_TRAIN_EPOCHS] [--batch_size BATCH_SIZE] [--threads_output_name THREADS_OUTPUT_NAME] [--thread_template THREAD_TEMPLATE]
[--padding PADDING]
tuned_model dataset_name instruction_prompt
Finetune a base instruct/chat model using (Q)LoRA and PEFT
positional arguments:
tuned_model The name of the resulting tuned model.
dataset_name The name of the dataset to use for fine-tuning. This should be the output of the combine_checkpoints script.
instruction_prompt An instruction message added to every prompt given to the chatbot to force it to answer in the target language. Example: "You are a generic chatbot that always answers in English."
options:
-h, --help show this help message and exit
--base_model BASE_MODEL
The base foundation model. Default is "NousResearch/Meta-Llama-3-8B-Instruct".
--base_dataset_text_field BASE_DATASET_TEXT_FIELD
The dataset's column name containing the actual text to translate. Defaults to text
--base_dataset_rank_field BASE_DATASET_RANK_FIELD
The dataset's column name containing the rank of an answer given to a prompt. Defaults to rank
--base_dataset_id_field BASE_DATASET_ID_FIELD
The dataset's column name containing the id of a text. Defaults to message_id
--base_dataset_parent_field BASE_DATASET_PARENT_FIELD
The dataset's column name containing the parent id of a text. Defaults to parent_id
--base_dataset_role_field BASE_DATASET_ROLE_FIELD
The dataset's column name containing the role of the author of the text (eg. prompter, assistant). Defaults to role
--quant8 Finetunes the model in 8 bits. Requires more memory than the default 4 bit.
--noquant Do not quantize the finetuning. Requires more memory than the default 4 bit and optional 8 bit.
--max_seq_length MAX_SEQ_LENGTH
The maximum sequence length to use in finetuning. Should most likely line up with your base model's default max_seq_length. Default is 512.
--num_train_epochs NUM_TRAIN_EPOCHS
Number of epochs to use. 2 is default and has been shown to work well.
--batch_size BATCH_SIZE
The batch size to use in finetuning. Adjust to fit in your GPU vRAM. Default is 4
--threads_output_name THREADS_OUTPUT_NAME
If specified, the threads created in this script for finetuning will also be saved to disk or HuggingFace Hub.
--thread_template THREAD_TEMPLATE
A file containing the thread template to use. Default is threads/template_fefault.txt
--padding PADDING What padding to use, can be either left or right.
6.1 [اختياري] Finetune باستخدام DPO (على غرار RLHF)
usage: finetune_dpo.py [-h] [--base_model BASE_MODEL] [--base_dataset_text_field BASE_DATASET_TEXT_FIELD] [--base_dataset_rank_field BASE_DATASET_RANK_FIELD] [--base_dataset_id_field BASE_DATASET_ID_FIELD] [--base_dataset_parent_field BASE_DATASET_PARENT_FIELD] [--quant8]
[--noquant] [--max_seq_length MAX_SEQ_LENGTH] [--max_prompt_length MAX_PROMPT_LENGTH] [--num_train_epochs NUM_TRAIN_EPOCHS] [--batch_size BATCH_SIZE] [--threads_output_name THREADS_OUTPUT_NAME] [--thread_template THREAD_TEMPLATE] [--max_steps MAX_STEPS]
[--padding PADDING]
tuned_model dataset_name instruction_prompt
Finetune a base instruct/chat model using (Q)LoRA and PEFT using DPO (RLHF)
positional arguments:
tuned_model The name of the resulting tuned model.
dataset_name The name of the dataset to use for fine-tuning. This should be the output of the combine_checkpoints script.
instruction_prompt An instruction message added to every prompt given to the chatbot to force it to answer in the target language. Example: "You are a generic chatbot that always answers in English."
options:
-h, --help show this help message and exit
--base_model BASE_MODEL
The base foundation model. Default is "NousResearch/Meta-Llama-3-8B-Instruct".
--base_dataset_text_field BASE_DATASET_TEXT_FIELD
The dataset's column name containing the actual text to translate. Defaults to text
--base_dataset_rank_field BASE_DATASET_RANK_FIELD
The dataset's column name containing the rank of an answer given to a prompt. Defaults to rank
--base_dataset_id_field BASE_DATASET_ID_FIELD
The dataset's column name containing the id of a text. Defaults to message_id
--base_dataset_parent_field BASE_DATASET_PARENT_FIELD
The dataset's column name containing the parent id of a text. Defaults to parent_id
--quant8 Finetunes the model in 8 bits. Requires more memory than the default 4 bit.
--noquant Do not quantize the finetuning. Requires more memory than the default 4 bit and optional 8 bit.
--max_seq_length MAX_SEQ_LENGTH
The maximum sequence length to use in finetuning. Should most likely line up with your base model's default max_seq_length. Default is 512.
--max_prompt_length MAX_PROMPT_LENGTH
The maximum length of the prompts to use. Default is 512.
--num_train_epochs NUM_TRAIN_EPOCHS
Number of epochs to use. 2 is default and has been shown to work well.
--batch_size BATCH_SIZE
The batch size to use in finetuning. Adjust to fit in your GPU vRAM. Default is 4
--threads_output_name THREADS_OUTPUT_NAME
If specified, the threads created in this script for finetuning will also be saved to disk or HuggingFace Hub.
--thread_template THREAD_TEMPLATE
A file containing the thread template to use. Default is threads/template_fefault.txt
--max_steps MAX_STEPS
The maximum number of steps to run DPO for. Default is -1 which will run the data through fully for the number of epochs but this will be very time-consuming.
--padding PADDING What padding to use, can be either left or right.
6.1 [اختياري] Finetune باستخدام ORPO (مشابه لـ RLHF)
usage: finetune_orpo.py [-h] [--base_model BASE_MODEL] [--base_dataset_text_field BASE_DATASET_TEXT_FIELD] [--base_dataset_rank_field BASE_DATASET_RANK_FIELD] [--base_dataset_id_field BASE_DATASET_ID_FIELD] [--base_dataset_parent_field BASE_DATASET_PARENT_FIELD] [--quant8]
[--noquant] [--max_seq_length MAX_SEQ_LENGTH] [--max_prompt_length MAX_PROMPT_LENGTH] [--num_train_epochs NUM_TRAIN_EPOCHS] [--batch_size BATCH_SIZE] [--threads_output_name THREADS_OUTPUT_NAME] [--thread_template THREAD_TEMPLATE] [--max_steps MAX_STEPS]
[--padding PADDING]
tuned_model dataset_name instruction_prompt
Finetune a base instruct/chat model using (Q)LoRA and PEFT using ORPO (RLHF)
positional arguments:
tuned_model The name of the resulting tuned model.
dataset_name The name of the dataset to use for fine-tuning. This should be the output of the combine_checkpoints script.
instruction_prompt An instruction message added to every prompt given to the chatbot to force it to answer in the target language. Example: "You are a generic chatbot that always answers in English."
options:
-h, --help show this help message and exit
--base_model BASE_MODEL
The base foundation model. Default is "NousResearch/Meta-Llama-3-8B-Instruct".
--base_dataset_text_field BASE_DATASET_TEXT_FIELD
The dataset's column name containing the actual text to translate. Defaults to text
--base_dataset_rank_field BASE_DATASET_RANK_FIELD
The dataset's column name containing the rank of an answer given to a prompt. Defaults to rank
--base_dataset_id_field BASE_DATASET_ID_FIELD
The dataset's column name containing the id of a text. Defaults to message_id
--base_dataset_parent_field BASE_DATASET_PARENT_FIELD
The dataset's column name containing the parent id of a text. Defaults to parent_id
--quant8 Finetunes the model in 8 bits. Requires more memory than the default 4 bit.
--noquant Do not quantize the finetuning. Requires more memory than the default 4 bit and optional 8 bit.
--max_seq_length MAX_SEQ_LENGTH
The maximum sequence length to use in finetuning. Should most likely line up with your base model's default max_seq_length. Default is 512.
--max_prompt_length MAX_PROMPT_LENGTH
The maximum length of the prompts to use. Default is 512.
--num_train_epochs NUM_TRAIN_EPOCHS
Number of epochs to use. 2 is default and has been shown to work well.
--batch_size BATCH_SIZE
The batch size to use in finetuning. Adjust to fit in your GPU vRAM. Default is 4
--threads_output_name THREADS_OUTPUT_NAME
If specified, the threads created in this script for finetuning will also be saved to disk or HuggingFace Hub.
--thread_template THREAD_TEMPLATE
A file containing the thread template to use. Default is threads/template_fefault.txt
--max_steps MAX_STEPS
The maximum number of steps to run ORPO for. Default is -1 which will run the data through fully for the number of epochs but this will be very time-consuming.
--padding PADDING What padding to use, can be either left or right.
usage: run_inference.py [-h] model_name instruction_prompt input
Script to run inference on a tuned model.
positional arguments:
model_name The name of the tuned model that you pushed to Huggingface in the previous
step.
instruction_prompt An instruction message added to every prompt given to the chatbot to force
it to answer in the target language.
input The actual chat input prompt. The script is only meant for testing purposes
and exits after answering.
options:
-h, --help show this help message and exit
كيف أعرف نموذج الترجمة الذي يجب اختياره للغتي المستهدفة؟
لقد قمنا بتغطيتك باستخدام البرنامج النصي benchmark.py
الذي يساعد في إجراء تخمين جيد إلى حدٍ ما (مجموعة البيانات التي نستخدمها هي نفسها التي تم تدريب نماذج OPUS عليها، وبالتالي تكون النتائج دائمًا مواتية لـ OPUS). للاستخدام، راجع مساعدة هذا البرنامج النصي أدناه. يتم تحميل النماذج بتكميم 4 بت وتشغيلها على عينة صغيرة من مجموعة كتب OPUS الفرعية.
تأكد من استخدام اللغات الأكثر شيوعًا في مجموعة البيانات الأساسية لديك كلغة_مصدر ولغة الترجمة المستهدفة كلغة_هدف. بالنسبة لـ OASST1 على سبيل المثال، تأكد من تشغيل en
و es
على الأقل كلغات مصدر.
usage: benchmark.py [-h] [--cpu] [--start START] [--n N] [--max_length MAX_LENGTH] source_language target_language included_models
Benchmark all the different translation models for a specific source and target language to find out which performs best. This uses 4bit quantization to limit GPU usage. Note:
the outcomes are indicative - you cannot assume corretness of the BLEU and CHRF scores but you can compare models against each other relatively.
positional arguments:
source_language The source language you want to test for. Check your dataset to see which occur most prevalent or use English as a good start.
target_language The source language you want to test for. This should be the language you want to apply the translate script on. Note: in benchmark, we use 2-character
language codes, in constrast to translate.py where you need to specify whatever your model expects.
included_models Comma-separated list of models to include. Allowed values are: opus, m2m_418m, m2m_1.2b, madlad_3b, madlad_7b, madlad_10b, madlad_7bbt, mbart,
nllb_distilled600m, nllb_1.3b, nllb_distilled1.3b, nllb_3.3b, seamless
options:
-h, --help show this help message and exit
--cpu Forces usage of CPU. By default GPU is taken if available.
--start START The starting offset to include sentences from the OPUS books dataset from. Defaults to 0.
--n N The number of sentences to benchmark on. Defaults to 100.
--max_length MAX_LENGTH
How much tokens to generate at most. More tokens might be more accurate for lengthy input but creates a risk of running out of memory. Default is 512.
لقد أنشأنا وسنستمر في إنشاء العديد من مجموعات البيانات والنماذج بالفعل. هل تريد المساعدة في إضفاء الطابع الديمقراطي على LLMs؟ استنساخ الريبو وإنشاء مجموعات البيانات والنماذج للغات الأخرى، ثم إنشاء العلاقات العامة.
الهولندية UnderstandLing/oasst1_nl | الاسبانية UnderstandLing/oasst1_es | فهم اللغة الفرنسية/oasst1_fr | الألمانية UnderstandLing/oasst1_de |
الكاتالونية xaviviro/oasst1_ca | البرتغالية UnderstandLing/oasst1_pt | عربي هشام هارون/oast-arab | اللغة الإيطالية UnderstandLing/oasst1_it |
فهم اللغة الروسية/oasst1_ru | الهندية فهم لينغ/oasst1_hi | الصينية فهم لينغ/oasst1_zh | المسيحيون البولنديون/oasst1_pl |
اليابانية فهم لينغ/oasst1_jap | لغة الباسك xezpeleta/oasst1_eu | البنغالية فهم Ling/oasst1_bn | اللغة التركية فهم/oasst1_tr |
تأكد من أن لديك إمكانية الوصول إلى نموذج LLaMa3-8B الخاص بـ Meta وقم بتعيين HF_TOKEN قبل استخدام هذه النماذج.
فهم Ling/Llama-3-8B-Instruct-nl الهولندية | فهم Ling/Llama-3-8B-Instruct-es الإسبانية | فهم Ling/Llama-3-8B-Instruct-fr الفرنسية | فهم Ling/Llama-3-8B-Instruct-de German |
فهم Ling/Llama-3-8B-Instruct-pt البرتغالية | فهم Ling/Llama-3-8B-Instruct-it باللغة الإيطالية | فهم Ling/Llama-3-8B-Instruct-hi باللغة الهندية | فهم Ling/Llama-3-8B-Instruct-ru الروسية |
الهولندية UnderstandLing/oasst1_nl_threads | الاسبانية UnderstandLing/oasst1_es_threads | الفرنسية UnderstandLing/oasst1_fr_threads | اللغة الألمانية UnderstandLing/oasst1_de_threads |
الكاتالونية xaviviro/oasst1_ca_threads | البرتغالية UnderstandLing/oasst1_pt_threads | عربي هشامهارون/oasst-arabic_threads | اللغة الإيطالية UnderstandLing/oasst1_it_threads |
اللغة الروسية UnderstandLing/oasst1_ru_threads | الهندية UnderstandLing/oasst1_hi_threads | اللغة الصينية فهم/oasst1_zh_threads | المسيحيون البولنديون/oasst1_pl_threads |
اللغة اليابانية UnderstandLing/oasst1_jap_threads | الباسك xezpeleta/oasst1_eu_threads | البنغالية UnderstandLing/oasst1_bn_threads | اللغة التركية UnderstandLing/oasst1_tr_threads |
فهم Ling/llama-2-7b-chat-nl الهولندية | فهم Ling/llama-2-7b-chat-es الإسبانية | فهم Ling/llama-2-7b-chat-fr الفرنسية | فهم Ling/llama-2-7b-chat-de German |
xaviviro/llama-2-7b-chat-ca الكاتالونية | فهم Ling/llama-2-7b-chat-pt البرتغالية | HeshamHaroon/llama-2-7b-chat-ar عربي | فهم Ling/llama-2-7b-chat-it بالإيطالية |
فهم Ling/llama-2-7b-chat-ru الروسية | فهم لينغ/llama-2-7b-chat-hi الهندية | فهم لينغ/llama-2-7b-chat-zh الصينية | chrystians/llama-2-7b-chat-pl-polish-polski البولندية |
xezpeleta/llama-2-7b-chat-eu الباسكية | فهم Ling/llama-2-7b-chat-bn البنغالية | فهمLing/llama-2-7b-chat-tr التركية |
فهم Ling/Mistral-7B-Instruct-v0.2-nl الهولندية | فهم Ling/Mistral-7B-Instruct-v0.2-es الإسبانية | فهم Ling/Mistral-7B-Instruct-v0.2-de الألمانية |
فهم Ling/llama-2-13b-chat-nl الهولندية | فهم Ling/llama-2-13b-chat-es الإسبانية | فهم Ling/llama-2-13b-chat-fr الفرنسية |
فهم Ling/Mixtral-8x7B-Instruct-nl الهولندية |
<s>[INST] <<SYS>> Je bent een generieke chatbot die altijd in het Nederlands antwoord geeft. <</SYS>> Wat is de hoofdstad van Nederland? [/INST] Amsterdam</s>
<s>[INST] <<SYS>> Je bent een generieke chatbot die altijd in het Nederlands antwoord geeft. <</SYS>> Wat is de hoofdstad van Nederland? [/INST] Amsterdam</s><s>[INST] Hoeveel inwoners heeft die stad? [/INST] 850 duizend inwoners (2023)</s>
<s>[INST] <<SYS>> Je bent een generieke chatbot die altijd in het Nederlands antwoord geeft. <</SYS>> Wat is de hoofdstad van Nederland? [/INST] Amsterdam</s><s>[INST] Hoeveel inwoners heeft die stad? [/INST] 850 duizend inwoners (2023)</s><s>[INST] In welke provincie ligt die stad? [/INST] In de provincie Noord-Holland</s>
<s>[INST] <<SYS>> Je bent een generieke chatbot die altijd in het Nederlands antwoord geeft. <</SYS>> Wie is de minister-president van Nederland? [/INST] Mark Rutte is sinds 2010 minister-president van Nederland. Hij is meerdere keren herkozen.</s>
س: لماذا تترجم مجموعة بيانات OASST1/2 الكاملة أولاً؟ ألن يكون من الأسرع ترجمة المواضيع ذات التصنيف الأعلى فقط؟
ج: على الرغم من أنه يمكنك الحصول على الكثير من حيث وقت الإنتاجية عن طريق إنشاء المواضيع أولاً ثم ترجمتها، إلا أننا نقدم ترجمات OASST1/2 كاملة للمجتمع لأننا نعتقد أنها يمكن أن تكون مفيدة بمفردها.
س: ما مدى جودة أداء الضبط الدقيق مقارنة بفانيليا LLaMa3؟
ج: على الرغم من عدم وجود معايير رسمية لدينا، فإن جعل LLaMa3 يتحدث باستمرار بلغة أخرى غير الإنجليزية في البداية يمثل تحديًا إن لم يكن مستحيلًا. غالبًا ما تكون اللغة غير الإنجليزية التي تنتجها معطلة نحويًا. ضبطنا الدقيق لا يظهر هذا السلوك.
س: هل يمكنني استخدام أطر عمل أخرى للضبط الدقيق؟
ج: نعم يمكنك ذلك، فنحن نستخدم Axolotl للتدريب على إعدادات وحدات معالجة الرسومات المتعددة.
س: هل يمكنني مزج نماذج الترجمة المختلفة؟
ج: بالتأكيد، نعتقد أن إجراء الترجمة باستخدام نماذج متعددة قد يؤدي إلى زيادة الأداء. يمكنك تحقيق ذلك عن طريق إيقاف الترجمة مبكرًا والمتابعة من نقاط التحقق عن طريق إعادة تشغيل البرنامج النصي للترجمة باستخدام نموذج ترجمة مختلف.
نحن نبحث بنشاط عن التمويل لإضفاء الطابع الديمقراطي على الذكاء الاصطناعي وتطوير تطبيقاته. اتصل بنا على [email protected] إذا كنت ترغب في الاستثمار.