قم بالدردشة مع مستنداتك دون الاتصال بالإنترنت باستخدام الذكاء الاصطناعي. لا توجد بيانات تترك النظام الخاص بك. الاتصال بالإنترنت مطلوب فقط لتثبيت الأداة وتنزيل نماذج الذكاء الاصطناعي. يعتمد على PrivateGPT ولكنه يحتوي على المزيد من الميزات.
محتويات
chatdocs.yml
امتداد | شكل |
---|---|
.csv | CSV |
.docx ، .doc | مستند وورد |
.enex | EverNote |
.eml | بريد إلكتروني |
.epub | النشر الإلكتروني |
.html | HTML |
.md | تخفيض السعر |
.msg | رسالة التوقعات |
.odt | فتح نص الوثيقة |
.pdf | تنسيق الوثيقة المحمولة (PDF) |
.pptx ، .ppt | وثيقة باور بوينت |
.txt | ملف نصي (UTF-8) |
تثبيت الأداة باستخدام:
pip install chatdocs
قم بتنزيل نماذج الذكاء الاصطناعي باستخدام:
chatdocs download
الآن يمكن تشغيله دون اتصال بالإنترنت دون الاتصال بالإنترنت.
قم بإضافة دليل يحتوي على المستندات للدردشة معها باستخدام:
chatdocs add /path/to/documents
سيتم تخزين المستندات التي تمت معالجتها في دليل
db
بشكل افتراضي.
الدردشة مع المستندات الخاصة بك باستخدام:
chatdocs ui
افتح http://localhost:5000 في متصفحك للوصول إلى واجهة مستخدم الويب.
كما أن لديها واجهة سطر أوامر لطيفة:
chatdocs chat
يمكن تغيير جميع خيارات التكوين باستخدام ملف التكوين chatdocs.yml
. قم بإنشاء ملف chatdocs.yml
في بعض الأدلة وقم بتشغيل كافة الأوامر من هذا الدليل. كمرجع، راجع ملف chatdocs.yml
الافتراضي.
ليس عليك نسخ الملف بأكمله، ما عليك سوى إضافة خيارات التكوين التي تريد تغييرها حيث سيتم دمجها مع التكوين الافتراضي. على سبيل المثال، راجع tests/fixtures/chatdocs.yml
التي تغير فقط بعض خيارات التكوين.
لتغيير نموذج التضمينات، قم بإضافة وتغيير ما يلي في chatdocs.yml
الخاص بك:
embeddings :
model : hkunlp/instructor-large
ملاحظة: عندما تقوم بتغيير نموذج التضمين، احذف دليل
db
وأضف المستندات مرة أخرى.
لتغيير نموذج CTransformers (GGML/GGUF)، قم بإضافة وتغيير ما يلي في chatdocs.yml
الخاص بك:
ctransformers :
model : TheBloke/Wizard-Vicuna-7B-Uncensored-GGML
model_file : Wizard-Vicuna-7B-Uncensored.ggmlv3.q4_0.bin
model_type : llama
ملاحظة: عند إضافة نموذج جديد لأول مرة، قم بتشغيل
chatdocs download
لتنزيل النموذج قبل استخدامه.
يمكنك أيضًا استخدام ملف نموذج محلي موجود:
ctransformers :
model : /path/to/ggml-model.bin
model_type : llama
للاستخدام ؟ نماذج المحولات، أضف ما يلي إلى chatdocs.yml
الخاص بك:
llm : huggingface
لتغيير ؟ نموذج المحولات، قم بإضافة وتغيير ما يلي في chatdocs.yml
الخاص بك:
huggingface :
model : TheBloke/Wizard-Vicuna-7B-Uncensored-HF
ملاحظة: عند إضافة نموذج جديد لأول مرة، قم بتشغيل
chatdocs download
لتنزيل النموذج قبل استخدامه.
لاستخدام نماذج GPTQ مع ؟ أيها المحولون، قم بتثبيت الحزم اللازمة باستخدام:
pip install chatdocs[gptq]
لتمكين دعم GPU (CUDA) لنموذج التضمينات، أضف ما يلي إلى chatdocs.yml
الخاص بك:
embeddings :
model_kwargs :
device : cuda
قد يتعين عليك إعادة تثبيت PyTorch مع تمكين CUDA باتباع الإرشادات الواردة هنا.
لتمكين دعم GPU (CUDA) لنموذج CTransformers (GGML/GGUF)، أضف ما يلي إلى chatdocs.yml
الخاص بك:
ctransformers :
config :
gpu_layers : 50
قد تضطر إلى تثبيت مكتبات CUDA باستخدام:
pip install ctransformers[cuda]
لتمكين دعم GPU (CUDA) لـ؟ نموذج المحولات، أضف ما يلي إلى chatdocs.yml
الخاص بك:
huggingface :
device : 0
قد يتعين عليك إعادة تثبيت PyTorch مع تمكين CUDA باتباع الإرشادات الواردة هنا.
معهد ماساتشوستس للتكنولوجيا