مساعد شخصي الخاص بك GPT الذي يمكنك طلبه أو توجيهه للقيام بمهمة أو البحث عن شيء باستخدام أوامر الصوت الخاصة بك. بنيت مع Langchain و GPT4ALL و LLAMACPP و Chroma و SectenCetransformers. -يدعم أيضًا Openai's GPT3 ، نموذج GPT4 ، Cohere.
هذا المشروع مستوحى بشكل كبير من Privategpt لصنع مساعدة GPT ، لكن هذا المشروع يستخدم DeepLake VectorStores لتخزين مجموعة البيانات/ملفاتك.
على Windows:
pip install -r requirements.txt
على Linux / Mac:
pip3 install -r requirements.txt
افتح PersonalGPT/env_vars.py
وتعديل المتغيرات بشكل مناسب في ملف env_vars.py
.
MODEL_TYPE: supports LlamaCpp, GPT4All, OpenAI & Cohere
PERSIST_DIRECTORY: is the folder you want your vectorstore in
MODEL_PATH: Path to your GPT4All or LlamaCpp supported LLM
MODEL_N_CTX: Maximum token limit for the LLM model
MODEL_N_BATCH: Number of tokens in the prompt that are fed into the model at a time. Optimal value differs a lot depending on the model (8 works well for GPT4All, and 1024 is better for LlamaCpp)
EMBEDDINGS_MODEL_NAME: SentenceTransformers embeddings model name (see https://www.sbert.net/docs/pretrained_models.html)
TARGET_SOURCE_CHUNKS: The amount of chunks (sources) that will be used to answer a question
VOICE_MODEL=pyttsx3
VOICE_REC_ENGINE=SpeechRecognition
API_KEY=OpeAI or Cohere API Key
ضع أي وجميع ملفاتك في دليل source_documents
الامتدادات المدعومة هي:
.csv
: CSV ،.docx
: وثيقة Word ،.doc
: Word Document ،.enex
: Evernote ،.eml
: البريد الإلكتروني ،.epub
: epub ،.html
: ملف HTML ،.md
: Markdown ،.msg
: Outlook Message ،.odt
: فتح نص المستند ،.pdf
: تنسيق مستند محمول (PDF) ،.pptx
: وثيقة PowerPoint ،.ppt
: وثيقة PowerPoint ،.txt
: ملف نصي (UTF-8) ،.xls
: جدول بيانات Excel.xlsx
: جدول بيانات Excelإعطاء الأمر التالي لتلغي جميع البيانات.
على Windows:
python run_PersonalGPT.py
على Linux / Mac:
python3 run_PersonalGPT.py
open browser
load my files
ask gpt
tell me a joke
open youtube
وغيرها الكثير
هذه الوحدة مجانية للاستخدام ، وتعديل ، مشاركة
المساهمة مفتوحة للجميع ، إذا وجدت بعض المشكلات ، فلا تتردد في سحب طلب مشكلة أو قمت بإصلاح هذا ثم قم بالعلاقات العامة
شكرا لك ، لقراءة هذا.