مساعد الذكاء الاصطناعي الذي يعمل بنظام OpenAI GPT-4 مع واجهة المستخدم الرسومية التي تتكامل مع VRChat باستخدام OSC. هذا البرنامج حاليًا في حالة "يعمل على جهازي"، وعلى الأرجح لن يعمل على جهازك بدون الكثير من التعديلات. على سبيل المثال، فهو يعتمد على VB-Audio VoiceMeeter Banana لتشغيل الصوت عبر الميكروفون. على أية حال، أنا أقوم بتحميل هذا فقط ليكون هنا.
قم بتشغيل start_assistant.ps1
أو .bat
، والذي سيؤدي تلقائيًا إلى تنشيط البيئة الافتراضية وبدء تشغيل البرنامج. إذا كنت لا تستخدم بيئة افتراضية لأي سبب من الأسباب، فما عليك سوى تشغيل python assistant.py
.
سيبدأ البرنامج في الاستماع عندما يكتشف تشغيل المعلمات ChatGPT
أو ChatGPT_PB
على الصورة الرمزية الخاصة بك. على سبيل المثال، يمكنك تشغيله إما من قائمة الإجراءات، أو باستخدام زوج جهة الاتصال للمرسل/المتلقي. وبدلاً من ذلك، انقر نقرًا مزدوجًا فوق مفتاح التحكم الأيمن لاستدعائه يدويًا. يتم نسخ الصوت إلى نص باستخدام Faster Whisper، والذي تتم إعادة توجيهه إلى OpenAI، وتتم قراءة الرد باستخدام Google Cloud TTS أو بشكل اختياري أحد التوليف الصوتي 11.ai، أو Google Translate، أو Windows Default TTS. يتم أيضًا إدخال نص الاستجابة في VRChat Chatbox.
يمكن تشغيل أوامر النظام من خلال قول "النظام" واسم الأمر، مما سيتجاوز أيضًا إرساله إلى OpenAI.
انسخ .env.example
إلى .env
، واحصل على مفاتيح API الخاصة بك من OpenAI ومن ElevenLabs، ثم ضعها في الملف. احصل على ملف Google Cloud Authentication الخاص بك وضعه في دليل المشروع، ثم أضف المسار إليه في .env
.
قم بتنشيط بيئة افتراضية في المجلد .venv
باستخدام python -m venv venv
. يمكن تخطي هذا، ولكن يوصى بعدم التعارض مع الحزم المثبتة عالميًا. قم بتثبيت CUDA Toolkit وcuDNN وأضف مجلدات bin
الخاصة بهما إلى PATH الخاص بك إذا كنت تخطط لاستخدام وحدة معالجة الرسومات. قم بتثبيت حزم Python المطلوبة المدرجة أدناه باستخدام النقطة. مع دعم GPU، قد تحتاج إلى تثبيت أحدث إصدار ليلي من PyTorch، أو إلغاء التثبيت وإعادة التثبيت إذا كان لديك إصدار قديم لا يعمل و/أو لم يتم تجميعه بدعم CUDA. فيما يلي مثال لأمر لتثبيت PyTorch ليلاً على نظام التشغيل Windows باستخدام النقطة مع دعم CUDA 11.8:
pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu118
Python 3.8 أو أعلى مع Pip. يوصى بشدة باستخدام venv.
حدثت تغييرات جذرية مؤخرًا في مكتبة ElevenLabs، ويمكنك الآن فرض إصدار قديم من خلال pip install --force-reinstall "elevenlabs==0.1.1"
المكتبات المطلوبة: audioop، وpython-dotenv، وevenlabs v0.1.1، وfaster-whisper، وffmpeg، وgoogle-cloud-texttospeech، وgtts، وopenai، وpynput، وpython-osc، وpyttsx3، وcustomtkinter
على الأرجح يتطلب وحدة معالجة الرسومات NVidia. لم يتم اختباره مع AMD، ولكن أشك في أنه سيعمل. في هذه الحالة، قم بتحرير الملف لاستخدام وحدة المعالجة المركزية (CPU) بدلاً من CUDA. لاستخدام Faster Whisper، تحتاج إلى كل من cuDNN وCUDA Toolkit 11.8 في PATH. بخلاف ذلك، استخدم OpenAI Whisper أو استخدم استنتاج وحدة المعالجة المركزية (CPU).
يجب نسخ الملفات التالية من C:WindowsMedia
حيث لا يمكنني تحميلها على Github نظرًا لكونها مملوكة لشركة Microsoft:
حقوق الطبع والنشر (ج) 2023 MissingNO123. جميع الحقوق محفوظة.
محتويات هذا المستودع، بما في ذلك جميع التعليمات البرمجية والوثائق والمواد الأخرى، ما لم ينص على خلاف ذلك، هي ملكية حصرية لـ MissingNO123 ومحمية بموجب قانون حقوق الطبع والنشر. يُمنع منعًا باتًا النسخ أو التوزيع أو الكشف غير المصرح به عن محتويات هذا المستودع، كليًا أو جزئيًا، دون الحصول على إذن كتابي صريح من MissingNO123.
تم إصدار النسخة الأصلية من البرنامج في 17 مارس 2023.