لبدء تشغيل المشروع، يجب أن يكون لديك حق الوصول إلى واجهة برمجة التطبيقات (API) للحصول على LLM. يتم حاليًا دعم LLMs من مشروع GenAI وChatGPT من OpenAI.
انسخ config.ini.sample
إلى config.ini
ثم املأ التفاصيل المناسبة. لاحظ أنه إذا كنت تريد استخدام مزود LLM واحد فقط، فيمكنك ترك إعدادات المثال للمزود الآخر.
تتوفر إرشادات حول كيفية البدء باستخدام مكدس GenAI هنا: https://github.com/docker/genai-stack
لاحظ أنه لاستخدام GPU على نظام التشغيل Linux، فإنك تحتاج إلى تحديث ملف docker-compose باتباع الإرشادات الموجودة هنا: docker/genai-stack#62 (تعليق)
يُطلب من LLM تقديم فئات لعينة من المستندات الموجودة في المستودع ومن ثم يتم دمجها في تسلسل هرمي. يتم إنشاء الفئات في المستودع باستخدام v1 API.
يتم توفير شجرة الفئات إلى LLM مع محتوى المستند. يُطلب من LLM تحديد الفئات المناسبة للمحتوى ثم يتم استخدام v1 API لتعيينها.
تعليمات مفصلة متوفرة في الملخص