هذا خادم يستند إلى FastAPI ويعمل كواجهة بين تطبيقك وخدمات الذكاء الاصطناعي المستندة إلى السحابة. ويركز على ثلاث مهام رئيسية:
حاليًا، يستخدم واجهة برمجة تطبيقات OpenAI لهذه الخدمات، ولكنه مصمم حتى نتمكن من إضافة مقدمي خدمات آخرين في المستقبل.
النسخ (تحويل الكلام إلى نص)
تحويل النص إلى كلام
تحويل الكلام إلى كلام
.
├── cloud_providers/
│ ├── base.py
│ └── openai_api_handler.py
├── server/
│ ├── main.py
│ ├── routers/
│ │ ├── transcribe.py
│ │ ├── tts.py
│ │ └── speech_to_speech.py
│ └── utils/
│ └── logger.py
|
└── requirements.txt
└── README.md
استنساخ المستودع
إنشاء بيئة افتراضية:
python -m venv venv
source venv/bin/activate
تثبيت التبعيات:
pip install -r requirements
إعداد متغيرات البيئة:
export OPENAI_API_KEY=your_openai_api_key
لبدء الخادم، انتقل إلى دليل المشروع وقم بتشغيل:
python server/main.py
سيؤدي هذا إلى تشغيل خادم FastAPI، عادةً على http://localhost:8000
.
API docs
يستخدم التطبيق معالجات الملفات الدوارة للتسجيل، مع ملفات سجل منفصلة لمكونات مختلفة:
logs/main.log
: سجلات التطبيق الرئيسيةlogs/transcription.log
: السجلات الخاصة بالنسخlogs/tts.log
: سجلات تحويل النص إلى كلامlogs/speech_to_speech.log
: سجلات تحويل الكلام إلى كلام يتضمن التطبيق معالجة الأخطاء لسيناريوهات مختلفة، بما في ذلك أخطاء API وقطع اتصال WebSocket. يتم تسجيل الأخطاء ويتم رفع استثناءات HTTP المناسبة.
تم تصميم المشروع مع الأخذ في الاعتبار القابلية للتوسعة. تسمح الفئة الأساسية المجردة CloudProviderBase
في base.py
بالتكامل السهل لموفري الخدمات السحابية الإضافيين خارج OpenAI.
المساهمات هي موضع ترحيب! لا تتردد في تقديم طلب السحب.
[حدد الترخيص الخاص بك هنا]