Ini adalah server berbasis FastAPI yang bertindak sebagai antarmuka antara aplikasi Anda dan layanan AI berbasis cloud. Ini berfokus pada tiga tugas utama:
Saat ini, ia menggunakan API OpenAI untuk layanan ini, namun dirancang agar kami dapat menambahkan penyedia lain di masa mendatang.
Transkripsi (Ucapan-ke-Teks)
Teks-ke-Ucapan
Pidato-ke-Pidato
.
├── cloud_providers/
│ ├── base.py
│ └── openai_api_handler.py
├── server/
│ ├── main.py
│ ├── routers/
│ │ ├── transcribe.py
│ │ ├── tts.py
│ │ └── speech_to_speech.py
│ └── utils/
│ └── logger.py
|
└── requirements.txt
└── README.md
Kloning repositori
Buat lingkungan virtual:
python -m venv venv
source venv/bin/activate
Instal dependensi:
pip install -r requirements
Siapkan variabel lingkungan:
export OPENAI_API_KEY=your_openai_api_key
Untuk memulai server, navigasikan ke direktori proyek dan jalankan:
python server/main.py
Ini akan memulai server FastAPI, biasanya di http://localhost:8000
.
API docs
Aplikasi ini menggunakan penangan file berputar untuk logging, dengan file log terpisah untuk komponen berbeda:
logs/main.log
: Log aplikasi utamalogs/transcription.log
: Log khusus transkripsilogs/tts.log
: Log teks-ke-ucapanlogs/speech_to_speech.log
: Log ucapan-ke-ucapan Aplikasi ini mencakup penanganan kesalahan untuk berbagai skenario, termasuk kesalahan API dan pemutusan WebSocket. Kesalahan dicatat dan pengecualian HTTP yang sesuai dimunculkan.
Proyek ini dirancang dengan mempertimbangkan ekstensibilitas. Kelas dasar abstrak CloudProviderBase
di base.py
memungkinkan integrasi yang mudah dari penyedia cloud tambahan di luar OpenAI.
Kontribusi dipersilahkan! Silakan kirimkan Permintaan Tarik.
[Tentukan lisensi Anda di sini]