Englische README-Datei |. Tipp-Projekt |
Eine einfache lokale Webschnittstelle, die ChatTTS verwendet, um Text auf der Webseite in Sprache umzuwandeln, Chinesisch, Englisch und gemischte Zahlen unterstützt und eine API-Schnittstelle bereitstellt.
Ab Version 0.96 muss der Quellcode zuerst installiert werden. Die vorherigen Timbre-Dateien csv und pt sind nicht mehr verfügbar
[Sponsor]
302.AI ist ein KI-Supermarkt, der die weltweit führenden Marken vereint, mit nutzungsbasierter Bezahlung, null monatlichen Gebühren und null Schwellenwerten für die Nutzung verschiedener Arten von KI.
Umfassende Funktionen, einfach und leicht zu bedienen, keine Schwelle für On-Demand-Zahlung, Trennung von Managern und Benutzern
Schnittstellenvorschau
Gemischter Effekt für alphanumerische Symbolsteuerzeichen
Laden Sie das Modell zum ersten Mal von Huggingface.co oder Github in das Asset-Verzeichnis herunter. Wenn das Netzwerk instabil ist, schlägt der Download möglicherweise fehl.
Nach dem Herunterladen und Entpacken sehen Sie den Asset-Ordner, der mehrere pt-Dateien enthält. Kopieren Sie alle pt-Dateien in das Asset-Verzeichnis und starten Sie die Software neu.
GitHub-Download-Adresse: https://github.com/jianchang512/ChatTTS-ui/releases/download/v1.0/all-models.7z
Download-Adresse der Baidu-Netzwerkfestplatte: https://pan.baidu.com/s/1yGDZM9YNN7kW9e7SFo8lLw?pwd=ct5x
Projekt-Repository abrufen
Klonen Sie das Projekt in einen beliebigen Pfad, zum Beispiel:
git clone https://github.com/jianchang512/ChatTTS-ui.git chat-tts-ui
Läufer starten
Geben Sie das Projektverzeichnis ein:
cd chat-tts-ui
Starten Sie den Container und sehen Sie sich das Initialisierungsprotokoll an:
gpu版本
docker compose -f docker-compose.gpu.yaml up -d
cpu版本
docker compose -f docker-compose.cpu.yaml up -d
docker compose logs -f --no-log-prefix
Besuchen Sie die ChatTTS-WebUI
启动:['0.0.0.0', '9966']
, das heißt, greifen Sie auf IP:9966
, zum Beispiel:
http://127.0.0.1:9966
http://192.168.1.100:9966
Holen Sie sich den neuesten Code aus dem Hauptzweig:
git checkout main
git pull origin main
Gehen Sie zum nächsten Schritt und aktualisieren Sie auf das neueste Bild:
docker compose down
gpu版本
docker compose -f docker-compose.gpu.yaml up -d --build
cpu版本
docker compose -f docker-compose.cpu.yaml up -d --build
docker compose logs -f --no-log-prefix
Konfigurieren Sie die Python3.9-3.11-Umgebung und installieren Sie ffmpeg. yum install ffmpeg
oder apt-get install ffmpeg
usw.
Erstellen Sie ein leeres Verzeichnis /data/chattts
und führen Sie den Befehl cd /data/chattts && git clone https://github.com/jianchang512/chatTTS-ui .
Erstellen Sie eine virtuelle Umgebung python3 -m venv venv
Aktivieren Sie source ./venv/bin/activate
Installieren Sie die Abhängigkeiten pip3 install -r requirements.txt
Wenn keine CUDA-Beschleunigung erforderlich ist, führen Sie sie aus
pip3 install torch==2.2.0 torchaudio==2.2.0
Wenn eine CUDA-Beschleunigung erforderlich ist, führen Sie diese aus
pip install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/cu118
pip install nvidia-cublas-cu11 nvidia-cudnn-cu11
Sie müssen auch CUDA11.8+ ToolKit installieren. Suchen Sie bitte selbst nach der Installationsmethode oder lesen Sie https://juejin.cn/post/7318704408727519270
Neben CUDA können auch AMD-GPUs zur Beschleunigung verwendet werden, was die Installation der Versionen ROCm und PyTorch_ROCm erfordert. Die AMG-GPU verwendet ROCm standardmäßig in PyTorch ohne zusätzliche Codeänderungen.
pip3 install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/rocm6.0
Nach Abschluss der Installation können Sie den Befehl rocm-smi verwenden, um die AMD-GPU im System anzuzeigen. Sie können auch den folgenden Torch-Code (query_gpu.py) verwenden, um das aktuelle AMD GPU-Gerät abzufragen.
import torch
print(torch.__version__)
if torch.cuda.is_available():
device = torch.device("cuda") # a CUDA device object
print('Using GPU:', torch.cuda.get_device_name(0))
else:
device = torch.device("cpu")
print('Using CPU')
torch.cuda.get_device_properties(0)
Fragen Sie das Gerät anhand des obigen Codes am Beispiel der AMD Radeon Pro W7900 wie folgt ab.
$ python ~/query_gpu.py
2.4.0.dev20240401+rocm6.0
Using GPU: AMD Radeon PRO W7900
Führen Sie zum Starten python3 app.py
aus. Das Browserfenster wird automatisch mit der Standardadresse http://127.0.0.1:9966
geöffnet (Hinweis: Das Modell wird standardmäßig vom Modelscope Magic Tower heruntergeladen und der Proxy-Download kann nicht verwendet werden. Bitte schalten Sie den Proxy aus)
Konfigurieren Sie die Python3.9-3.11-Umgebung, installieren Sie Git und führen Sie den Befehl brew install libsndfile git [email protected]
aus, um die Ausführung fortzusetzen.
brew install ffmpeg
export PATH="/usr/local/opt/[email protected]/bin:$PATH"
source ~/.bash_profile
source ~/.zshrc
Erstellen Sie ein leeres Verzeichnis /data/chattts
und führen Sie den Befehl cd /data/chattts && git clone https://github.com/jianchang512/chatTTS-ui .
Erstellen Sie eine virtuelle Umgebung python3 -m venv venv
Aktivieren Sie source ./venv/bin/activate
Installieren Sie die Abhängigkeiten pip3 install -r requirements.txt
Brenner installieren pip3 install torch==2.2.0 torchaudio==2.2.0
Führen Sie zum Starten python3 app.py
aus. Das Browserfenster wird automatisch mit der Standardadresse http://127.0.0.1:9966
geöffnet (Hinweis: Das Modell wird standardmäßig vom Modelscope Magic Tower heruntergeladen und der Proxy-Download kann nicht verwendet werden. Bitte schalten Sie den Proxy aus)
Laden Sie Python3.9-3.11 herunter und wählen Sie bei der Installation unbedingt die Option Add Python to environment variables
.
Laden Sie ffmpeg.exe herunter und legen Sie es im Ordner ffmpeg im Softwareverzeichnis ab
Laden Sie Git herunter und installieren Sie es, https://github.com/git-for-windows/git/releases/download/v2.45.1.windows.1/Git-2.45.1-64-bit.exe
Erstellen Sie einen leeren Ordner D:/chattts
und geben Sie cmd
in die Adressleiste ein und drücken Sie die Eingabetaste. Führen Sie im Popup-cmd-Fenster den Befehl git clone https://github.com/jianchang512/chatTTS-ui .
Erstellen Sie eine virtuelle Umgebung und führen Sie den Befehl python -m venv venv
aus
Um die virtuelle Umgebung zu aktivieren, führen Sie .venvscriptsactivate
Um Abhängigkeiten zu installieren, führen Sie pip install -r requirements.txt
aus
Wenn keine CUDA-Beschleunigung erforderlich ist,
Führen Sie pip install torch==2.2.0 torchaudio==2.2.0
aus
Wenn eine CUDA-Beschleunigung erforderlich ist, führen Sie diese aus
pip install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/cu118
Sie müssen auch CUDA11.8+ ToolKit installieren. Suchen Sie bitte selbst nach der Installationsmethode oder lesen Sie https://juejin.cn/post/7318704408727519270
Führen Sie zum Starten python app.py
aus. Das Browserfenster wird automatisch mit der Standardadresse http://127.0.0.1:9966
geöffnet (Hinweis: Das Modell wird standardmäßig vom Modelscope Magic Tower heruntergeladen und der Proxy-Download kann nicht verwendet werden. Bitte schalten Sie den Proxy aus)
Wenn der GPU-Speicher weniger als 4 GB beträgt, wird die Verwendung der CPU erzwungen.
Wenn unter Windows oder Linux der Videospeicher größer als 4G ist und es sich um eine NVIDIA-Grafikkarte handelt, die CPU jedoch nach der Bereitstellung des Quellcodes weiterhin verwendet wird, können Sie versuchen, Torch zuerst zu deinstallieren und dann pip uninstall -y torch torchaudio
erneut zu installieren pip uninstall -y torch torchaudio
und installieren Sie die Cuda-Version von Torch neu. pip install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/cu118
. CUDA11.8+ muss installiert sein
Standardmäßig wird erkannt, ob Modelscope verbunden werden kann. Wenn dies möglich ist, laden Sie das Modell von Modelscope herunter, andernfalls laden Sie das Modell von Huggingface.co herunter.
Nach Version 0.96 ist es aufgrund des ChatTTS-Kernel-Upgrades nicht mehr möglich, die von dieser Site heruntergeladene PT-Datei direkt zu verwenden (https://modelscope.cn/studios/ttwwaaa/ChatTTS_Speaker).
Daher kann das Win-Integrationspaket durch Hinzufügen des Konvertierungsskripts cover-pt.py die Datei cover-pt.exe direkt herunterladen, im selben Verzeichnis wie app.exe ablegen und per Doppelklick ausführen.
Nach der Ausführung von python cover-pt.py
wird die Datei, die mit seed_
beginnt und mit _emb.pt
endet, im speaker
, also der Standarddateiname „pt“ nach dem Herunterladen, in ein verfügbares Codierungsformat konvertiert umbenannt und endet mit _emb-covert.pt
.
Beispiel:
Wenn diese Datei in speaker/seed_2155_restored_emb.pt
vorhanden ist, wird sie in speaker/seed_2155_restored_emb-cover.pt
konvertiert. Anschließend wird die ursprüngliche pt-Datei gelöscht, sodass nur die konvertierte Datei übrig bleibt.
Die Standardadresse ist http://127.0.0.1:9966
. Wenn Sie sie ändern möchten, können Sie die .env
Datei im Verzeichnis öffnen und WEB_ADDRESS=127.0.0.1:9966
in die entsprechende IP und den entsprechenden Port ändern, z. B. WEB_ADDRESS=192.168.0.10:9966
damit über das LAN darauf zugegriffen werden kann
Anfragemethode: POST
Anfrageadresse: http://127.0.0.1:9966/tts
Anforderungsparameter:
text: str|. Erforderlich, der Text, der in Sprache synthetisiert werden soll
Stimme: Optional, der Standardwert ist 2222 | 7869 |. Sie können eine davon auswählen, oder eine beliebige Stimme wird verwendet.
Eingabeaufforderung: str|. optional, standardmäßig leer, Lachen und Pause festlegen, zum Beispiel [oral_2][laugh_0][break_6]
Temperatur: float|. optional, Standard 0,3
top_p: float|. optional, Standard 0,7
top_k: int|. optional, Standard 20
skip_refine: int|. Optional, Standard 0, 1=Verfeinerungstext überspringen, 0=nicht überspringen
custom_voice: int|. Optional, Standard 0, benutzerdefinierter Startwert beim Erhalten des Timbre-Werts, benötigt eine Ganzzahl größer als 0, wenn diese festgelegt ist, wird voice
ignoriert
Rückgabe: JSON-Daten
Erfolgreiche Rückgabe: {code:0,msg:ok,audio_files:[dict1,dict2]}
其中 audio_files 是字典数组,每个元素dict为 {filename:wav文件绝对路径,url:可下载的wav网址}
Rückkehr bei Fehler:
{code:1,msg:错误原因}
# API调用代码
import requests
res = requests.post('http://127.0.0.1:9966/tts', data={
"text": "若不懂无需填写",
"prompt": "",
"voice": "3333",
"temperature": 0.3,
"top_p": 0.7,
"top_k": 20,
"skip_refine": 0,
"custom_voice": 0
})
print(res.json())
#ok
{code:0, msg:'ok', audio_files:[{filename: E:/python/chattts/static/wavs/20240601-22_12_12-c7456293f7b5e4dfd3ff83bbd884a23e.wav, url: http://127.0.0.1:9966/static/wavs/20240601-22_12_12-c7456293f7b5e4dfd3ff83bbd884a23e.wav}]}
#error
{code:1, msg:"error"}
Aktualisieren Sie pyVideoTrans auf 1.82+ https://github.com/jianchang512/pyvideotrans
ChatTTS
in der Hauptoberfläche aus