เอกสาร | ตัวอย่าง | ตัวอย่าง (ESPNET2) | นักเทียบท่า สมุดบันทึก
ESPNET เป็นชุดเครื่องมือประมวลผลการพูดแบบ end-to-end ที่ครอบคลุมการรู้จำเสียงพูดแบบ end-to-end, ข้อความเป็นคำพูด, การแปลคำพูด, การเพิ่มประสิทธิภาพการพูด, การ diarization ของผู้พูด, การทำความเข้าใจภาษาพูดและอื่น ๆ ESPNET ใช้ Pytorch เป็นเอ็นจิ้นการเรียนรู้อย่างลึกซึ้งและยังติดตามการประมวลผลข้อมูลสไตล์ Kaldi การแยก/รูปแบบคุณสมบัติและสูตรอาหารเพื่อให้การตั้งค่าที่สมบูรณ์สำหรับการทดลองการประมวลผลคำพูดต่างๆ
ASR
(WSJ, สวิตช์บอร์ด, chime-4/5, librispeech, ted, csj, ami, hkust, voxforge, reverb, gigaspeech ฯลฯ )TTS
ในลักษณะเดียวกันกับสูตร ASR (LJSpeech, Libritts, M-Ailabs ฯลฯ )ST
(Fisher-Callhome Spanish, Libri-Trans, Iwslt'18, How2, ต้อง C, Mboshi-French ฯลฯ )MT
(iwslt'14, iwslt'16, สูตร ST ข้างต้น ฯลฯ )SLU
(Catslu-Maps, FSC, Grabo, IEMOCAP, JDCINAL, SNIPS, Slurp, SWBD-DA ฯลฯ )SE/SS
(DNS-IS2020, Librimix, SMS-WSJ, VCTK-Noisyverb, Wham!, Whamr!, WSJ-2MIX ฯลฯ )โปรดดูหน้าการสอนสำหรับเอกสารที่สมบูรณ์
frontend
เป็น s3prl
frontend_conf
เป็นชื่อที่เกี่ยวข้องสาธิต
สาธิต
ในการฝึกอบรมผู้ร้องประสาทโปรดตรวจสอบที่เก็บต่อไปนี้:
สาธิต
ดู ESPNET2
หากคุณตั้งใจจะทำการทดลองเต็มรูปแบบรวมถึงการฝึกอบรม DNN ให้ดูการติดตั้ง
หากคุณต้องการโมดูล Python เท่านั้น:
# We recommend you install PyTorch before installing espnet following https://pytorch.org/get-started/locally/
pip install espnet
# To install the latest
# pip install git+https://github.com/espnet/espnet
# To install additional packages
# pip install "espnet[all]"
หากคุณใช้ ESPNET1 โปรดติดตั้ง Chainer และ Cupy
pip install chainer==6.0.0 cupy==6.0.0 # [Option]
คุณอาจต้องติดตั้งแพ็คเกจบางอย่างขึ้นอยู่กับแต่ละงาน เราเตรียมสคริปต์การติดตั้งที่หลากหลายที่เครื่องมือ/ตัวติดตั้ง
(ESPNET2) เมื่อติดตั้งแล้วให้เรียก wandb login
และตั้งค่า --use_wandb true
เพื่อเปิดใช้งานการติดตามการทำงานโดยใช้ W & B
ไปที่ Docker/ และทำตามคำแนะนำ
ขอบคุณที่สละเวลาสำหรับ ESPNET! ยินดีต้อนรับการมีส่วนร่วมใด ๆ กับ ESPNET และอย่าลังเลที่จะถามคำถามหรือคำขอใด ๆ สำหรับปัญหา หากเป็นผลงาน ESPNET ครั้งแรกของคุณโปรดติดตามคู่มือการบริจาค
เราแสดงรายการอัตราความผิดพลาดของอักขระ (CER) และอัตราความผิดพลาดของคำ (WER) ของงาน ASR ที่สำคัญ
งาน | cer (%) | wer (%) | รูปแบบที่ผ่านการฝึกอบรมมาก่อน |
---|---|---|---|
aishell dev/test | 4.6/5.1 | N/A | การเชื่อมโยง |
ESPNET2 Aishell Dev/Test | 4.1/4.4 | N/A | การเชื่อมโยง |
dev/test เสียงทั่วไป | 1.7/1.8 | 2.2/2.3 | การเชื่อมโยง |
CSJ eval1/eval2/eval3 | 5.7/3.8/4.2 | N/A | การเชื่อมโยง |
ESPNET2 CSJ Eval1/Eval2/Eval3 | 4.5/3.3/3.6 | N/A | การเชื่อมโยง |
ESPNET2 Gigaspeech Dev/Test | N/A | 10.6/10.5 | การเชื่อมโยง |
hkust dev | 23.5 | N/A | การเชื่อมโยง |
espnet2 hkust dev | 21.2 | N/A | การเชื่อมโยง |
Librispeech dev_clean/dev_other/test_clean/test_other | N/A | 1.9/4.9/2.1/4.9 | การเชื่อมโยง |
ESPNET2 Librispeech dev_clean/dev_other/test_clean/test_other | 0.6/1.5/0.6/1.4 | 1.7/3.4/1.8/3.6 | การเชื่อมโยง |
สวิตช์บอร์ด (eval2000) callhm/swbd | N/A | 14.0/6.8 | การเชื่อมโยง |
ESPNET2 Switchboard (Ever2000) Callhm/SWBD | N/A | 13.4/7.3 | การเชื่อมโยง |
tedlium2 dev/test | N/A | 8.6/7.2 | การเชื่อมโยง |
ESPNET2 TEDLIUM2 Dev/Test | N/A | 7.3/7.1 | การเชื่อมโยง |
tedlium3 dev/test | N/A | 9.6/7.6 | การเชื่อมโยง |
WSJ dev93/eval92 | 3.2/2.1 | 7.0/4.7 | N/A |
ESPNET2 WSJ Dev93/Eval92 | 1.1/0.8 | 2.8/1.8 | การเชื่อมโยง |
โปรดทราบว่าประสิทธิภาพของงาน CSJ, HKUST และ Librispeech ได้รับการปรับปรุงอย่างมีนัยสำคัญโดยใช้เครือข่ายกว้าง (#UNITS = 1024) และหน่วย subword ขนาดใหญ่หากจำเป็นต้องรายงานโดย RWTH
หากคุณต้องการตรวจสอบผลลัพธ์ของสูตรอื่น ๆ โปรดตรวจสอบ egs/<name_of_recipe>/asr1/RESULTS.md
คุณสามารถรับรู้คำพูดในไฟล์ WAV โดยใช้โมเดลที่ผ่านการฝึกอบรมมาก่อน ไปที่ไดเรกทอรีสูตรและเรียกใช้ utils/recog_wav.sh
ดังนี้:
# go to the recipe directory and source path of espnet tools
cd egs/tedlium2/asr1 && . ./path.sh
# let's recognize speech!
recog_wav.sh --models tedlium2.transformer.v1 example.wav
โดยที่ example.wav
เป็นไฟล์ WAV ที่จะรับรู้ อัตราการสุ่มตัวอย่างจะต้องสอดคล้องกับข้อมูลที่ใช้ในการฝึกอบรม
โมเดลที่ผ่านการฝึกอบรมมาล่วงหน้าในสคริปต์สาธิตแสดงอยู่ด้านล่าง
แบบอย่าง | หมายเหตุ |
---|---|
tedlium2.rnn.v1 | สตรีมมิ่งการถอดรหัสตาม VAD ที่ใช้ CTC |
tedlium2.rnn.v2 | สตรีมมิ่งการถอดรหัสตาม VAD ที่ใช้ CTC (การถอดรหัสแบทช์) |
tedlium2.transformer.v1 | หม้อแปลงความสนใจร่วมกันของ CTC ที่ได้รับการฝึกฝนเกี่ยวกับ Tedlium 2 |
tedlium3.transformer.v1 | หม้อแปลงความสนใจร่วมกัน CTC ที่ได้รับการฝึกฝนเกี่ยวกับ Tedlium 3 |
Librispeech.transformer.v1 | Transformer ความสนใจร่วมกันของ CTC ที่ได้รับการฝึกฝนเกี่ยวกับ Librispeech |
Commonvoice.transformer.v1 | Transformer ความสนใจร่วมกันของ CTC ที่ได้รับการฝึกฝนเกี่ยวกับ Commonvoice |
csj.transformer.v1 | Transformer ความสนใจร่วมกันของ CTC ที่ได้รับการฝึกฝนเกี่ยวกับ CSJ |
csj.rnn.v1 | ความสนใจร่วมกัน VGGBLSTM ที่ได้รับการฝึกฝนเกี่ยวกับ CSJ |
เราแสดงรายการผลลัพธ์จากสามรุ่นที่แตกต่างกันใน WSJ0-2MIX ซึ่งเป็นชุดข้อมูลมาตรฐานที่ใช้กันอย่างแพร่หลายที่สุดสำหรับการแยกคำพูด
แบบอย่าง | stoi | SAR | SDR | ท่าน |
---|---|---|---|---|
การปิดบัง TF | 0.89 | 11.40 | 10.24 | 18.04 |
แทสเน็ต | 0.95 | 16.62 | 15.94 | 25.90 |
dprnn-tasnet | 0.96 | 18.82 | 18.29 | 28.92 |
มันขึ้นอยู่กับ ESPNET2 โมเดลที่ผ่านการฝึกอบรมมาก่อนมีให้สำหรับทั้งการเพิ่มประสิทธิภาพการพูดและงานแยกคำพูด
การสาธิตการแยกการพูดแบบแยก: การสาธิต:
เราแสดงรายการ Bleu 4 กรัมของงาน ST ที่สำคัญ
งาน | เบลา | รูปแบบที่ผ่านการฝึกอบรมมาก่อน |
---|---|---|
Fisher-Callhome Spanish Fisher_test (es-> en) | 51.03 | การเชื่อมโยง |
Fisher-Callhome Spanish Callhome_evltest (es-> en) | 20.44 | การเชื่อมโยง |
การทดสอบ Libri-Trans (en-> fr) | 16.70 | การเชื่อมโยง |
How2 dev5 (en-> pt) | 45.68 | การเชื่อมโยง |
ต้อง ctst-common (en-> de) | 22.91 | การเชื่อมโยง |
Mboshi-French Dev (fr-> mboshi) | 6.18 | N/A |
งาน | เบลา | รูปแบบที่ผ่านการฝึกอบรมมาก่อน |
---|---|---|
Fisher-Callhome Spanish Fisher_test (es-> en) | 42.16 | N/A |
Fisher-Callhome Spanish Callhome_evltest (es-> en) | 19.82 | N/A |
การทดสอบ Libri-Trans (en-> fr) | 16.96 | N/A |
How2 dev5 (en-> pt) | 44.90 | N/A |
ต้อง ctst-common (en-> de) | 23.65 | N/A |
หากคุณต้องการตรวจสอบผลลัพธ์ของสูตรอื่น ๆ โปรดตรวจสอบ egs/<name_of_recipe>/st1/RESULTS.md
( ใหม่! ) เราทำการสาธิต E2E-ST + TTS แบบเรียลไทม์ใหม่ใน Google Colab โปรดเข้าถึงโน้ตบุ๊กจากปุ่มต่อไปนี้และเพลิดเพลินไปกับการแปลคำพูดเป็นคำพูดแบบเรียลไทม์!
คุณสามารถแปลคำพูดในไฟล์ WAV โดยใช้โมเดลที่ผ่านการฝึกอบรมมาก่อน ไปที่ไดเรกทอรีสูตรและเรียกใช้ utils/translate_wav.sh
ดังนี้:
# Go to recipe directory and source path of espnet tools
cd egs/fisher_callhome_spanish/st1 && . ./path.sh
# download example wav file
wget -O - https://github.com/espnet/espnet/files/4100928/test.wav.tar.gz | tar zxvf -
# let's translate speech!
translate_wav.sh --models fisher_callhome_spanish.transformer.v1.es-en test.wav
โดยที่ test.wav
เป็นไฟล์ WAV ที่จะแปล อัตราการสุ่มตัวอย่างจะต้องสอดคล้องกับข้อมูลที่ใช้ในการฝึกอบรม
โมเดลที่ผ่านการฝึกอบรมมาล่วงหน้าในสคริปต์สาธิตมีการระบุไว้ด้านล่าง
แบบอย่าง | หมายเหตุ |
---|---|
fisher_callhome_spanish.transformer.v1 | Transformer-St ได้รับการฝึกฝนเกี่ยวกับ Fisher-Callhome Spanish ES-> EN |
งาน | เบลา | รูปแบบที่ผ่านการฝึกอบรมมาก่อน |
---|---|---|
Fisher-Callhome Spanish Fisher_test (es-> en) | 61.45 | การเชื่อมโยง |
Fisher-Callhome Spanish Callhome_evltest (es-> en) | 29.86 | การเชื่อมโยง |
การทดสอบ Libri-Trans (en-> fr) | 18.09 | การเชื่อมโยง |
How2 dev5 (en-> pt) | 58.61 | การเชื่อมโยง |
ต้อง ctst-common (en-> de) | 27.63 | การเชื่อมโยง |
iwslt'14 test2014 (en-> de) | 24.70 | การเชื่อมโยง |
iwslt'14 test2014 (de-> en) | 29.22 | การเชื่อมโยง |
iwslt'14 test2014 (de-> en) | 32.2 | การเชื่อมโยง |
iwslt'16 test2014 (en-> de) | 24.05 | การเชื่อมโยง |
iwslt'16 test2014 (de-> en) | 29.13 | การเชื่อมโยง |
คุณสามารถฟังตัวอย่างที่สร้างขึ้นใน URL ต่อไปนี้
โปรดทราบว่าในรุ่นเราใช้ Griffin-Lim (
wav/
) และ Wavegan แบบขนาน (wav_pwg/
)
คุณสามารถดาวน์โหลดรุ่นที่ผ่านการฝึกอบรมล่วงหน้าผ่าน espnet_model_zoo
คุณสามารถดาวน์โหลดนักร้องที่ผ่านการฝึกอบรมล่วงหน้าผ่าน kan-bayashi/ParallelWaveGAN
หมายเหตุ: เรากำลังเคลื่อนไหวในการพัฒนาที่ใช้ ESPNET2 สำหรับ TTS โปรดตรวจสอบผลลัพธ์ล่าสุดในผลลัพธ์ ESPNET2 ข้างต้น
คุณสามารถฟังตัวอย่างของเราในตัวอย่าง HP ESPNET-TTS-SAMPLE ที่นี่เราแสดงรายการที่น่าทึ่ง:
คุณสามารถดาวน์โหลดรุ่นที่ผ่านการฝึกอบรมมาก่อนและตัวอย่างที่สร้างขึ้นได้ทั้งหมด:
โปรดทราบว่าในตัวอย่างที่สร้างขึ้นเราใช้นักร้องต่อไปนี้: Griffin-Lim ( GL ), Wavenet Vocoder ( Wavenet ), Wavegan คู่ขนาน ( Parallelwavegan ) และ Melgan ( Melgan ) นักร้องประสาทจะขึ้นอยู่กับที่เก็บต่อไปนี้
หากคุณต้องการสร้างนักร้องประสาทของคุณเองโปรดตรวจสอบที่เก็บข้างบน Kan-Bayashi/Parallelwavegan ให้คู่มือเกี่ยวกับวิธีการถอดรหัสคุณสมบัติของรุ่น ESPNET-TTS พร้อมกับนักร้องประสาท โปรดตรวจสอบ
ที่นี่เราแสดงรายการนักร้องประสาทที่ผ่านการฝึกอบรมมาก่อน โปรดดาวน์โหลดและเพลิดเพลินกับการพูดที่มีคุณภาพสูง!
ลิงค์โมเดล | หรั่ง | FS [Hz] | Mel Range [Hz] | fft / shift / win [pt] | ประเภทรุ่น |
---|---|---|---|---|---|
ljspeech.wavenet.softmax.ns.v1 | en | 22.05K | ไม่มี | 1024/256 / NONE | softmax wavenet |
ljspeech.wavenet.mol.v1 | en | 22.05K | ไม่มี | 1024/256 / NONE | Mol Wavenet |
ljspeech.parallellal_wavegan.v1 | en | 22.05K | ไม่มี | 1024/256 / NONE | Wavegan คู่ขนาน |
ljspeech.wavenet.mol.v2 | en | 22.05K | 80-7600 | 1024/256 / NONE | Mol Wavenet |
ljspeech.parallelt_wavegan.v2 | en | 22.05K | 80-7600 | 1024/256 / NONE | Wavegan คู่ขนาน |
ljspeech.melgan.v1 | en | 22.05K | 80-7600 | 1024/256 / NONE | Melgan |
ljspeech.melgan.v3 | en | 22.05K | 80-7600 | 1024/256 / NONE | Melgan |
Libritts.wavenet.mol.v1 | en | 24K | ไม่มี | 1024/256 / NONE | Mol Wavenet |
jsut.wavenet.mol.v1 | JP | 24K | 80-7600 | 2048/300/200 | Mol Wavenet |
jsut.parallel_wavegan.v1 | JP | 24K | 80-7600 | 2048/300/200 | Wavegan คู่ขนาน |
csmsc.wavenet.mol.v1 | zh | 24K | 80-7600 | 2048/300/200 | Mol Wavenet |
csmsc.parallel_wavegan.v1 | zh | 24K | 80-7600 | 2048/300/200 | Wavegan คู่ขนาน |
หากคุณต้องการใช้คำแนะนำที่ได้รับการฝึกอบรมล่วงหน้าข้างต้นโปรดจับคู่การตั้งค่าคุณสมบัติกับพวกเขาอย่างแน่นอน
คุณสามารถลองสาธิตแบบเรียลไทม์ใน Google Colab โปรดเข้าถึงสมุดบันทึกจากปุ่มต่อไปนี้และเพลิดเพลินกับการสังเคราะห์แบบเรียลไทม์!
รุ่นอังกฤษญี่ปุ่นและแมนดารินมีอยู่ในตัวอย่าง
หมายเหตุ: เรากำลังเคลื่อนไหวในการพัฒนาที่ใช้ ESPNET2 สำหรับ TTS โปรดตรวจสอบการสาธิตล่าสุดในการสาธิต ESPNET2 ข้างต้น
คุณสามารถลองสาธิตแบบเรียลไทม์ใน Google Colab โปรดเข้าถึงสมุดบันทึกจากปุ่มต่อไปนี้และเพลิดเพลินกับการสังเคราะห์แบบเรียลไทม์
นอกจากนี้เรายังมีเชลล์สคริปต์เพื่อทำการสังเคราะห์ ไปที่ไดเรกทอรีสูตรและเรียกใช้ utils/synth_wav.sh
ดังนี้:
# Go to recipe directory and source path of espnet tools
cd egs/ljspeech/tts1 && . ./path.sh
# We use an upper-case char sequence for the default model.
echo " THIS IS A DEMONSTRATION OF TEXT TO SPEECH. " > example.txt
# let's synthesize speech!
synth_wav.sh example.txt
# Also, you can use multiple sentences
echo " THIS IS A DEMONSTRATION OF TEXT TO SPEECH. " > example_multi.txt
echo " TEXT TO SPEECH IS A TECHNIQUE TO CONVERT TEXT INTO SPEECH. " >> example_multi.txt
synth_wav.sh example_multi.txt
คุณสามารถเปลี่ยนโมเดลที่ผ่านการฝึกอบรมมาก่อน:
synth_wav.sh --models ljspeech.fastspeech.v1 example.txt
การสังเคราะห์รูปคลื่นดำเนินการกับอัลกอริทึม Griffin-Lim และนักร้องประสาท (Wavenet และ Parallelwavegan) คุณสามารถเปลี่ยนโมเดล Vocoder ที่ผ่านการฝึกอบรมมาแล้วดังนี้:
synth_wav.sh --vocoder_models ljspeech.wavenet.mol.v1 example.txt
Wavenet Vocoder ให้คำพูดที่มีคุณภาพสูงมาก แต่ต้องใช้เวลาในการสร้าง
ดูรายละเอียดเพิ่มเติมหรือรุ่นที่มีอยู่ผ่าน --help
synth_wav.sh --help
คุณสามารถฟังตัวอย่างบางส่วนบนหน้าเว็บสาธิต
Voice Conversion Challenge 2020 (VCC2020) ใช้ ESPNET เพื่อสร้างระบบพื้นฐานแบบครบวงจร ใน VCC2020 วัตถุประสงค์คือ Intra/cross-lingual nonparallel VC คุณสามารถดาวน์โหลดตัวอย่างที่แปลงของระบบพื้นฐาน ASR+TTS ได้ที่นี่
เราแสดงรายการประสิทธิภาพในงาน SLU และชุดข้อมูลต่างๆโดยใช้ตัวชี้วัดที่รายงานในกระดาษชุดข้อมูลต้นฉบับ
งาน | ชุดข้อมูล | ตัวชี้วัด | ผลลัพธ์ | รูปแบบที่ผ่านการฝึกอบรมมาก่อน |
---|---|---|---|---|
การจำแนกโดยเจตนา | slurp | ACC | 86.3 | การเชื่อมโยง |
การจำแนกโดยเจตนา | FSC | ACC | 99.6 | การเชื่อมโยง |
การจำแนกโดยเจตนา | ชุดลำโพงที่มองไม่เห็น FSC | ACC | 98.6 | การเชื่อมโยง |
การจำแนกโดยเจตนา | ชุดคำพูดที่มองไม่เห็น FSC | ACC | 86.4 | การเชื่อมโยง |
การจำแนกโดยเจตนา | ชุดลำโพง FSC Challenge Challenge | ACC | 97.5 | การเชื่อมโยง |
การจำแนกโดยเจตนา | ชุดคำพูด FSC Challenge | ACC | 78.5 | การเชื่อมโยง |
การจำแนกโดยเจตนา | ซุ่มยิง | F1 | 91.7 | การเชื่อมโยง |
การจำแนกโดยเจตนา | Grabo (NL) | ACC | 97.2 | การเชื่อมโยง |
การจำแนกโดยเจตนา | แผนที่แมว SLU (ZN) | ACC | 78.9 | การเชื่อมโยง |
การจำแนกโดยเจตนา | คำสั่งคำพูดของ Google | ACC | 98.4 | การเชื่อมโยง |
ช่องเสียบ | slurp | SLU-F1 | 71.9 | การเชื่อมโยง |
การจำแนกประเภทบทสนทนา | กระดานสวิตช์ | ACC | 67.5 | การเชื่อมโยง |
การจำแนกประเภทบทสนทนา | Jdcinal (JP) | ACC | 67.4 | การเชื่อมโยง |
การรับรู้อารมณ์ | Iemocap | ACC | 69.4 | การเชื่อมโยง |
การรับรู้อารมณ์ | swbd_sentiment | มาโคร F1 | 61.4 | การเชื่อมโยง |
การรับรู้อารมณ์ | slue_voxceleb | มาโคร F1 | 44.0 | การเชื่อมโยง |
หากคุณต้องการตรวจสอบผลลัพธ์ของสูตรอื่น ๆ โปรดตรวจสอบ egs2/<name_of_recipe>/asr1/RESULTS.md
การแบ่งส่วน CTC กำหนดกลุ่มคำพูดภายในไฟล์เสียง การจัดแนวส่วนคำพูดนั้นเป็นฉลากของชุดข้อมูลการพูด
ในการสาธิตเราจัดแนวการเริ่มต้นและสิ้นสุดของคำพูดภายในไฟล์เสียง ctc_align_test.wav
โดยใช้สคริปต์ตัวอย่าง utils/asr_align_wav.sh
สำหรับการเตรียมการตั้งค่าไดเรกทอรีข้อมูล:
cd egs/tedlium2/align1/
# data directory
align_dir=data/demo
mkdir -p ${align_dir}
# wav file
base=ctc_align_test
wav=../../../test_utils/ ${base} .wav
# recipe files
echo " batchsize: 0 " > ${align_dir} /align.yaml
cat << EOF > ${align_dir} /utt_text
${base} THE SALE OF THE HOTELS
${base} IS PART OF HOLIDAY'S STRATEGY
${base} TO SELL OFF ASSETS
${base} AND CONCENTRATE
${base} ON PROPERTY MANAGEMENT
EOF
ที่นี่ utt_text
เป็นไฟล์ที่มีรายการคำพูด เลือกโมเดล ASR ที่ผ่านการฝึกอบรมมาก่อนซึ่งมีเลเยอร์ CTC เพื่อค้นหากลุ่มคำพูด:
# pre-trained ASR model
model=wsj.transformer_small.v1
mkdir ./conf && cp ../../wsj/asr1/conf/no_preprocess.yaml ./conf
../../../utils/asr_align_wav.sh
--models ${model}
--align_dir ${align_dir}
--align_config ${align_dir} /align.yaml
${wav} ${align_dir} /utt_text
เซ็กเมนต์ถูกเขียนไปยัง aligned_segments
เป็นรายการชื่อไฟล์/คำพูดการเริ่มต้นและเวลาสิ้นสุดในไม่กี่วินาทีและคะแนนความมั่นใจ คะแนนความเชื่อมั่นคือความน่าจะเป็นในพื้นที่บันทึกที่ระบุว่าคำพูดนั้นสอดคล้องกันเพียงใด หากจำเป็นให้ลบคำพูดที่ไม่ดี:
min_confidence_score=-5
awk -v ms= ${min_confidence_score} ' { if ($5 > ms) {print} } ' ${align_dir} /aligned_segments
สคริปต์ตัวอย่าง utils/ctc_align_wav.sh
ใช้โมเดล ASR ที่ผ่านการฝึกอบรมมาล่วงหน้าแล้ว (ดูรายการด้านบนสำหรับรุ่นเพิ่มเติม) ขอแนะนำให้ใช้โมเดลที่มีตัวเข้ารหัสที่ใช้ RNN (เช่น BLSTMP) เพื่อจัดตำแหน่งไฟล์เสียงขนาดใหญ่ แทนที่จะใช้โมเดลหม้อแปลงที่มีการใช้หน่วยความจำสูงในข้อมูลเสียงที่ยาวขึ้น อัตราตัวอย่างของเสียงจะต้องสอดคล้องกับข้อมูลที่ใช้ในการฝึกอบรม ปรับด้วย sox
ถ้าจำเป็น สูตรตัวอย่างเต็มรูปแบบอยู่ใน egs/tedlium2/align1/
การแบ่งส่วน CTC กำหนดกลุ่มคำพูดภายในไฟล์เสียง การจัดแนวส่วนคำพูดนั้นเป็นฉลากของชุดข้อมูลการพูด
ในการสาธิตเราจัดแนวการเริ่มต้นและสิ้นสุดของคำพูดภายในไฟล์เสียง ctc_align_test.wav
สามารถทำได้โดยตรงจากบรรทัดคำสั่ง Python หรือใช้สคริปต์ espnet2/bin/asr_align.py
จากอินเตอร์เฟสบรรทัดคำสั่ง Python:
# load a model with character tokens
from espnet_model_zoo . downloader import ModelDownloader
d = ModelDownloader ( cachedir = "./modelcache" )
wsjmodel = d . download_and_unpack ( "kamo-naoyuki/wsj" )
# load the example file included in the ESPnet repository
import soundfile
speech , rate = soundfile . read ( "./test_utils/ctc_align_test.wav" )
# CTC segmentation
from espnet2 . bin . asr_align import CTCSegmentation
aligner = CTCSegmentation ( ** wsjmodel , fs = rate )
text = """
utt1 THE SALE OF THE HOTELS
utt2 IS PART OF HOLIDAY'S STRATEGY
utt3 TO SELL OFF ASSETS
utt4 AND CONCENTRATE ON PROPERTY MANAGEMENT
"""
segments = aligner ( speech , text )
print ( segments )
# utt1 utt 0.26 1.73 -0.0154 THE SALE OF THE HOTELS
# utt2 utt 1.73 3.19 -0.7674 IS PART OF HOLIDAY'S STRATEGY
# utt3 utt 3.19 4.20 -0.7433 TO SELL OFF ASSETS
# utt4 utt 4.20 6.10 -0.4899 AND CONCENTRATE ON PROPERTY MANAGEMENT
การจัดแนวยังทำงานกับชิ้นส่วนของข้อความ สำหรับสิ่งนี้ตั้งค่าตัวเลือก gratis_blank
ที่อนุญาตให้ข้ามส่วนเสียงที่ไม่เกี่ยวข้องโดยไม่มีการลงโทษ นอกจากนี้ยังเป็นไปได้ที่จะละเว้นชื่อคำพูดที่จุดเริ่มต้นของแต่ละบรรทัดโดยการตั้งค่า kaldi_style_text
เป็นเท็จ
aligner . set_config ( gratis_blank = True , kaldi_style_text = False )
text = [ "SALE OF THE HOTELS" , "PROPERTY MANAGEMENT" ]
segments = aligner ( speech , text )
print ( segments )
# utt_0000 utt 0.37 1.72 -2.0651 SALE OF THE HOTELS
# utt_0001 utt 4.70 6.10 -5.0566 PROPERTY MANAGEMENT
สคริปต์ espnet2/bin/asr_align.py
ใช้อินเทอร์เฟซที่คล้ายกัน เพื่อจัดแนวคำพูด:
# ASR model and config files from pre-trained model (e.g., from cachedir):
asr_config= < path-to-model > /config.yaml
asr_model= < path-to-model > /valid. * best.pth
# prepare the text file
wav= " test_utils/ctc_align_test.wav "
text= " test_utils/ctc_align_text.txt "
cat << EOF > ${text}
utt1 THE SALE OF THE HOTELS
utt2 IS PART OF HOLIDAY'S STRATEGY
utt3 TO SELL OFF ASSETS
utt4 AND CONCENTRATE
utt5 ON PROPERTY MANAGEMENT
EOF
# obtain alignments:
python espnet2/bin/asr_align.py --asr_train_config ${asr_config} --asr_model_file ${asr_model} --audio ${wav} --text ${text}
# utt1 ctc_align_test 0.26 1.73 -0.0154 THE SALE OF THE HOTELS
# utt2 ctc_align_test 1.73 3.19 -0.7674 IS PART OF HOLIDAY'S STRATEGY
# utt3 ctc_align_test 3.19 4.20 -0.7433 TO SELL OFF ASSETS
# utt4 ctc_align_test 4.20 4.97 -0.6017 AND CONCENTRATE
# utt5 ctc_align_test 4.97 6.10 -0.3477 ON PROPERTY MANAGEMENT
เอาต์พุตของสคริปต์สามารถเปลี่ยนเส้นทางไปยังไฟล์ segments
ได้โดยการเพิ่มอาร์กิวเมนต์ --output segments
พุท แต่ละบรรทัดมีชื่อไฟล์/คำพูดการเริ่มต้นและเวลาสิ้นสุดในไม่กี่วินาทีและคะแนนความมั่นใจ; เลือกข้อความคำพูดด้วย คะแนนความเชื่อมั่นคือความน่าจะเป็นในพื้นที่บันทึกที่ระบุว่าคำพูดนั้นสอดคล้องกันเพียงใด หากจำเป็นให้ลบคำพูดที่ไม่ดี:
min_confidence_score=-7
# here, we assume that the output was written to the file `segments`
awk -v ms= ${min_confidence_score} ' { if ($5 > ms) {print} } ' segments
ดูเอกสารโมดูลสำหรับข้อมูลเพิ่มเติม ขอแนะนำให้ใช้โมเดลที่มีตัวเข้ารหัสที่ใช้ RNN (เช่น BLSTMP) เพื่อจัดตำแหน่งไฟล์เสียงขนาดใหญ่ แทนที่จะใช้โมเดลหม้อแปลงที่มีการใช้หน่วยความจำสูงในข้อมูลเสียงที่ยาวขึ้น อัตราตัวอย่างของเสียงจะต้องสอดคล้องกับข้อมูลที่ใช้ในการฝึกอบรม ปรับด้วย sox
ถ้าจำเป็น
นอกจากนี้เราสามารถใช้เครื่องมือนี้เพื่อให้ข้อมูลการแบ่งส่วนระดับโทเค็นหากเราเตรียมรายการโทเค็นแทนคำพูดในไฟล์ text
ดูการสนทนาใน #4278 (ความคิดเห็น)
@inproceedings{watanabe2018espnet,
author={Shinji Watanabe and Takaaki Hori and Shigeki Karita and Tomoki Hayashi and Jiro Nishitoba and Yuya Unno and Nelson {Enrique Yalta Soplin} and Jahn Heymann and Matthew Wiesner and Nanxin Chen and Adithya Renduchintala and Tsubasa Ochiai},
title={{ESPnet}: End-to-End Speech Processing Toolkit},
year={2018},
booktitle={Proceedings of Interspeech},
pages={2207--2211},
doi={10.21437/Interspeech.2018-1456},
url={http://dx.doi.org/10.21437/Interspeech.2018-1456}
}
@inproceedings{hayashi2020espnet,
title={{Espnet-TTS}: Unified, reproducible, and integratable open source end-to-end text-to-speech toolkit},
author={Hayashi, Tomoki and Yamamoto, Ryuichi and Inoue, Katsuki and Yoshimura, Takenori and Watanabe, Shinji and Toda, Tomoki and Takeda, Kazuya and Zhang, Yu and Tan, Xu},
booktitle={Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)},
pages={7654--7658},
year={2020},
organization={IEEE}
}
@inproceedings{inaguma-etal-2020-espnet,
title = "{ESP}net-{ST}: All-in-One Speech Translation Toolkit",
author = "Inaguma, Hirofumi and
Kiyono, Shun and
Duh, Kevin and
Karita, Shigeki and
Yalta, Nelson and
Hayashi, Tomoki and
Watanabe, Shinji",
booktitle = "Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations",
month = jul,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.acl-demos.34",
pages = "302--311",
}
@article{hayashi2021espnet2,
title={{ESP}net2-{TTS}: Extending the edge of {TTS} research},
author={Hayashi, Tomoki and Yamamoto, Ryuichi and Yoshimura, Takenori and Wu, Peter and Shi, Jiatong and Saeki, Takaaki and Ju, Yooncheol and Yasuda, Yusuke and Takamichi, Shinnosuke and Watanabe, Shinji},
journal={arXiv preprint arXiv:2110.07840},
year={2021}
}
@inproceedings{li2020espnet,
title={{ESPnet-SE}: End-to-End Speech Enhancement and Separation Toolkit Designed for {ASR} Integration},
author={Chenda Li and Jing Shi and Wangyou Zhang and Aswin Shanmugam Subramanian and Xuankai Chang and Naoyuki Kamo and Moto Hira and Tomoki Hayashi and Christoph Boeddeker and Zhuo Chen and Shinji Watanabe},
booktitle={Proceedings of IEEE Spoken Language Technology Workshop (SLT)},
pages={785--792},
year={2021},
organization={IEEE},
}
@inproceedings{arora2021espnet,
title={{ESPnet-SLU}: Advancing Spoken Language Understanding through ESPnet},
author={Arora, Siddhant and Dalmia, Siddharth and Denisov, Pavel and Chang, Xuankai and Ueda, Yushi and Peng, Yifan and Zhang, Yuekai and Kumar, Sujay and Ganesan, Karthik and Yan, Brian and others},
booktitle={ICASSP 2022-2022 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)},
pages={7167--7171},
year={2022},
organization={IEEE}
}
@inproceedings{shi2022muskits,
author={Shi, Jiatong and Guo, Shuai and Qian, Tao and Huo, Nan and Hayashi, Tomoki and Wu, Yuning and Xu, Frank and Chang, Xuankai and Li, Huazhe and Wu, Peter and Watanabe, Shinji and Jin, Qin},
title={{Muskits}: an End-to-End Music Processing Toolkit for Singing Voice Synthesis},
year={2022},
booktitle={Proceedings of Interspeech},
pages={4277-4281},
url={https://www.isca-speech.org/archive/pdfs/interspeech_2022/shi22d_interspeech.pdf}
}
@inproceedings{lu22c_interspeech,
author={Yen-Ju Lu and Xuankai Chang and Chenda Li and Wangyou Zhang and Samuele Cornell and Zhaoheng Ni and Yoshiki Masuyama and Brian Yan and Robin Scheibler and Zhong-Qiu Wang and Yu Tsao and Yanmin Qian and Shinji Watanabe},
title={{ESPnet-SE++: Speech Enhancement for Robust Speech Recognition, Translation, and Understanding}},
year=2022,
booktitle={Proc. Interspeech 2022},
pages={5458--5462},
}
@inproceedings{gao2023euro,
title={{EURO: ESP}net unsupervised {ASR} open-source toolkit},
author={Gao, Dongji and Shi, Jiatong and Chuang, Shun-Po and Garcia, Leibny Paola and Lee, Hung-yi and Watanabe, Shinji and Khudanpur, Sanjeev},
booktitle={ICASSP 2023-2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)},
pages={1--5},
year={2023},
organization={IEEE}
}
@inproceedings{peng2023reproducing,
title={Reproducing {W}hisper-style training using an open-source toolkit and publicly available data},
author={Peng, Yifan and Tian, Jinchuan and Yan, Brian and Berrebbi, Dan and Chang, Xuankai and Li, Xinjian and Shi, Jiatong and Arora, Siddhant and Chen, William and Sharma, Roshan and others},
booktitle={2023 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU)},
pages={1--8},
year={2023},
organization={IEEE}
}
@inproceedings{sharma2023espnet,
title={ESPnet-{SUMM}: Introducing a novel large dataset, toolkit, and a cross-corpora evaluation of speech summarization systems},
author={Sharma, Roshan and Chen, William and Kano, Takatomo and Sharma, Ruchira and Arora, Siddhant and Watanabe, Shinji and Ogawa, Atsunori and Delcroix, Marc and Singh, Rita and Raj, Bhiksha},
booktitle={2023 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU)},
pages={1--8},
year={2023},
organization={IEEE}
}
@article{jung2024espnet,
title={{ESPnet-SPK}: full pipeline speaker embedding toolkit with reproducible recipes, self-supervised front-ends, and off-the-shelf models},
author={Jung, Jee-weon and Zhang, Wangyou and Shi, Jiatong and Aldeneh, Zakaria and Higuchi, Takuya and Theobald, Barry-John and Abdelaziz, Ahmed Hussen and Watanabe, Shinji},
journal={Proc. Interspeech 2024},
year={2024}
}
@inproceedings{yan-etal-2023-espnet,
title = "{ESP}net-{ST}-v2: Multipurpose Spoken Language Translation Toolkit",
author = "Yan, Brian and
Shi, Jiatong and
Tang, Yun and
Inaguma, Hirofumi and
Peng, Yifan and
Dalmia, Siddharth and
Pol{'a}k, Peter and
Fernandes, Patrick and
Berrebbi, Dan and
Hayashi, Tomoki and
Zhang, Xiaohui and
Ni, Zhaoheng and
Hira, Moto and
Maiti, Soumi and
Pino, Juan and
Watanabe, Shinji",
booktitle = "Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 3: System Demonstrations)",
year = "2023",
publisher = "Association for Computational Linguistics",
pages = "400--411",
}