Sound Expo ke-7 dimulai dan merilis serangkaian aplikasi AI
Penulis:Eve Cole
Waktu Pembaruan:2024-11-16 18:24:02
Pada tanggal 24 Oktober, World Sound Expo ke-7 dan Festival Pengembang iFlytek Global 1024 2024 dibuka di Hefei. Ketua iFlytek Liu Qingfeng mengumumkan kartu laporan aplikasi model besar iFlytek Spark, dan merilis iFlytek Spark 4.0 Turbo serta aplikasi dan produk terkait yang memberdayakan mata pencaharian masyarakat. . Pada hari yang sama, platform komputasi cerdas berskala ultra besar dalam negeri "Feixing 2" yang dibangun bersama oleh iFlytek, Huawei, dan Hefei Big Data Asset Operation Co., Ltd. secara resmi diluncurkan. Liu Qingfeng memperkenalkan bahwa tim gabungan tiga pihak telah mengatasi banyak "penyakit sulit" dalam satu tahun terakhir dan memecahkan lebih dari 500 masalah perangkat lunak dan perangkat keras dasar serta masalah adaptasi model algoritma. Adaptasi berkelanjutan dan pengembangan skala cluster komputasi cerdas. Di tempat tersebut, manusia digital super-antropomorfik yang diciptakan oleh iFlytek memulai debutnya, mewujudkan interaksi multi-modal suara, video, gambar, dan teks, serta mendukung pengguna untuk menciptakan manusia digital pribadi mereka dengan pengeditan dan definisi sederhana di latar belakang. Anda dapat dengan cepat menghasilkan gambar kartun Anda sendiri. Perlu disebutkan bahwa di bidang pengenalan suara, teknologi pengenalan suara adegan derau tinggi jarak jauh dari iFlytek telah semakin memperluas keunggulannya. Dalam hal kemampuan multibahasa, untuk pertama kalinya, perusahaan ini telah mencapai cakupan penuh lebih dari 200 dialek di kota-kota tingkat prefektur di seluruh negeri; dalam hal kemampuan multibahasa, perusahaan ini telah merilis model besar multibahasa Spark untuk pertama kalinya, selain bahasa Mandarin dan Inggris, dapat mendukung bahasa Rusia, Jepang, Arab, Prancis, dll. 8 bahasa. Di tempat tersebut, Huawei dan iFlytek bersama-sama meluncurkan teknologi inovatif - fungsi perbaikan suara, yang menggunakan kemampuan pemrosesan suara real-time yang kuat. Saat pengguna mengucapkan kata-kata, ucapan mereka dianalisis secara real-time dan diperbaiki serta dioptimalkan untuk meningkatkan kejelasan dan kejelasan pengucapan guna membantu orang dengan gangguan bicara mencapai komunikasi yang lebih lancar.