Meta が立ち上げた AI 作成プラットフォーム MusicGen をダウンロードします。MetaMusicGen はオンラインで提供されると発表されており、ユーザーは自分のニーズに応じて対応するテキストを入力して、お気に入りの音楽曲を作成できます。操作は非常に簡単で、専門的な知識は必要ありません。それが好きなネチズンは試しに来ます。
生成AIに積極的な意向を示しているメタAIチームは、音楽生成における技術的進歩を見逃さなかった。 Audiocraft 研究チームによって構築された AI 音楽生成サービスの深層学習言語モデルである MusicGen を発表しました。 続きを読む Meta が音楽生成 AI MusicGen をリリース: 音楽を作成できるだけでなく、「テキスト」を使用して既存のトラックを調整したり、コンテンツをレポートしたりすることもできます。
落書きキャラクターと一緒に踊れるAnimated Drawingsに加えて、生成AIにも積極的な意向を示しているメタAIチームは、音楽生成における技術進歩も見逃さなかった。 Audiocraft 研究チームが作成した AI 音楽生成サービスの深層学習言語モデル MusicGen が github でオープンソース化され、独自の GPU ハードウェアまたは Google Colab を通じて完全に音楽を生成できるようになったと発表しました (Facebook Research の手順は次のとおりです)。 プロンプト テキストを介して既存のトラックを「調整」する MusicGen の機能は、オンラインでも利用できます。ここで試すことができます。 ミュージック クリップをアップロードすると、約 12 秒の生成音楽コンテンツが作成されます。
MusicGen のオンライン バージョンは非常に使いやすいです。 著者は4分近くのメロディー音楽をアップロードしました。 MusicGen で基本的なプロンプト ワードを使用して生成すると、処理に 200 秒以上かかりますが、「バックグラウンドで重いドラムとシンセ パッドを使用した 80 年代のドライブするポップ ソング」などの比較的複雑なデモ プロンプト ワードを使用すると、生成はさらに増加します。
アダプテーションの効果に関する限り、個人的には非常に興味深いと思います。また、完全にテキストから AI 音楽を作成した場合にどのような効果が得られるのかを非常に知りたいと思っています。 Meta AI の従業員も、MusicGen の音楽適応エフェクトを Twitter で公開しました (上記の通り)。
関係者らはまた、MusicLM、Riffusion、Musaiなどの他の既存サービスと比較して、MusicGenはより良い結果を生み出すことができると自信を持って述べた。 これは、MusicGen がセマンティック パフォーマンスを自己監視する必要がなく、1 秒あたり 50 の自己回帰オーディオ処理ステップを提供できるという点で他のテクノロジーとは異なると研究チームが言及したという事実に関連している可能性があります。 では、より優れた発電パフォーマンスを達成するための鍵は何でしょうか?