ビデオ制作において効果音は重要ですが、適切な効果音を見つけて作成するのは時間と労力がかかります。アドビは、MAX カンファレンスで Project Super Sonic と呼ばれる実験プロトタイプをデモンストレーションしました。これは、AI テクノロジーを使用して、テキスト、ビデオオブジェクト認識、さらにはユーザーの音声に基づいて効果音を生成し、ビデオ制作効率を大幅に向上させます。 Downcodes のエディターでは、この素晴らしいツールについて詳しく学ぶことができます。
魅力的なビデオを作成する場合、ビジュアルに加えてオーディオも重要な役割を果たします。ただし、適切な効果音を見つけたり作成したりするのは、多くの場合時間がかかる作業です。
Adobe の年次 MAX カンファレンスでは、テキストから効果音を生成したり、ビデオ内のオブジェクトを識別したり、音声を使用してビデオ プロジェクトの背景をすばやく生成したりできる技術である Project Super Sonic と呼ばれる実験的なプロトタイプを披露しました。 。
テキストプロンプトから効果音を生成する機能はクールに聞こえますが、イレブンラボのような企業はすでに同様のサービスを商業的に提供しています。さらに興味深いことに、Adobe はこの機能をさらに一歩進め、オーディオ トラックを作成する 2 つの方法を追加しました。 1 つ目は、オブジェクト認識モデルによるもので、ユーザーがビデオ フレームの任意の部分をクリックすると、システムが対応する効果音プロンプトを生成します。これは、複数のモデルを 1 つのワークフローに組み合わせる賢い方法です。
最も驚くべき点は 3 番目のモードです。ユーザーは自分の声を模倣して (ビデオの時間と同期して) 録音することができ、Project Super Sonic が適切な効果音を自動的に生成します。アドビのサウンドデザインAI責任者のジャスティン・サラモン氏は、チームはテキストからオーディオへのモデルから始めたと述べ、アドビが生成したすべてのAIプロジェクトではライセンスされたデータのみを使用していると強調した。
「私たちが本当にやりたいのは、ユーザーがプロセス全体を制御できるようにすることです。これは、クリエイター、サウンド デザイナー、ビデオのサウンドを改善したい人向けに設計されたツールです」とサラモン氏は説明します。テキストだけのコンテンツではなく、サウンドエフェクトの初期ワークフローに至るまで、正確な制御を提供するツールの開発に取り組んでいます。」
サウンド制御に関しては、このツールはユーザーの声のさまざまな特性とサウンドスペクトルを実際に分析し、生成プロセスをガイドします。サラモン氏は、デモでは人間の声を使用しているが、ユーザーは手拍子や楽器を使って録音することもできると述べた。
Adobe MAX カンファレンスでは、いわゆる「スニーク」が常に展示されていることに注意してください。Project Super Sonic などのこれらのプロジェクトは、Adobe が開発している実験的な機能です。多くのプロジェクトは最終的に Adobe のクリエイティブ スイートに統合されることになりますが、すべてが正式に開始されるという保証はありません。同じチームが Adobe Firefly が生成する AI モデルのオーディオ部分にも関与しているため、Project Super Sonic は実際の制作に入ることが期待されています。これにより、オーディオ トラックを含む短いビデオの長さを延長することができます。しかし今のところ、Project Super Sonic はまだ単なるデモです。
ハイライト:
? Project Super Sonic は、AI テクノロジーを使用してユーザーがビデオ効果音を迅速に生成できるようにする実験的なプロトタイプです。
?ユーザーはテキスト、ビデオオブジェクトの認識、音の模倣を通じてサウンドエフェクトを生成し、クリエイティブな体験を向上させることができます。
? Adobe MAX カンファレンスで披露された Sneaks プロジェクトの中で、Project Super Sonic は将来のクリエイティブ スイートに加わることが期待されています。
全体として、Project Super Sonic はオーディオ分野における AI の大きな可能性を示していますが、まだ実験段階ではありますが、その便利で効率的な効果音生成方法は間違いなくビデオクリエイターに革命的な変化をもたらすものであり、今後に期待する価値があります。今後の展開へ。