Bei der Videoerstellung sind Soundeffekte von entscheidender Bedeutung, doch das Finden und Produzieren geeigneter Soundeffekte ist zeitaufwändig und mühsam. Adobe stellte auf der MAX-Konferenz einen experimentellen Prototyp namens Project Super Sonic vor, der mithilfe von KI-Technologie Soundeffekte basierend auf Text und Videoobjekterkennung generiert und sogar Benutzerstimmen imitiert, wodurch die Effizienz der Videoproduktion erheblich verbessert wird. Der Herausgeber von Downcodes führt Sie dazu, mehr über dieses erstaunliche Tool zu erfahren.
Neben der visuellen Darstellung spielt auch der Ton eine wichtige Rolle, wenn es darum geht, ansprechende Videos zu erstellen. Allerdings kann es oft eine zeitaufwändige Aufgabe sein, die richtigen Soundeffekte zu finden oder zu erstellen.
Auf der jährlichen MAX-Konferenz von Adobe stellten sie einen experimentellen Prototyp namens Project Super Sonic vor, eine Technologie, die Soundeffekte aus Text erzeugen, Objekte in Videos identifizieren und sogar Ihre Stimme verwenden kann, um schnell Hintergründe für Videoprojekte zu generieren .
Während die Möglichkeit, Soundeffekte aus Textaufforderungen zu generieren, cool klingt, bieten Unternehmen wie ElevenLabs bereits ähnliche Dienste kommerziell an. Noch interessanter ist, dass Adobe diese Funktion noch einen Schritt weiter entwickelt und zwei Möglichkeiten zum Erstellen von Audiospuren hinzugefügt hat. Der erste Schritt erfolgt über das Objekterkennungsmodell. Benutzer können auf einen beliebigen Teil des Videobilds klicken, und das System generiert entsprechende Soundeffektansagen für Sie. Dies ist eine clevere Möglichkeit, mehrere Modelle in einem Workflow zu kombinieren.
Das Erstaunlichste ist der dritte Modus. Benutzer können ihre eigene imitierte Stimme aufnehmen (synchronisiert mit der Videozeit) und Project Super Sonic generiert dann automatisch passende Soundeffekte. Justin Salamon, Adobes Leiter für Sounddesign-KI, sagte, das Team habe mit einem Text-zu-Audio-Modell begonnen und betonte, dass es in allen von Adobe generierten KI-Projekten nur lizenzierte Daten verwende.
„Was wir wirklich wollen, ist, dem Benutzer die Kontrolle über den gesamten Prozess zu geben. Dies ist ein Tool, das für YouTuber, Sounddesigner und Leute entwickelt wurde, die den Ton ihrer Videos verbessern möchten“, erklärt Salamon Ich begnüge mich nicht nur mit Text, sondern arbeite auch an der Entwicklung eines Tools, das eine präzise Steuerung ermöglicht.“
Bei der Klangsteuerung analysiert das Tool tatsächlich die unterschiedlichen Eigenschaften und das Klangspektrum der Stimme des Benutzers, um den Generierungsprozess zu steuern. Salamon erwähnte, dass die Demo zwar menschliche Stimmen verwendet, Benutzer aber auch mit Handklatschen oder Musikinstrumenten aufnehmen können.
Es ist zu beachten, dass auf Adobe MAX-Konferenzen immer einige sogenannte „Sneaks“ gezeigt werden. Bei diesen Projekten handelt es sich wie bei Project Super Sonic um experimentelle Funktionen, die Adobe entwickelt. Obwohl viele Projekte irgendwann in die Kreativsuite von Adobe integriert werden, gibt es keine Garantie dafür, dass alle offiziell gestartet werden. Ich denke, dass Project Super Sonic es voraussichtlich in die tatsächliche Produktion schaffen wird, da dasselbe Team auch am Audioteil des von Adobe Firefly generierten KI-Modells beteiligt ist, das in der Lage ist, die Dauer kurzer Videos einschließlich ihrer Audiospuren zu verlängern. Aber im Moment ist Project Super Sonic noch eine Demoversion.
Highlight:
? Project Super Sonic ist ein experimenteller Prototyp, der KI-Technologie nutzt, um Benutzern dabei zu helfen, schnell Video-Soundeffekte zu erzeugen.
„Benutzer können Soundeffekte durch Text, Videoobjekterkennung und die Nachahmung von Sounds erzeugen, um das kreative Erlebnis zu verbessern.“
? Unter den Sneaks-Projekten, die auf der Adobe MAX-Konferenz gezeigt werden, wird Project Super Sonic voraussichtlich in die Kreativsuite der Zukunft aufgenommen.
Alles in allem zeigt Project Super Sonic das enorme Potenzial von KI im Audiobereich, obwohl es sich noch im experimentellen Stadium befindet, wird seine praktische und effiziente Methode zur Erzeugung von Soundeffekten zweifellos revolutionäre Veränderungen für Videokünstler mit sich bringen, und es lohnt sich, nach vorne zu schauen auf seine zukünftige Entwicklung.