Laden Sie MusicGen herunter, die von Meta gestartete KI-Erstellungsplattform: MetaMusicGen ist online. Benutzer können den entsprechenden Text entsprechend ihren eigenen Bedürfnissen eingeben, um ihre Lieblingsmusiklieder zu erstellen. Die Bedienung ist sehr einfach und es sind keine Fachkenntnisse erforderlich. Internetnutzer, denen es gefällt, kommen und probieren es aus.
Das Meta AI-Team, das positive Absichten für generative KI gezeigt hat, hat den technologischen Fortschritt in der Musikgenerierung nicht verpasst. Ankündigung von MusicGen, einem Deep-Learning-Sprachmodell für KI-Musikgenerierungsdienste, das von ihrem Audiocraft-Forschungsteam entwickelt wurde. Weiterlesen Meta veröffentlicht Musikgenerierungs-AI MusicGen: Es kann Musik erstellen und auch „Text“ verwenden, um bestehende Titel anzupassen und Inhalte zu melden.
Neben animierten Zeichnungen, die mit Graffiti-Figuren tanzen können, hat das Meta AI-Team, das positive Absichten für generative KI gezeigt hat, auch den technologischen Fortschritt in der Musikgenerierung nicht verpasst. Es wurde bekannt gegeben, dass das von ihrem Audiocraft-Forschungsteam erstellte Deep-Learning-Sprachmodell MusicGen für den KI-Musikgenerierungsdienst Open Source auf Github ist und Musik vollständig über Ihre eigene GPU-Hardware oder Google Colab generieren kann (hier sind die Schritte von Facebook Research). Die Möglichkeit von MusicGen, bestehende Titel per Eingabeaufforderungstext „anzupassen“, ist auch online verfügbar – hier können Sie es ausprobieren. Musikclips werden hochgeladen, um ein Stück generativen Musikinhalts von etwa 12 Sekunden Länge zu erzeugen.
Die Online-Version von MusicGen ist sehr einfach zu bedienen. Der Autor hat fast 4 Minuten Melodienmusik hochgeladen. Wenn es mit MusicGen durch einfache Eingabeaufforderungswörter generiert wird, dauert die Verarbeitung durch relativ komplexe Demonstrationseingabeaufforderungswörter wie „Ein treibender Popsong der 80er Jahre mit schweren Trommeln und Synthesizer-Pads im Hintergrund“ mehr.
Was die Wirkung der Adaption betrifft, finde ich sie persönlich recht interessant – ich möchte auch unbedingt wissen, welche Wirkung es haben wird, eine KI-Musik komplett aus Text zu erstellen. Meta AI-Mitarbeiter haben auch die Musikanpassungseffekte von MusicGen auf Twitter veröffentlicht (wie oben).
Beamte äußerten außerdem zuversichtlich, dass MusicGen im Vergleich zu anderen bestehenden Diensten wie MusicLM, Riffusion und Musai bessere Ergebnisse erzielen kann. Dies hängt möglicherweise damit zusammen, dass das Forschungsteam erwähnte, dass sich MusicGen von anderen Technologien dadurch unterscheidet, dass es die semantische Leistung nicht selbst überwachen muss und 50 selbstregressive Audioverarbeitungsschritte pro Sekunde bereitstellen kann. Was ist also der Schlüssel zur Erzielung einer besseren Erzeugungsleistung?