Meta에서 출시한 AI 창작 플랫폼인 MusicGen을 다운로드하세요. MetaMusicGen은 온라인으로 출시됩니다. 사용자는 자신이 좋아하는 음악 노래를 만들기 위해 자신의 필요에 따라 해당 텍스트를 입력할 수 있습니다. 작업은 매우 간단하며 전문적인 지식이 필요하지 않습니다. 좋아하는 네티즌들이 와서 사용해 보세요.
제너레이티브 AI에 긍정적인 의도를 보여온 메타AI팀은 음악 제너레이션의 기술적 진보도 놓치지 않았다. Audiocraft 연구팀이 구축한 AI 음악 생성 서비스 딥 러닝 언어 모델인 MusicGen을 발표했습니다. 계속 읽기 Meta는 음악 생성 AI MusicGen을 출시합니다. 이는 음악을 생성하고 "텍스트"를 사용하여 기존 트랙을 조정하고 콘텐츠를 보고할 수도 있습니다.
그래피티 캐릭터와 함께 춤을 출 수 있는 애니메이션 드로잉 외에도 제너레이티브 AI에 대한 긍정적인 의지를 보여준 메타 AI팀은 음악 제너레이션의 기술적 진보도 놓치지 않았다. Audiocraft 연구팀이 만든 AI 음악 생성 서비스 딥 러닝 언어 모델 MusicGen이 github에서 오픈 소스로 공개되었으며 자체 GPU 하드웨어 또는 Google Colab을 통해 음악을 완전히 생성할 수 있다고 발표했습니다(Facebook Research 단계는 다음과 같습니다). 프롬프트 텍스트를 통해 기존 트랙을 "적응"하는 MusicGen의 기능은 온라인에서도 사용할 수 있습니다. 여기에서 시험해 볼 수 있습니다. 약 12초 분량의 생성적 음악 콘텐츠를 제작하기 위해 음악 클립이 업로드됩니다.
MusicGen의 온라인 버전은 사용이 매우 쉽습니다. 작성자는 약 4분 분량의 멜로디 음악을 업로드했습니다. 기본 프롬프트 단어를 통해 MusicGen으로 생성하면 "무거운 드럼과 신디사이저 패드를 배경으로 하는 80년대 드라이빙 팝송"과 같은 비교적 복잡한 데모 프롬프트 단어를 통해 처리하는 데 200초 이상이 더 많이 생성됩니다.
각색의 효과에 관해서는 개인적으로 꽤 흥미롭다고 생각합니다. 또한 텍스트만으로 완전히 AI 음악을 만드는 효과가 어떤 것인지도 꼭 알고 싶습니다. Meta AI 직원들은 MusicGen의 음악 각색 효과도 Twitter에 공개했습니다(위 참조).
관계자들은 또한 MusicLM, Riffusion, Musai 등 기존의 다른 서비스에 비해 MusicGen이 더 나은 결과를 얻을 수 있다고 자신있게 언급했습니다. 이는 연구팀이 MusicGen이 의미론적 성능을 자체 모니터링할 필요가 없고 초당 50개의 자기 회귀 오디오 처리 단계를 제공할 수 있다는 점에서 다른 기술과 다르다고 언급한 사실과 관련이 있을 수 있습니다. 그렇다면 더 나은 발전 성능을 달성하는 열쇠는 무엇입니까?