L'éditeur de Downcodes rapporte : Lors de la Conférence internationale 2024 sur la recherche d'informations musicales (ISMIR) qui vient de se terminer, un résultat de recherche accrocheur, le modèle MusiConGen, a été officiellement dévoilé. Ce modèle utilise l'architecture Transformer et introduit un mécanisme de condition temporelle pour obtenir un contrôle précis du rythme et des accords dans le domaine de la génération musicale. Les échantillons musicaux qu'il génère couvrent une variété de styles et présentent une excellente précision et cohérence de style. Cette avancée technologique apporte de nouvelles possibilités dans les domaines de la création musicale et de la génération musicale par intelligence artificielle. Examinons de plus près ce développement passionnant.
Lors de la Conférence internationale 2024 sur la recherche d’informations musicales (ISMIR), les chercheurs ont présenté leur nouveau modèle MusiConGen. Ce modèle est un modèle de musique généré par texte basé sur Transformer. En introduisant un mécanisme de condition temporelle, il améliore considérablement la capacité de contrôler le rythme et les accords de la musique.
Entrée du produit : https://top.aibase.com/tool/musicongen
Le modèle MusiConGen est affiné sur la base du framework MusicGen-melody pré-entraîné et est principalement utilisé pour générer des clips musicaux de différents styles. En définissant les paramètres de contrôle des accords et du rythme, l'équipe de recherche a démontré les échantillons de musique générés par le modèle, couvrant cinq styles différents : blues décontracté, jazz acidulé, rock classique, funk énergique et heavy metal.
Chaque style de musique a des exigences claires en matière d'accords et de rythme. Ces données sont dérivées de la base de données RWC-pop-100 et les accords générés sont estimés par le modèle de reconnaissance d'accords BTC.
Pour vérifier l’efficacité de MusiConGen, les chercheurs l’ont comparé au modèle de base et au modèle de base affiné. Avec les mêmes paramètres de contrôle d'accords et de rythme, MusiConGen a démontré une plus grande précision et une plus grande cohérence de style dans les échantillons de musique générés, reflétant ses avantages techniques en matière de génération de musique.
Souligner:
? MusiConGen est un modèle de musique généré par texte basé sur Transformer qui peut améliorer le contrôle du rythme et des accords en fonction des conditions temporelles.
En comparant avec les modèles traditionnels et les modèles affinés, MusiConGen a démontré des améliorations significatives dans la génération musicale.
? La musique générée par le modèle couvre cinq styles différents et peut simuler avec précision des exigences d'accords et de rythmes spécifiques.
L'émergence du modèle MusiConGen marque une autre avancée majeure de l'intelligence artificielle dans le domaine de la génération musicale, offrant de nouveaux outils et possibilités pour la création musicale. Ses capacités précises de contrôle du rythme et des accords, ainsi que le potentiel de génération de musique multi-styles, apportent une imagination illimitée à la création musicale future. Nous attendons avec impatience que MusiConGen apporte d'autres œuvres musicales étonnantes à l'avenir !