Fantastische Musikgenerierung mit KI
Willkommen auf der Liste „Awesome Music Generation with AI“, einer kuratierten Sammlung von Ressourcen, Projekten und Frameworks an der Schnittstelle von künstlicher Intelligenz und Musikkreation. Im Laufe der Jahre hat der Bereich der generativen Musik eine bedeutende Entwicklung erlebt, die durch Fortschritte beim maschinellen Lernen und den Deep-Learning-Technologien vorangetrieben wurde. Von der algorithmischen Komposition bis zur Musikgenerierung in Echtzeit hat KI neue Horizonte eröffnet und eine Mischung aus Kreativität und Automatisierung ermöglicht, die einst unvorstellbar war.
Diese Liste soll eine umfassende Anlaufstelle für Enthusiasten, Forscher und Fachleute sein und die bahnbrechenden Projekte, einflussreichen Forschungsarbeiten und hochmodernen Frameworks zusammenführen, die die Zukunft der Musikgenerierung durch KI gestalten. Egal, ob Sie ein Musiker sind, der die digitalen Grenzen erkundet, ein Forscher, der die Grenzen des Möglichen verschiebt, oder ein Entwickler, der KI-gesteuerte Musikfunktionen in Anwendungen integrieren möchte, diese Sammlung bietet eine reichhaltige Quelle der Inspiration und des Wissens.
Inhaltsverzeichnis
- GitHub-Projekte
- Artikel und Blogs
- Online-Kurse
- Bücher
- Forschungsarbeiten
- Videos
- Tools und Software
- Konferenzen und Veranstaltungen
- Folien und Präsentationen
GitHub-Projekte
- Magenta: Musik- und Kunstgenerierung mit maschineller Intelligenz ??? (18712 Sterne)
- Audiocraft: Eine Bibliothek für die Audioverarbeitung und -generierung mit Deep Learning, einschließlich MusicGen, einem steuerbaren Musikgenerierungs-LM mit textueller und melodischer Konditionierung (17044 Sterne)
- Muzic: Musikverständnis und -generierung mit künstlicher Intelligenz? (3765 Sterne)
- musiclm-pytorch: PyTorch-Implementierung von MusicLM, Googles hochmodernem Modell zur Musikgenerierung mithilfe von Aufmerksamkeitsnetzwerken? (2763 Sterne)
- Riffusion: Stabile Diffusion für Echtzeit-Musikgenerierung? (2727 Sterne)
- Mubert-Text-to-Music: Ein Notebook, das die aufforderungsbasierte Musikgenerierung mithilfe der Mubert-API demonstriert? (2674 Sterne)
- riffusion-app: Stabile Verbreitung für Echtzeit-Musikgenerierung in einer Web-App? (2474 Sterne)
- Magenta.js: Musik- und Kunstgenerierung mit maschinellem Lernen im Browser ??? (1899 Sterne)
- AudioLDM2: Text-to-Audio/Musik-Generierung? (1733 Sterne)
- musegan: Eine KI für die Musikgenerierung? (1602 Sterne)
- Radium : Ein grafischer Musikeditor und Tracker der nächsten Generation. ?⚡️ (805 Sterne)
- GRUV : Ein Python-Projekt zur algorithmischen Musikgenerierung. ?? (798 Sterne)
- DeepJ : Ein Deep-Learning-Modell für die stilspezifische Musikgenerierung. ? (717 Sterne)
- Musikgenerierung mit Deep Learning : Ressourcen zur Musikgenerierung mit Deep Learning. ? (700 Sterne)
- Musika : Schnelle Musikgenerierung mit unendlicher Wellenform. ?? (646 Sterne)
- Musikgenerationsforschung : Eine Sammlung von Forschungsressourcen zur Musikgeneration. ?? (516 Sterne)
- MusPy : Ein Toolkit für die Erzeugung symbolischer Musik. ?? (387 Sterne)
- MusicGenerator : Experimentieren Sie mit verschiedenen Deep-Learning-Modellen zur Musikgenerierung mit TensorFlow. ?? (309 Sterne)
- MuseTree : KI-Musikgenerierung für die reale Welt. ?? (215 Sterne)
- VampNET : Musikgenerierung mit maskierten Transformatoren! ?? (204 Sterne)
Artikel und Blogs
- Einfache und kontrollierbare Musikgenerierung: Ein einzelnes Sprachmodell (LM) namens MusicGen, das mit einer komprimierten diskreten Musikdarstellung arbeitet und eine bessere Kontrolle über die generierte Ausgabe ermöglicht. Musikbeispiele, Code und Modelle sind unter dem bereitgestellten Link verfügbar.
- KI-basierte Systeme zur Erzeugung affektiver Musik: Ein Methodenüberblick: Ein umfassender Überblick über KI-AMG-Systeme, Diskussion ihrer Bausteine, Kategorisierung vorhandener Systeme basierend auf Kernalgorithmen und Untersuchung KI-basierter Ansätze zum Komponieren affektiver Musik.
- Music FaderNets: Kontrollierbare Musikerzeugung basierend auf High: Ein Framework (Music FaderNets) zum Erlernen von Feature-Darstellungen auf hoher Ebene durch Manipulation von Attributen auf niedriger Ebene durch Feature-Entflechtung und latente Regularisierungstechniken.
- Musikgenerierung durch Deep Learning – Herausforderungen und Richtungen: Ein Überblick über Deep-Learning-Ansätze für die Musikgenerierung mit Erörterung ihrer Grenzen in Bezug auf Kreativität und Kontrolle.
- MusPy: Ein Toolkit für die Erzeugung symbolischer Musik: Einführung von MusPy, einer Open-Source-Python-Bibliothek für die Erzeugung symbolischer Musik, die Tools für die Datensatzverwaltung, Datenvorverarbeitung und Modellbewertung bereitstellt. Eine statistische Analyse der unterstützten Datensätze ist ebenfalls enthalten.
- Musikgenerierung mit Variational-Recurrent-Autoencoder unterstützt: Einführung einer neuen Netzwerkarchitektur, Variational-Autoencoder unterstützt durch die Geschichte, zur Erzeugung längerer Melodiemuster. Filterheuristiken werden verwendet, um die generierte Musik zu verbessern.
- Erzeugung symbolischer Musik mit Diffusionsmodellen: Anwendung von Diffusionsmodellen zur Modellierung symbolischer Musik, wobei starke Ergebnisse bei der Generierung und bedingten Füllung demonstriert werden.
- Magenta: Ein Forschungsprojekt, das die Rolle des maschinellen Lernens bei der Schaffung von Kunst und Musik untersucht.
- So generieren Sie Musik mit Python: Die Grundlagen: Ein Artikel, der die Grundlagen der Musikgenerierung mit Python bespricht und deren Verwendung bei der prozeduralen MIDI-Generierung hervorhebt.
- MidiNet: Ein Convolutional Generative Adversarial Network für: Untersuchung der Verwendung von Convolutional Neural Networks (CNNs) zur Melodieerzeugung im symbolischen Bereich, Einführung bedingter Mechanismen und Erweiterung auf mehrere MIDI-Kanäle.
- Eine Umfrage zu künstlicher Intelligenz für die Musikerzeugung: Agenten ...
- Dieses Umfragepapier untersucht den Bereich der Musikgenerierung mit künstlicher Intelligenz (KI) und diskutiert die Kompositionstechniken und Fortschritte bei KI-Systemen, die den Prozess der Musikgenerierung nachahmen. Es beleuchtet auch die Rolle von Datensätzen, Modellen, Schnittstellen und Benutzern im Musikgenerierungsprozess sowie potenzielle Anwendungen und zukünftige Forschungsrichtungen.
- Musik mit künstlicher Intelligenz generieren?
- Dieser Artikel bietet Einblicke, wie rekurrente neuronale Netze (RNNs) für die Musikgenerierung mit maschinellem Lernen genutzt werden können. Es dient als Auffrischung für RNN-basierte Textgenerierungstechniken.
- Von künstlichen neuronalen Netzen bis hin zu Deep Learning für Musik ...
- In diesem Artikel wird die Anwendung von Deep-Learning-Techniken bei der Musikgenerierung untersucht. Es bietet ein Tutorial dazu, wie Deep Learning zum automatischen Erlernen von Musikstilen und zum Generieren von Musikbeispielen genutzt werden kann.
- Noise2Music: Textkonditionierte Musikerzeugung mit Diffusion ...
- Diese Forschung stellt Noise2Music vor, ein System, das Diffusionsmodelle nutzt, um hochwertige Musikclips aus Textaufforderungen zu generieren. Es zeigt, wie das generierte Audio das im Text angegebene Genre, Tempo, Instrumente, Stimmung und Epoche einfangen kann.
- Ein klassifizierender Variations-Autoencoder mit Anwendung auf ... ?
- In diesem Artikel wird ein Modell vorgestellt, das auf dem Variational Autoencoder (VAE)-Framework für die algorithmische Musikgenerierung basiert. Das Modell enthält einen Klassifikator, um die diskrete Klasse der modellierten Daten abzuleiten und so die Generierung von Musiksequenzen in verschiedenen Tonarten zu ermöglichen.
- Generieren von Ambient-Musik aus WaveNet
- In diesem Beitrag werden die Motivation und der Ansatz zur Generierung von Ambient-Musik mithilfe von WaveNet von Google DeepMind, einem audiogenerativen Modell, erläutert.
- Generieren von Musik mithilfe eines neuronalen LSTM-Netzwerks
- In diesem Blogbeitrag wird die Verwendung eines neuronalen Netzwerks mit langem Kurzzeitgedächtnis (LSTM) für die Musikerzeugung vorgestellt. Es deckt Verbesserungen ab, die an einem vorhandenen LSTM-Modell vorgenommen wurden.
- Diskrete Diffusions-Wahrscheinlichkeitsmodelle für die Erzeugung symbolischer Musik?
- Diese Arbeit stellt die Erzeugung polyphoner symbolischer Musik mithilfe von Discrete Diffusion Probabilistic Models (DDPMs) vor. Die Modelle zeichnen sich durch eine hochwertige Sample-Generierung aus und ermöglichen eine flexible Ergänzung auf Notenebene. Der Artikel diskutiert auch die Bewertung der Qualität von Musikbeispielen und die möglichen Anwendungen dieser Modelle.
Online-Kurse
- Kurse und Zertifizierungen für generative KI: Machen Sie den nächsten Schritt auf Ihrer beruflichen Reise und melden Sie sich noch heute für einen Kurs für generative KI an! Durchsuchen Sie Kurse zu generativer KI, die von Top-Universitäten und Branchenführern angeboten werden. ?
- Kompletter KI-Kunstgenerierungskurs – Anfänger 2 MASTER: Erfahren Sie, wie Sie mithilfe modernster KI-Algorithmen alles aus Sprache, Kunst, Musik und vielem mehr generieren. ??
- Andrew Ng: Ankündigung meiner neuen Spezialisierung auf Deep Learning: Tauchen Sie mit Andrew Ng, einem renommierten KI-Experten, in Deep Learning ein und lernen Sie die Grundlagen dieses spannenden Bereichs kennen. ?
- Beste Deep-Learning-Kurse und -Zertifizierungen (Coursera): Erweitern Sie Ihre Deep-Learning-Fähigkeiten und Ihr Wissen, indem Sie sich für eine breite Palette von Kursen anmelden, die von Top-Universitäten und Branchenführern angeboten werden.
Bücher
- Deep-Learning-Techniken für die Musikgenerierung: Dieses Buch bietet einen Überblick und eine Analyse darüber, wie Deep Learning zur Generierung musikalischer Inhalte genutzt werden kann, und bietet Einblicke für Studenten, Praktiker und Forscher.
- Algorithmische Komposition: Paradigmen der automatisierten Musikerzeugung: Dieses Buch bietet einen detaillierten Überblick über die algorithmische Komposition und konzentriert sich auf praktische Weise auf wichtige Verfahren und Prinzipien.
- Praktische Musikgenerierung mit Magenta: Entdecken Sie die Rolle von Deep Learning bei der Musikgenerierung und unterstützten Komposition mit Magenta. Dieser praktische Leitfaden integriert ML-Modelle in bestehende Musikproduktionstools.
- Maschinelles Lernen und Musikgenerierung: Tauchen Sie mit diesem umfassenden Buch in die Schnittstelle zwischen maschinellem Lernen und Musikgenerierung ein und behandeln Sie den Einsatz von ML-Techniken beim Erstellen von Musik.
Forschungsarbeiten
- Einfache und kontrollierbare Musikgenerierung: In diesem Artikel wird MusicGen vorgestellt, ein einzelnes Sprachmodell (LM), das hochwertige Musikbeispiele generiert, die auf Textbeschreibungen oder melodischen Merkmalen basieren und eine bessere Kontrolle über die generierte Ausgabe ermöglichen. Es zeigt eine überlegene Leistung im Vergleich zu den Basiswerten eines Standard-Text-zu-Musik-Benchmarks.
- Effiziente Erzeugung neuronaler Musik: MeLoDy (M für Musik; L für LM; D für Diffusion) wird als LM-gesteuertes Diffusionsmodell vorgeschlagen, das Musikaudios von modernster Qualität erzeugt und gleichzeitig Vorwärtspässe im Sampling-Prozess reduziert. was es recheneffizient macht.
- Noise2Music: Textbedingte Musikerzeugung mit Diffusion: In diesem Artikel wird Noise2Music vorgestellt, eine Reihe von Diffusionsmodellen, die darauf trainiert sind, hochwertige 30-Sekunden-Musikclips aus Textaufforderungen zu generieren. Es untersucht verschiedene Optionen für Zwischendarstellungen und demonstriert die Fähigkeit, Schlüsselelemente der Textaufforderung getreu wiederzugeben.
- VampNet: Musikgenerierung über maskierte akustische Token-Modellierung: VampNet nutzt eine bidirektionale Transformatorarchitektur und einen variablen Maskierungsplan während des Trainings, um kohärente High-Fidelity-Musikwellenformen zu erzeugen. Es zeigt Fähigkeiten in der Musiksynthese, Komprimierung, Inpainting und Variation.
- MuseGAN: Mehrspurige sequentielle generative gegnerische Netzwerke: In diesem Artikel werden drei Modelle für die symbolische mehrspurige Musikgenerierung mithilfe generativer gegnerischer Netzwerke (GANs) unter Berücksichtigung zeitlicher Dynamik und gegenseitiger Abhängigkeiten zwischen Titeln vorgeschlagen.
- JEN-1: Textgesteuerte universelle Musikgenerierung mit Diffusion: JEN-1 wird als universelles High-Fidelity-Modell für die Text-zu-Musik-Generierung eingeführt, das sowohl autoregressives als auch nicht-autoregressives Training umfasst. Es zeigt eine hervorragende Leistung bei der Ausrichtung von Text und Musik sowie bei der Musikqualität.
- Museformer: Transformer mit fein- und grobkörniger Aufmerksamkeit: Museformer ist ein Transformer-basierter Ansatz zur Musikgenerierung, der sich den Herausforderungen im Zusammenhang mit langen Musiksequenzen und musikalischen Wiederholungsstrukturen widmet. Es führt fein- und grobkörnige Aufmerksamkeitsmechanismen ein, um relevante Musikstrukturen effizient zu erfassen.
- Eine umfassende Umfrage zur Deep-Music-Generierung: Perspektiven auf mehreren Ebenen: Diese Umfrage bietet einen Überblick über Deep-Learning-Techniken bei der Musikgenerierung und deckt verschiedene Kompositionsaufgaben auf verschiedenen Ebenen der Musikgenerierung ab (Partiturgenerierung, Darbietungsgenerierung und Audiogenerierung).
- Quantisiertes GAN für die Erzeugung komplexer Musik aus Tanzvideos: Dance2Music-GAN (D2M-GAN) ist ein kontradiktorisches multimodales Framework, das komplexe Musiksamples generiert, die auf Tanzvideos konditioniert sind. Es nutzt die vektorquantisierte Audiodarstellung (VQ), um verschiedene Tanzmusikstile zu generieren.
- Musika! Schnelle Musikgenerierung mit unendlicher Wellenform: Schnelles und vom Benutzer steuerbares Musikgenerierungssystem, das eine viel schnellere Generierung von Musik beliebiger Länge auf einer Consumer-CPU als in Echtzeit ermöglicht.
- Eine systematische Überprüfung der auf künstlicher Intelligenz basierenden Musikgenerierung: Bietet eine breite Palette von Veröffentlichungen und untersucht das Interesse sowohl von Musikern als auch Informatikern an der auf KI basierenden automatischen Musikgenerierung.
- MidiNet: Ein Convolutional Generative Adversarial Network für die Musikgenerierung: Einführung in die Verwendung von Convolutional Neural Networks (CNNs) zur Generierung von Melodien im symbolischen Bereich.
- Musikgenerierung durch Deep Learning – Herausforderungen und Anweisungen: Erkundet die Grenzen von Deep Learning für die Musikgenerierung und den Bedarf an Kontrolle, Struktur, Kreativität und Interaktivität.
- Was fehlt der Deep-Music-Generation? Eine Studie über Wiederholung und Struktur: Untersucht das Verständnis von Musikstruktur und -wiederholung im Kontext der Musikgenerierung und schlägt neue formale Musikkriterien und Bewertungsmethoden vor.
- Symbolische Musikgenerierung mit Diffusionsmodellen: Stellt eine Technik zum Trainieren von Diffusionsmodellen auf sequentiellen Daten vor, um symbolische Musik mit starken bedingungslosen Generierungs- und post-hoc-bedingten Füllergebnissen zu erzeugen.
- Probabilistische Modelle mit diskreter Diffusion für die Erzeugung symbolischer Musik: Untersucht die Anwendung von probabilistischen Modellen mit diskreter Diffusion (D3PMs) zur Erzeugung polyphoner symbolischer Musik mit hoher Samplequalität und flexibler Füllung.
- MMM: Erkundung der bedingten Mehrspur-Musikgenerierung mit dem Transformer: Stellt ein generatives System vor, das auf der Transformer-Architektur basiert, um Mehrspur-Musik mit besserer Kontrolle und Handhabung langfristiger Abhängigkeiten zu erzeugen.
- Deep-Learning-Techniken für die Musikgenerierung – Eine Umfrage: Analysiert die verschiedenen Möglichkeiten des Einsatzes von Deep Learning zur Generierung von Musikinhalten und deckt dabei Ziele, Darstellungen, Architekturen, Herausforderungen und Bewertung ab.
- Mo^usai: Text-zu-Musik-Generierung mit latenter Langkontext-Diffusion: Überbrückt die Verbindung zwischen Text und Musik mit einem hocheffizienten Text-zu-Musik-Generierungsmodell, das aus Textbeschreibungen mehrere Minuten hochwertiger Stereomusik generieren kann.
Videos
- Musikgenerierung mit Magenta: Maschinelles Lernen in der Kunst nutzen – 7. November 2019. Musik zu komponieren ist schwierig und der Mangel an Inspiration kann entmutigend sein. In diesem Video wird untersucht, wie maschinelles Lernen bei der Musikgenerierung eingesetzt werden kann.
- Wie codiert man einen genetischen Algorithmus zur Musikgenerierung? – 3. April 2021. In diesem Video wird die Codierung eines genetischen Algorithmus zur Musikerzeugung besprochen, die auf den in einem früheren Video vorgestellten Konzepten aufbaut.
- Deep Learning für die Musikgenerierung – 8. Februar 2018. In dieser Folge der KI-Show erklärt Erika, wie man Deep-Learning-Modelle mithilfe von Musik als Eingabe erstellt und geht dabei auf die technischen Aspekte der Musikgenerierung mithilfe von Deep Learning ein.
- Komponieren von Heavy Metal mit GPT – HuggingFace für Musik – 26. Januar 2022. Dieses Video zeigt die Verwendung von HuggingFace für die Musikgenerierung, wobei der Schwerpunkt speziell auf dem Komponieren von Heavy-Metal-Musik liegt.
- MusicGen: Einfache und kontrollierbare Musikgenerierung erklärt – 25. Juni 2023. Dieses Video bietet eine Erklärung von MusicGen, einem Framework für die einfache und kontrollierbare Musikgenerierung.
- Jawlove – Everything Will Be Alright – YouTube – Ein Musikvideo mit dem Song „Everything Will Be Alright“ von Jawlove.
- Musikalische Anfänge mit Karen #7 Slippery Fish – YouTube – Ein Video aus dem Music Generation Waterford-Programm, das eine Musikpädagogikaufführung zeigt.
- Kybernetische Feier | EDM | Loudly AI Music Generator – YouTube – Ein Video, das die Verwendung des Loudly AI Music Generator zum Erstellen von EDM-Musik demonstriert.
- Music Generation Cork City – YouTube – Eine Playlist mit Videos, die Auftritte von Music Generation Cork City zeigen.
- Top-Tools zur KI-Musikgenerierung (öffentlich verfügbare Tools) – Video – Ein Video, in dem die besten verfügbaren Tools zur KI-Musikgenerierung vorgestellt werden, darunter Mubert AI, AIVA, Soundraw, Beatoven AI, Boomy und Amper Music.
Tools und Software
- Stability AI stellt „Stable Audio“ vor: Eine vielseitige Plattform für AI Music Generation. Stability AI hat mit Stable Audio eine neue KI-Plattform auf den Markt gebracht, die ein neuartiges latentes Diffusionsmodell zur Erzeugung von Audio basierend auf Metadaten und Timing bietet und so schnellere Inferenzzeiten und kreative Kontrolle ermöglicht.
- SuperCollider: Ein Audioserver, eine Programmiersprache und eine IDE für die Klangsynthese. SuperCollider ist eine Plattform für Audiosynthese und algorithmische Komposition.
- Beste Open-Source-KI-Musikgeneratoren: Implementierung von AudioLM, einem Sprachmodellierungsansatz zur Audiogenerierung mit Pytorch. Es enthält Konditionierungsmechanismen für mehr Kontrolle über die erzeugte Musik.
- Soundful: Ein KI-Musikgenerator, der es Erstellern ermöglicht, sofort lizenzfreie Titel zu generieren. Soundful generiert mithilfe von KI-Technologie hochwertige Musik, sodass jeder problemlos professionell klingende Musik erstellen kann.
- Strasheela: Ein auf Einschränkungen basierendes Musikkompositionssystem. Benutzer definieren Musiktheorien anhand von Kompositionsregeln, und das System generiert Musik, die diesen Theorien entspricht.
- Beste KI-Musikgeneratoren – Rezensionen und Vergleich 2023: Ein Online-Tool mit mehreren Möglichkeiten zum Erstellen von Songcovern, einschließlich der Suche nach Songs, dem Hochladen von Audiodateien und der direkten Aufnahme.
- Was ist KI-generierte Musik? Beste Musiktools für 2023: Eine Software, die es Unternehmen ermöglicht, KI-generierte Musik als günstigere Alternative zu erkunden und eine kostenlose Testversion mit unbegrenzten Musikprojekten und monatlichen Song-Downloads anzubieten.
- Beste Audiobearbeitungssoftware im Jahr 2023: Vergleichen Sie Bewertungen zu über 100 | G2: Eine umfassende Liste von Audiobearbeitungssoftware, die häufig von Toningenieuren und Musikproduzenten verwendet wird, mit Echtzeit-Produktbewertungen von verifizierten Benutzern.
- Rezensionen zu Psycle Modular Music Creation Studio – 2023: Nutzerrezensionen und Bewertungen des kostenlosen Open-Source-Softwareprojekts Psycle Modular Music Creation Studio.
Konferenzen und Veranstaltungen
- Neuton.AI-Veranstaltungen – Neuton.AI veranstaltet verschiedene Veranstaltungen, darunter einen ARM Tech Talk über die intelligente Zahnbürste der nächsten Generation und stellt ihr einzigartiges neuronales Netzwerk-Framework für die Erstellung kompakter Modelle mit optimaler Größe und Genauigkeit vor.
- FUTURE DEAD ARTISTS-Veranstaltungen – Bleiben Sie über bevorstehende Veranstaltungen von FUTURE DEAD ARTISTS auf dem Laufenden, einschließlich der FDA 2023 Freshman Class: FUTURE GENERATION Artists Talk.
- Generative KI, Apps und DevOps | AI/ML Talks – Pulumi hält am 19. Oktober 2023 in Seattle, WA, einen Vortrag über generative KI, Apps und DevOps im Bereich AI/ML Talks.
- Women in Tech & Entrepreneurship – Fort Lauderdale Chapter Happy Hour – Fort Lauderdale Chapter Happy Hour-Veranstaltung für Frauen in Tech & Entrepreneurship.
Folien und Präsentationen
- Algorithmische Musikgenerierung | PPT: Folien zur algorithmischen Musikgenerierung, kostenlos verfügbar als PDF oder Online-Ansicht.
- Musikgenerierung mit Deep Learning | PPT: Präsentation zur Musikgenerierung mithilfe von Deep Learning, herunterladbar als PDF oder zur Online-Ansicht.
- Erzeugung von Video-Hintergrundmusik mit steuerbarem Musiktransformator: Folien zur Erzeugung von Video-Hintergrundmusik mit einem steuerbaren Musiktransformator, verfügbar als PDF oder zur Online-Ansicht.
- Automatische Musikgenerierung mit Deep Learning | PDF: Folien, die den Prozess der automatischen Musikgenerierung mithilfe von Deep Learning erläutern, als PDF herunterladbar oder zur Online-Ansicht.
- MuseGAN: Multi-track Sequential Generative Adversarial Networks for Symbolic Music Generation and Accompaniment (AAAI 2018): Folien, die MuseGAN vorstellen, ein Framework für mehrspurige sequentielle generative Adversarial Networks zur symbolischen Musikgenerierung und -begleitung, verfügbar als PDF oder zur Online-Anzeige.
- Automatische Musikkomposition mit Transformers, Januar 2021 | PPT: Präsentation zur Vorstellung laufender Projekte zur automatischen Musikkomposition mit Transformers, herunterladbar als PDF oder zur Online-Ansicht.
- ISMIR 2019-Tutorial: Generieren von Musik mit generativen Adversarial Networks (GANs): Folien aus dem ISMIR 2019-Tutorial zum Generieren von Musik mit generativen Adversarial Networks (GANs), verfügbar als PDF oder zur Online-Ansicht.
- PopMAG: Popmusik-Begleitungsgeneration | PPT: Folien über PopMAG, ein Framework für die Generierung von Popmusik-Begleitung, verfügbar als PDF oder zur Online-Ansicht.
- Künstliche Intelligenz und Musik | PPT: Folien, die die Anwendung rekurrenter neuronaler Netze gepaart mit LSTM für die Musikgenerierung untersuchen, als PDF herunterladbar oder zur Online-Anzeige.
- Maschinelles Lernen für kreative KI-Anwendungen in der Musik (November 2018) | PPT: Präsentation zum Thema maschinelles Lernen für kreative KI-Anwendungen in der Musik, verfügbar als PDF oder zur Online-Ansicht.
Diese erste Version der Awesome List wurde mit Hilfe des Awesome List Generators generiert. Es handelt sich um ein Open-Source-Python-Paket, das die Leistungsfähigkeit von GPT-Modellen nutzt, um automatisch Startpunkte für Ressourcenlisten zu einem bestimmten Thema zu kuratieren und zu generieren.