Dieses Buch soll zeigen, wie ML auf praktische und dennoch umfassende Weise einen Mehrwert für algorithmische Handelsstrategien bieten kann. Es deckt ein breites Spektrum an ML-Techniken ab, von linearer Regression bis hin zu Deep Reinforcement Learning, und zeigt, wie man eine Handelsstrategie basierend auf Modellvorhersagen erstellt, backtestet und bewertet.
In vier Teilen mit 23 Kapiteln plus Anhang behandelt es auf über 800 Seiten :
Dieses Repo enthält über 150 Notizbücher, die die im Buch besprochenen Konzepte, Algorithmen und Anwendungsfälle in die Tat umsetzen. Sie liefern zahlreiche Beispiele, die zeigen:
Wir empfehlen dringend, beim Lesen des Buches die Notizbücher durchzulesen; Sie befinden sich normalerweise in einem ausgeführten Zustand und enthalten häufig zusätzliche Informationen, die aus Platzgründen nicht enthalten sind.
Zusätzlich zu den Informationen in diesem Repo enthält die Website des Buchs Kapitelzusammenfassungen und zusätzliche Informationen.
Um es den Lesern zu erleichtern, Fragen zum Inhalt des Buches und zu Codebeispielen sowie zur Entwicklung und Umsetzung eigener Strategien und Branchenentwicklungen zu stellen, hosten wir eine Online-Plattform.
Bitte treten Sie unserer Community bei und vernetzen Sie sich mit anderen Händlern, die daran interessiert sind, ML für Handelsstrategien zu nutzen, teilen Sie Ihre Erfahrungen und lernen Sie voneinander!
In erster Linie zeigt dieses Buch, wie Sie Signale aus einer Vielzahl von Datenquellen extrahieren und Handelsstrategien für verschiedene Anlageklassen entwerfen können, indem Sie eine breite Palette überwachter, unüberwachter und verstärkender Lernalgorithmen verwenden. Darüber hinaus werden relevante mathematische und statistische Kenntnisse bereitgestellt, um die Optimierung eines Algorithmus oder die Interpretation der Ergebnisse zu erleichtern. Darüber hinaus wird der finanzielle Hintergrund behandelt, der Ihnen bei der Arbeit mit Markt- und Fundamentaldaten, der Extraktion informativer Funktionen und der Verwaltung der Leistung einer Handelsstrategie hilft.
Aus praktischer Sicht zielt die 2. Auflage darauf ab, Sie mit dem konzeptionellen Verständnis und den Werkzeugen auszustatten, um Ihre eigenen ML-basierten Handelsstrategien zu entwickeln. Zu diesem Zweck wird ML als kritisches Element in einem Prozess und nicht als eigenständige Übung betrachtet und der End-to-End-ML für den Handelsworkflow von der Datenbeschaffung, Feature-Engineering und Modelloptimierung bis hin zum Strategiedesign und Backtesting eingeführt.
Genauer gesagt beginnt der ML4T-Workflow mit der Generierung von Ideen für ein klar definiertes Anlageuniversum, dem Sammeln relevanter Daten und dem Extrahieren informativer Merkmale. Dazu gehört auch das Entwerfen, Optimieren und Bewerten von ML-Modellen, die für die Vorhersageaufgabe geeignet sind. Schließlich müssen Handelsstrategien entwickelt werden, um auf die Vorhersagesignale der Modelle zu reagieren, und ihre Leistung anhand historischer Daten mithilfe einer Backtesting-Engine simuliert und bewertet werden. Sobald Sie sich dazu entschließen, eine algorithmische Strategie in einem realen Markt umzusetzen, werden Sie feststellen, dass Sie diesen Arbeitsablauf wiederholt durchlaufen müssen, um neue Informationen und eine sich verändernde Umgebung einzubeziehen.
Der Schwerpunkt der zweiten Ausgabe auf dem ML4t-Workflow führt zu einem neuen Kapitel zum Strategie-Backtesting, einem neuen Anhang, der über 100 verschiedene Alpha-Faktoren beschreibt, und vielen neuen praktischen Anwendungen. Aus Gründen der Klarheit und Lesbarkeit haben wir außerdem die meisten vorhandenen Inhalte neu geschrieben.
Die Handelsanwendungen nutzen nun ein breiteres Spektrum an Datenquellen über die täglichen US-Aktienkurse hinaus, einschließlich internationaler Aktien und ETFs. Außerdem wird gezeigt, wie ML für eine Intraday-Strategie mit minutengenauen Aktiendaten verwendet werden kann. Darüber hinaus erweitert es die Abdeckung alternativer Datenquellen um SEC-Einreichungen für Stimmungsanalysen und Ertragsprognosen sowie Satellitenbilder zur Klassifizierung der Landnutzung.
Eine weitere Neuerung der zweiten Auflage besteht darin, mehrere kürzlich in Top-Fachzeitschriften veröffentlichte Handelsanwendungen nachzubilden:
Alle Anwendungen verwenden jetzt die neuesten (zum Zeitpunkt des Schreibens) verfügbaren Softwareversionen wie Pandas 1.0 und TensorFlow 2.2. Es gibt auch eine angepasste Version von Zipline, die es einfach macht, Vorhersagen von maschinellen Lernmodellen in die Entwicklung einer Handelsstrategie einzubeziehen.
Die Codebeispiele basieren auf einer breiten Palette von Python-Bibliotheken aus den Bereichen Datenwissenschaft und Finanzen.
Es ist nicht notwendig, alle Bibliotheken auf einmal zu installieren, da dies die Wahrscheinlichkeit von Versionskonflikten erhöht. Stattdessen empfehlen wir Ihnen, die für ein bestimmtes Kapitel erforderlichen Bibliotheken im Laufe der Zeit zu installieren.
Update März 2022:
zipline-reloaded
,pyfolio-reloaded
,alphalens-reloaded
undempyrical-reloaded
sind jetzt auf demconda-forge
-Kanal verfügbar. Der Kanalml4t
enthält nur veraltete Versionen und wird demnächst entfernt.
Update April 2021: Mit dem Update von Zipline ist die Verwendung von Docker nicht mehr notwendig. Die Installationsanweisungen beziehen sich nun auf betriebssystemspezifische Umgebungsdateien, die Ihnen den Betrieb der Notebooks erleichtern sollen.
Update Februar 2021: Codebeispiel-Release 2.0 aktualisiert die vom Docker-Image bereitgestellten Conda-Umgebungen unter anderem auf Python 3.8, Pandas 1.2 und TensorFlow 1.2; Die Zipline-Backtesting-Umgebung verwendet jetzt Python 3.6.
conda
-Umgebungen und zum Installieren der in den Notebooks verwendeten Pakete direkt auf Ihrem Computer, wenn Sie dies bevorzugen (und je nach System bereit sind, die Extrameile zu gehen).Wenn Sie Schwierigkeiten haben, die Umgebungen zu installieren, die Daten herunterzuladen oder den Code auszuführen, melden Sie bitte ein GitHub-Problem im Repo (hier). Die Arbeit mit GitHub-Problemen wurde hier beschrieben.
Update : Sie können die im Buch verwendeten Algoseek- Daten hier herunterladen. Anweisungen zur Vorverarbeitung finden Sie in Kapitel 2 und ein Intraday-Beispiel mit einem Gradient-Boosting-Modell in Kapitel 12.
Update : Das Abbildungsverzeichnis enthält Farbversionen der im Buch verwendeten Diagramme.
Das Buch besteht aus vier Teilen, die sich mit unterschiedlichen Herausforderungen befassen, die bei der Beschaffung und Arbeit mit Markt-, Fundamental- und Alternativdatenbeschaffung, der Entwicklung von ML-Lösungen für verschiedene Vorhersageaufgaben im Handelskontext und dem Entwurf und der Bewertung einer Handelsstrategie, die auf von generierten Vorhersagesignalen basiert, auftreten ein ML-Modell.
Das Verzeichnis für jedes Kapitel enthält eine README-Datei mit zusätzlichen Informationen zum Inhalt, Codebeispielen und zusätzlichen Ressourcen.
Teil 1: Von Daten zur Strategieentwicklung
Teil 2: Maschinelles Lernen für den Handel: Grundlagen
Teil 3: Verarbeitung natürlicher Sprache für den Handel
Teil 4: Deep & Reinforcement Learning
Der erste Teil bietet einen Rahmen für die Entwicklung von Handelsstrategien, die auf maschinellem Lernen (ML) basieren. Es konzentriert sich auf die Daten, die den in diesem Buch besprochenen ML-Algorithmen und -Strategien zugrunde liegen, beschreibt, wie für ML-Modelle geeignete Funktionen entwickelt und bewertet werden und wie die Leistung eines Portfolios verwaltet und gemessen wird, während eine Handelsstrategie ausgeführt wird.
In diesem Kapitel werden Branchentrends untersucht, die zur Entstehung von ML als Quelle von Wettbewerbsvorteilen in der Investmentbranche geführt haben. Wir werden auch untersuchen, wo ML in den Anlageprozess passt, um algorithmische Handelsstrategien zu ermöglichen.
Im Einzelnen werden folgende Themen behandelt:
Dieses Kapitel zeigt, wie mit Markt- und Fundamentaldaten gearbeitet wird, und beschreibt kritische Aspekte des Umfelds, die sie widerspiegeln. Beispielsweise ist die Kenntnis verschiedener Auftragsarten und der Handelsinfrastruktur nicht nur für die Interpretation der Daten wichtig, sondern auch für die korrekte Gestaltung von Backtest-Simulationen. Wir veranschaulichen auch, wie Sie mit Python auf Handels- und Finanzberichtsdaten zugreifen und diese bearbeiten können.
Praktische Beispiele zeigen, wie man mit Handelsdaten aus NASDAQ-Tick-Daten und Algoseek-Minutenbalkendaten mit einem umfangreichen Satz von Attributen arbeitet, die die Nachfrage-Angebots-Dynamik erfassen, die wir später für eine ML-basierte Intraday-Strategie verwenden werden. Wir befassen uns auch mit verschiedenen Datenanbieter-APIs und der Beschaffung von Finanzberichtsinformationen von der SEC.
In diesem Kapitel geht es insbesondere um Folgendes:In diesem Kapitel werden Kategorien und Anwendungsfälle alternativer Daten beschrieben, Kriterien zur Bewertung der explodierenden Zahl von Quellen und Anbietern beschrieben und die aktuelle Marktlandschaft zusammengefasst.
Im dritten Teil des Buchs wird außerdem gezeigt, wie durch Scraping von Websites alternative Datensätze erstellt werden können, beispielsweise durch das Sammeln von Telefonanruftranskripten zur Verwendung mit Natural Language Processing (NLP) und Stimmungsanalysealgorithmen.
Im Einzelnen behandelt dieses Kapitel Folgendes:
Wenn Sie bereits mit ML vertraut sind, wissen Sie, dass Feature Engineering eine entscheidende Zutat für erfolgreiche Vorhersagen ist. Mindestens genauso wichtig ist dies im Handelsbereich, wo Forscher aus Wissenschaft und Industrie seit Jahrzehnten untersuchen, was Vermögensmärkte und Preise antreibt und welche Merkmale dabei helfen, Preisbewegungen zu erklären oder vorherzusagen.
In diesem Kapitel werden die wichtigsten Erkenntnisse dieser Forschung als Ausgangspunkt für Ihre eigene Suche nach Alpha-Faktoren dargelegt. Außerdem werden wichtige Werkzeuge zum Berechnen und Testen von Alpha-Faktoren vorgestellt. Dabei wird hervorgehoben, wie die Bibliotheken NumPy, Pandas und TA-Lib die Manipulation von Daten erleichtern, und es werden beliebte Glättungstechniken wie die Wavelets und der Kalman-Filter vorgestellt, die dabei helfen, das Rauschen in Daten zu reduzieren. Nachdem Sie es gelesen haben, wissen Sie Folgendes:
Alpha-Faktoren erzeugen Signale, die eine algorithmische Strategie in Trades umsetzt, die wiederum Long- und Short-Positionen erzeugen. Die Rendite und das Risiko des resultierenden Portfolios bestimmen, ob die Strategie den Anlagezielen entspricht.
Es gibt verschiedene Ansätze zur Portfoliooptimierung. Dazu gehört die Anwendung von maschinellem Lernen (ML), um hierarchische Beziehungen zwischen Vermögenswerten zu lernen und sie bei der Gestaltung des Risikoprofils des Portfolios als Ergänzung oder Ersatz zu behandeln. Dieses Kapitel behandelt:
Der zweite Teil behandelt die grundlegenden überwachten und unüberwachten Lernalgorithmen und veranschaulicht ihre Anwendung auf Handelsstrategien. Außerdem wird die Quantopian-Plattform vorgestellt, die es Ihnen ermöglicht, die in diesem Buch entwickelten Daten und ML-Techniken zu nutzen und zu kombinieren, um algorithmische Strategien zu implementieren, die Trades in Live-Märkten ausführen.
Dieses Kapitel bildet den Auftakt zu Teil 2, der zeigt, wie Sie eine Reihe überwachter und unüberwachter ML-Modelle für den Handel verwenden können. Wir erläutern die Annahmen und Anwendungsfälle jedes Modells, bevor wir relevante Anwendungen mithilfe verschiedener Python-Bibliotheken demonstrieren.
Es gibt mehrere Aspekte, die viele dieser Modelle und ihre Anwendungen gemeinsam haben. In diesem Kapitel werden diese allgemeinen Aspekte behandelt, sodass wir uns in den folgenden Kapiteln auf die modellspezifische Verwendung konzentrieren können. Es bereitet die Bühne, indem es darlegt, wie die Vorhersageleistung von ML-Modellen als systematischer Arbeitsablauf formuliert, trainiert, abgestimmt und bewertet werden kann. Der Inhalt umfasst:
Lineare Modelle sind Standardwerkzeuge für Inferenz und Vorhersage in Regressions- und Klassifizierungskontexten. Zahlreiche weit verbreitete Vermögenspreismodelle basieren auf der linearen Regression. Regularisierte Modelle wie die Ridge- und Lasso-Regression liefern oft bessere Vorhersagen, indem sie das Risiko einer Überanpassung begrenzen. Typische Regressionsanwendungen identifizieren Risikofaktoren, die die Vermögensrenditen beeinflussen, um Risiken zu verwalten oder Renditen vorherzusagen. Zu den Klassifizierungsproblemen gehören hingegen gerichtete Preisprognosen.
Kapitel 07 behandelt die folgenden Themen:
Dieses Kapitel präsentiert eine End-to-End-Perspektive zum Entwerfen, Simulieren und Bewerten einer Handelsstrategie, die von einem ML-Algorithmus gesteuert wird. Wir werden im Detail demonstrieren, wie man eine ML-gesteuerte Strategie in einem historischen Marktkontext mit den Python-Bibliotheken Backtrader und Zipline backtestet. Der ML4T-Workflow zielt letztendlich darauf ab, Beweise aus historischen Daten zu sammeln, die bei der Entscheidung helfen, ob eine Kandidatenstrategie in einem Live-Markt eingesetzt werden soll und finanzielle Ressourcen gefährdet werden. Eine realistische Simulation Ihrer Strategie muss die Funktionsweise der Wertpapiermärkte und die Ausführung von Geschäften getreu wiedergeben. Darüber hinaus müssen mehrere methodische Aspekte beachtet werden, um verzerrte Ergebnisse und falsche Entdeckungen zu vermeiden, die zu schlechten Investitionsentscheidungen führen.
Genauer gesagt werden Sie nach der Durcharbeitung dieses Kapitels in der Lage sein:
Dieses Kapitel konzentriert sich auf Modelle, die Signale aus dem Verlauf einer Zeitreihe extrahieren, um zukünftige Werte für dieselbe Zeitreihe vorherzusagen. Zeitreihenmodelle sind aufgrund der dem Handel innewohnenden Zeitdimension weit verbreitet. Es stellt Werkzeuge zur Diagnose von Zeitreihenmerkmalen wie Stationarität und zum Extrahieren von Merkmalen vor, die potenziell nützliche Muster erfassen. Außerdem werden univariate und multivariate Zeitreihenmodelle zur Vorhersage von Makrodaten und Volatilitätsmustern eingeführt. Abschließend wird erklärt, wie die Kointegration gemeinsame Trends über Zeitreihen hinweg identifiziert und wie man auf der Grundlage dieses entscheidenden Konzepts eine Paarhandelsstrategie entwickelt.
Es umfasst insbesondere:
Die Bayes'sche Statistik ermöglicht es uns, die Unsicherheit über zukünftige Ereignisse zu quantifizieren und Schätzungen auf prinzipielle Weise zu verfeinern, sobald neue Informationen eintreffen. Dieser dynamische Ansatz passt sich gut an die sich entwickelnde Natur der Finanzmärkte an. Bayesianische ML-Ansätze ermöglichen neue Einblicke in die Unsicherheit im Zusammenhang mit statistischen Metriken, Parameterschätzungen und Vorhersagen. Die Anwendungen reichen von einem detaillierteren Risikomanagement bis hin zu dynamischen Aktualisierungen von Vorhersagemodellen, die Änderungen im Marktumfeld berücksichtigen.
Im Einzelnen behandelt dieses Kapitel Folgendes:
In diesem Kapitel werden Entscheidungsbäume und Zufallswälder auf den Handel angewendet. Entscheidungsbäume lernen Regeln aus Daten, die nichtlineare Eingabe-Ausgabe-Beziehungen kodieren. Wir zeigen, wie man einen Entscheidungsbaum trainiert, um Vorhersagen für Regressions- und Klassifizierungsprobleme zu treffen, die vom Modell erlernten Regeln zu visualisieren und zu interpretieren und die Hyperparameter des Modells zu optimieren, um den Kompromiss zwischen Bias und Varianz zu optimieren und eine Überanpassung zu verhindern.
Im zweiten Teil des Kapitels werden Ensemblemodelle vorgestellt, die mehrere Entscheidungsbäume zufällig kombinieren, um eine einzelne Vorhersage mit einem geringeren Fehler zu erstellen. Den Abschluss bildet eine Long-Short-Strategie für japanische Aktien, die auf Handelssignalen basiert, die von einem Random-Forest-Modell generiert werden.
Kurz gesagt, dieses Kapitel behandelt:
Gradient Boosting ist ein alternativer baumbasierter Ensemble-Algorithmus, der häufig bessere Ergebnisse liefert als zufällige Wälder. Der entscheidende Unterschied besteht darin, dass beim Boosten die Daten, die zum Trainieren jedes Baums verwendet werden, basierend auf den kumulativen Fehlern des Modells geändert werden. Während Random Forests viele Bäume unabhängig voneinander mithilfe zufälliger Teilmengen der Daten trainieren, erfolgt das Boosting sequentiell und gewichtet die Daten neu. In diesem Kapitel wird gezeigt, wie hochmoderne Bibliotheken eine beeindruckende Leistung erzielen und Boosting sowohl auf Tages- als auch auf Hochfrequenzdaten anwenden, um eine Intraday-Handelsstrategie zu testen.
Im Einzelnen werden wir die folgenden Themen behandeln:
Dimensionsreduktion und Clustering sind die Hauptaufgaben des unbeaufsichtigten Lernens:
Im Einzelnen behandelt dieses Kapitel Folgendes:
Textdaten sind inhaltsreich, aber unstrukturiert im Format und erfordern daher mehr Vorverarbeitung, damit ein Algorithmus für maschinelles Lernen das potenzielle Signal extrahieren kann. Die entscheidende Herausforderung besteht darin, Text in ein numerisches Format zur Verwendung durch einen Algorithmus umzuwandeln und gleichzeitig die Semantik oder Bedeutung des Inhalts auszudrücken.
In den nächsten drei Kapiteln werden mehrere Techniken behandelt, die für Menschen leicht verständliche Sprachnuancen erfassen, sodass maschinelle Lernalgorithmen sie auch interpretieren können.
Textdaten sind sehr inhaltsreich, aber stark unstrukturiert, sodass mehr Vorverarbeitung erforderlich ist, damit ein ML-Algorithmus relevante Informationen extrahieren kann. Eine zentrale Herausforderung besteht darin, Text in ein numerisches Format umzuwandeln, ohne seine Bedeutung zu verlieren. In diesem Kapitel wird gezeigt, wie Dokumente als Vektoren von Token-Zählungen dargestellt werden, indem eine Dokument-Begriffs-Matrix erstellt wird, die wiederum als Eingabe für die Textklassifizierung und Stimmungsanalyse dient. Außerdem wird der Naive-Bayes-Algorithmus vorgestellt und seine Leistung mit linearen und baumbasierten Modellen verglichen.
In diesem Kapitel geht es insbesondere um Folgendes:
In diesem Kapitel wird unüberwachtes Lernen verwendet, um latente Themen zu modellieren und verborgene Themen aus Dokumenten zu extrahieren. Diese Themen können detaillierte Einblicke in einen großen Korpus von Finanzberichten generieren. Themenmodelle automatisieren die Erstellung anspruchsvoller, interpretierbarer Textfunktionen, die wiederum dabei helfen können, Handelssignale aus umfangreichen Textsammlungen zu extrahieren. Sie beschleunigen die Überprüfung von Dokumenten, ermöglichen die Gruppierung ähnlicher Dokumente und erzeugen Anmerkungen, die für die Vorhersagemodellierung nützlich sind. Zu den Anwendungen gehören die Identifizierung kritischer Themen in Unternehmensoffenlegungen, Gewinnmitteilungsprotokollen oder Verträgen sowie Anmerkungen auf der Grundlage einer Stimmungsanalyse oder der Nutzung von Renditen zugehöriger Vermögenswerte.
Im Einzelnen umfasst es:
In diesem Kapitel werden neuronale Netze verwendet, um eine Vektordarstellung einzelner semantischer Einheiten wie eines Wortes oder eines Absatzes zu erlernen. Im Vergleich zu den höherdimensionalen spärlichen Vektoren des Bag-of-Words-Modells sind diese Vektoren mit einigen hundert reellen Einträgen dicht. Infolgedessen betten oder lokalisieren diese Vektoren jede semantische Einheit in einem kontinuierlichen Vektorraum.
Einbettungen resultieren aus dem Training eines Modells, um Token mit ihrem Kontext in Beziehung zu setzen, mit dem Vorteil, dass eine ähnliche Verwendung einen ähnlichen Vektor impliziert. Dadurch kodieren sie semantische Aspekte wie Beziehungen zwischen Wörtern anhand ihrer relativen Position. Es handelt sich um leistungsstarke Funktionen, die wir in den folgenden Kapiteln mit Deep-Learning-Modellen verwenden werden.
Genauer gesagt werden wir in diesem Kapitel Folgendes behandeln:
Teil vier erklärt und demonstriert, wie man Deep Learning für den algorithmischen Handel nutzen kann. Aufgrund der leistungsstarken Fähigkeiten von Deep-Learning-Algorithmen zur Erkennung von Mustern in unstrukturierten Daten eignen sie sich besonders für alternative Daten wie Bilder und Text.
Die Beispielanwendungen zeigen beispielsweise, wie man Text- und Preisdaten kombiniert, um Gewinnüberraschungen aus SEC-Anmeldungen vorherzusagen, synthetische Zeitreihen zu generieren, um die Menge an Trainingsdaten zu erweitern, und wie man einen Handelsagenten mithilfe von Deep Reinforcement Learning schult. Mehrere dieser Anwendungen replizieren Forschungsergebnisse, die kürzlich in führenden Fachzeitschriften veröffentlicht wurden.
In diesem Kapitel werden Feedforward-Neuronale Netze (NN) vorgestellt und gezeigt, wie man große Modelle mithilfe von Backpropagation effizient trainiert und gleichzeitig die Risiken einer Überanpassung bewältigt. Außerdem wird gezeigt, wie man TensorFlow 2.0 und PyTorch verwendet und wie man eine NN-Architektur optimiert, um Handelssignale zu generieren. In den folgenden Kapiteln werden wir auf dieser Grundlage aufbauen, um verschiedene Architekturen auf verschiedene Anlageanwendungen anzuwenden, wobei der Schwerpunkt auf alternativen Daten liegt. Dazu gehören wiederkehrende NN, die auf sequentielle Daten wie Zeitreihen oder natürliche Sprache zugeschnitten sind, und Faltungs-NN, die sich besonders gut für Bilddaten eignen. Wir werden uns auch mit tiefgreifendem unbeaufsichtigtem Lernen befassen, beispielsweise mit der Erstellung synthetischer Daten mithilfe von Generative Adversarial Networks (GAN). Darüber hinaus werden wir das verstärkende Lernen diskutieren, um Agenten zu schulen, die interaktiv aus ihrer Umgebung lernen.
In diesem Kapitel wird insbesondere darauf eingegangen
CNN-Architekturen entwickeln sich weiter. In diesem Kapitel werden Bausteine beschrieben, die erfolgreichen Anwendungen gemeinsam sind, es wird gezeigt, wie Transferlernen das Lernen beschleunigen kann und wie CNNs zur Objekterkennung verwendet werden. CNNs können Handelssignale aus Bildern oder Zeitreihendaten generieren. Satellitendaten können Rohstofftrends anhand von Luftbildern von landwirtschaftlichen Gebieten, Minen oder Verkehrsnetzen vorhersagen. Kameraaufnahmen können dabei helfen, Verbraucheraktivitäten vorherzusagen. Wir zeigen, wie man ein CNN aufbaut, das Wirtschaftsaktivitäten in Satellitenbildern klassifiziert. CNNs können auch hochwertige Zeitreihenklassifizierungsergebnisse liefern, indem sie ihre strukturelle Ähnlichkeit mit Bildern ausnutzen, und wir entwerfen eine Strategie, die auf Zeitreihendaten basiert, die wie Bilder formatiert sind.
Im Einzelnen behandelt dieses Kapitel Folgendes:
Wiederkehrende neuronale Netzwerke (RNNs) berechnen jede Ausgabe als Funktion der vorherigen Ausgabe und neuen Daten und erstellen effektiv ein Modell mit Speicher, das Parameter über ein tieferes Rechendiagramm aufteilt. Zu den prominenten Architekturen zählen ein langes Kurzzeitgedächtnis (LSTM) und die wiederkehrenden wiederkehrenden Einheiten (GRU), die sich mit den Herausforderungen des Lernens von Abhängigkeiten mit langfristigen Abhängigkeiten befassen. RNNs sind so konzipiert, dass sie eine oder mehrere Eingangssequenzen einer oder mehreren Ausgabesequenzen zugeordnet haben und besonders gut für die natürliche Sprache geeignet sind. Sie können auch auf univariate und multivariate Zeitreihen angewendet werden, um Markt oder grundlegende Daten vorherzusagen. In diesem Kapitel wird behandelt, wie RNN alternative Textdaten unter Verwendung der in Kapitel 16 behandelten Wort -Einbettungen modellieren kann, um das in Dokumenten ausgedrückte Gefühl zu klassifizieren.
Insbesondere in diesem Kapitel befasst sich:
Dieses Kapitel zeigt, wie man unbeaufsichtigtes Deep -Lernen für den Handel nutzt. Wir diskutieren auch Autoencoder, nämlich ein neuronales Netzwerk, das für die Reproduktion der Eingabe trainiert wird und gleichzeitig eine neue Darstellung lernt, die durch die Parameter einer versteckten Schicht kodiert wird. Autocoder werden seit langem zur Reduzierung der nichtlinearen Dimensionalität verwendet und die NN -Architekturen nutzen, die wir in den letzten drei Kapiteln behandelt haben. Wir replizieren ein aktuelles AQR -Papier, das zeigt, wie AutoCodierer eine Handelsstrategie untermauern können. Wir werden ein tiefes neuronales Netzwerk verwenden, das sich auf einen Autocoder stützt, um Risikofaktoren zu extrahieren und Eigenkapitalrenditen vorherzusagen, die auf einer Reihe von Eigenkapitalattributen bedingt sind.
Insbesondere in diesem Kapitel erfahren Sie über:
In diesem Kapitel werden generative kontroverse Netzwerke (GaN) eingeführt. Gans trainiert einen Generator und ein Diskriminator -Netzwerk in einer Wettbewerbsumgebung, so dass der Generator lernt, Proben zu produzieren, die der Diskriminator nicht von einer bestimmten Klasse von Trainingsdaten unterscheiden kann. Ziel ist es, ein generatives Modell zu ergeben, das synthetische Proben erzeugen kann, die für diese Klasse repräsentativ sind. Während Gans bei Bilddaten am beliebtesten ist, wurden sie auch verwendet, um synthetische Zeitreihendaten im medizinischen Bereich zu generieren. Nachfolgende Experimente mit Finanzdaten untersuchten, ob GANS alternative Preisverläufe erstellen können, die für ML -Schulungs- oder Strategie -Backtests nützlich sind. Wir replizieren das 2019 Neurips Time-Serie Gan Paper, um den Ansatz zu veranschaulichen und die Ergebnisse zu demonstrieren.
Insbesondere in diesem Kapitel erfahren Sie über:
RL (Verstärkung Learning) modelliert das zielgerichtete Lernen eines Agenten, das mit einer stochastischen Umgebung interagiert. RL optimiert die Entscheidungen des Agenten über ein langfristiges Ziel, indem er den Wert von Zuständen und Handlungen aus einem Belohnungssignal lernt. Das ultimative Ziel ist es, eine Richtlinie abzuleiten, die Verhaltensregeln und Kartenzustände für Handlungen codiert. Dieses Kapitel zeigt, wie ein RL -Problem formuliert und gelöst werden kann. Es deckt modellbasierte und modellfreie Methoden ab, führt die OpenAI-Fitnessumgebung ein und kombiniert Deep Learning mit RL, um einen Agenten zu trainieren, der in einer komplexen Umgebung navigiert. Schließlich zeigen wir Ihnen, wie Sie RL an den algorithmischen Handel anpassen, indem wir einen Agenten modellieren, der mit dem Finanzmarkt interagiert und gleichzeitig versucht, eine objektive Funktion zu optimieren.
Insbesondere wird dieses Kapitel behandelt:
In diesem abschließenden Kapitel werden wir kurz die wesentlichen Werkzeuge, Anwendungen und Lektionen zusammenfassen, die im gesamten Buch gelernt wurden, um zu vermeiden, dass das Gesamtbild nach so vielen Details aus den Augen verloren geht. Wir werden dann Bereiche identifizieren, die wir nicht abgedeckt haben, sich aber darauf konzentrieren, sich zu konzentrieren, wenn Sie die vielen maschinellen Lerntechniken, die wir eingeführt haben, erweitern und in ihrem täglichen Gebrauch produktiv werden.
In diesem Kapitel werden wir in der Summe werden
In diesem Buch haben wir betont, wie das intelligente Design von Funktionen, einschließlich geeigneter Vorverarbeitung und Denoising, typischerweise zu einer effektiven Strategie führt. Dieser Anhang synthetisiert einige der im Feature Engineering gelernten Lektionen und liefert zusätzliche Informationen zu diesem wichtigen Thema.
Zu diesem Zweck konzentrieren wir uns auf die breite Palette von Indikatoren, die von TA-LIB (siehe Kapitel 4) und Worldquants 101 formelhaftes Alphas-Papier (Kakushadze 2016) implementiert werden, das quantitative Handelsfaktoren im realen Leben in der Produktion mit einem durchschnittlichen Haltezeitraum aufweist 0,6-6,4 Tage.
Dieses Kapitel umfasst: