learning
1.0.0
Ein fortlaufendes Protokoll der Dinge, die ich lerne, um starke Kernkompetenzen im Software-Engineering aufzubauen und gleichzeitig mein Wissen über angrenzende Technologien jeden Tag ein wenig zu erweitern.
Aktualisiert : Einmal im Monat | Aktueller Fokus : Generative KI
Ressource | Fortschritt |
---|---|
Datacamp: Effizienten Python-Code schreiben | ✅ |
Datacamp: Funktionen in Python schreiben | ✅ |
Datacamp: Objektorientierte Programmierung in Python | ✅ |
Datacamp: Objektorientierte Programmierung für Fortgeschrittene in Python | ✅ |
Datacamp: Daten in Python importieren (Teil 1) | ✅ |
Datacamp: Daten in Python importieren (Teil 2) | ✅ |
Datacamp: Fortgeschrittenes Python für Data Science | ✅ |
Datacamp: Python Data Science Toolbox (Teil 1) | ✅ |
Datacamp: Python Data Science Toolbox (Teil 2) | ✅ |
Datacamp: Python-Pakete entwickeln | ✅ |
Datacamp: Conda Essentials | ✅ |
Youtube: Tutorial: Sebastian Witowski – Modern Python Developer's Toolkit | ✅ |
Datacamp: Arbeiten mit Datums- und Uhrzeitangaben in Python | ✅ |
Datacamp: Befehlszeilenautomatisierung in Python | ⬜ |
Datacamp: Unit-Tests für Data Science in Python | ✅ |
Buch: Python 201 | ⬜ |
Buch: Idiomatisches Python 3 schreiben | ⬜ |
Buch: Testgetriebene Entwicklung mit Python | ⬜ |
Artikel: Die vielen Befehlszeilen-Dienstprogramme von Python | ⬜ |
Artikel: Eine Einführung für Programmierer in Unicode | ⬜ |
Artikel: Einführung in die Speicherprofilerstellung in Python | ✅ |
Artikel: Profilierung von Python-Code mit Memory_profiler | ✅ |
Artikel: Wie verwende ich „memory_profiler“, um die Speichernutzung durch Python-Code zu profilieren? | ✅ |
Ressource | Fortschritt |
---|---|
Buch: Grokking-Algorithmen | ✅ |
Buch: Der technische Lebenslauf von innen nach außen | ✅ |
Neetcode: Algorithmen und Datenstrukturen für Anfänger | ✅ |
Udacity: Einführung in Datenstrukturen und Algorithmen | ✅ |
Ressource | Fortschritt |
---|---|
Datacamp: Einführung in Shell für Data Science | ✅ |
Datacamp: Einführung in Bash Scripting | ✅ |
Datacamp: Datenverarbeitung in Shell | ✅ |
MIT: Das fehlende Semester | ✅ |
Udacity: Grundlagen der Linux-Befehlszeile | ✅ |
Udacity: Shell-Workshop | ✅ |
Udacity: Konfigurieren von Linux-Webservern | ✅ |
Ressource | Fortschritt |
---|---|
Udacity: Versionskontrolle mit Git | ✅ |
Datacamp: Einführung in Git für Data Science | ✅ |
Udacity: GitHub & Zusammenarbeit | ✅ |
Udacity: So verwenden Sie Git und GitHub | ✅ |
Ressource | Fortschritt |
---|---|
Udacity: Einführung in die relationale Datenbank | ✅ |
Udacity: Konzepte und Design von Datenbanksystemen | ⬜ |
Datacamp: Datenbankdesign | ⬜ |
Datacamp: Einführung in Datenbanken in Python | ⬜ |
Datacamp: Einführung in SQL für Data Science | ✅ |
Datacamp: Fortgeschrittenes SQL | ⬜ |
Datacamp: Daten in PostgreSQL verbinden | ⬜ |
Udacity: SQL für die Datenanalyse | ⬜ |
Datacamp: Explorative Datenanalyse in SQL | ⬜ |
Datacamp: Anwenden von SQL auf reale Probleme | ⬜ |
Datacamp: Geschäftsdaten in SQL analysieren | ⬜ |
Datacamp: Berichterstellung in SQL | ⬜ |
Datacamp: Datengesteuerte Entscheidungsfindung in SQL | ⬜ |
Datacamp: NoSQL-Konzepte | ⬜ |
Datacamp: Einführung in MongoDB in Python | ⬜ |
Ressource | Fortschritt |
---|---|
Udacity: Authentifizierung und Autorisierung: OAuth | ⬜ |
Udacity: HTTP- und Webserver | ⬜ |
Udacity: Client-Server-Kommunikation | ⬜ |
Udacity: Entwerfen von RESTful-APIs | ⬜ |
Datacamp: Einführung in APIs in Python | ⬜ |
Udacity: Networking für Webentwickler | ⬜ |
Ressource | Fortschritt |
---|---|
Buch: Entwerfen maschineller Lernsysteme | ✅ |
Neetcode: Systemdesign für Anfänger | ✅ |
Neetcode: Systemdesign-Interview | ✅ |
Datacamp: Kundenanalysen und A/B-Tests in Python | ✅ |
Datacamp: A/B-Tests in Python | ⬜ |
Udacity: A/B-Tests | ⬜ |
Datacamp: MLOps-Konzepte | ✅ |
Datacamp: Überwachungskonzepte für maschinelles Lernen | ✅ |
Ressource | Fortschritt |
---|---|
Datacamp: Grundlagen der Wahrscheinlichkeit in Python | ✅ |
Datacamp: Einführung in die Statistik | ✅ |
Datacamp: Einführung in die Statistik in Python | ✅ |
Datacamp: Hypothesentests in Python | ✅ |
Datacamp: Statistisches Denken in Python (Teil 1) | ✅ |
Datacamp: Statistisches Denken in Python (Teil 2) | ✅ |
Datacamp: Experimentelles Design in Python | ✅ |
Datacamp: Üben von Statistik-Interviewfragen in Python | ⬜ |
edX: Grundlegende Statistiken für die Datenanalyse mit Excel | ✅ |
Udacity: Einführung in die Inferenzstatistik | ✅ |
MIT 18.06 Lineare Algebra, Frühjahr 2005 | ✅ |
Udacity: Eigenvektoren und Eigenwerte | ✅ |
Udacity: Auffrischung der linearen Algebra | ⬜ |
Youtube: Essenz der linearen Algebra | ⬜ |
Ressource | Fortschritt |
---|---|
Codecademy: HTML lernen | ✅ |
Codecademy: Erstellen Sie eine Website | ✅ |
Artikel: Alternativer Text | ⬜ |
Ressource | Fortschritt |
---|---|
Pluralsight: CSS-Positionierung | ✅ |
Pluralsight: Einführung in CSS | ✅ |
Pluralsight: CSS: Spezifität, das Box-Modell und Best Practices | ✅ |
Pluralsight: CSS: Flexbox für das Layout verwenden | ✅ |
Code School: Mit Bootstrap loslegen | ✅ |
Pluralsight: UX-Grundlagen | ✅ |
Codecademy: Lernen Sie SASS | ✅ |
CSS für Javascript-Entwickler | ✅ |
Artikel: Erstellen Sie eine Illustration im Figma-Design | ✅ |
Buch: Refactoring UI | ⬜ |
Youtube: So machen Sie Ihre Website nicht hässlich: Grundlegende UX für Programmierer | ⬜ |
Ressource | Fortschritt |
---|---|
Udacity: ES6 – JavaScript verbessert | ✅ |
Udacity: Einführung in Javascript | ✅ |
Udacity: Objektorientiertes JS 1 | ✅ |
Udacity: Objektorientiertes JS 2 | ✅ |
Udemy: Typescript verstehen | ✅ |
Codecademy: JavaScript lernen | ✅ |
Codecademy: Jquery Track | ✅ |
Pluralsight: Verwendung der Chrome-Entwicklertools | ✅ |
Ressource | Fortschritt |
---|---|
Artikel: Ein Überblick über Algorithmen zur Gradientenabstiegsoptimierung | ✅ |
Buch: Praktisches maschinelles Lernen mit Scikit-Learn, Keras und TensorFlow, 2. Auflage | ⬜ |
Buch: Eine Einführung in maschinelles Lernen | ✅ |
Buch: Erstellen Sie Ihr eigenes neuronales Netzwerk | ✅ |
Buch: Grokking Machine Learning | ✅ |
Buch: Der illustrierte StatQuest-Leitfaden zum maschinellen Lernen | ✅ |
Fast.ai: Praktisches Deep Learning für Programmierer (Teil 1) | ✅ |
Fast.ai: Praktisches Deep Learning für Programmierer (Teil 2) | ⬜ |
Datacamp: Ensemble-Methoden in Python | ✅ |
Datacamp: Extreme Gradient Boosting mit XGBoost | ⬜ |
Datacamp: Clustering-Methoden mit SciPy | ✅ |
Datacamp: Unüberwachtes Lernen in Python | ✅ |
Udacity: Segmentierung und Clustering | ✅ |
Datacamp: Einführung in Python für Data Science | ✅ |
edX: Implementierung von Predictive Analytics mit Spark in Azure HDInsight | ✅ |
Datacamp: Überwachtes Lernen mit scikit-learn | ✅ |
Datacamp: Maschinelles Lernen mit baumbasierten Modellen in Python | ✅ |
Datacamp: Lineare Klassifikatoren in Python | ✅ |
Datacamp: Faltungs-Neuronale Netze für die Bildverarbeitung | ✅ |
Datacamp: Modellvalidierung in Python | ✅ |
Datacamp: Hyperparameter-Tuning in Python | ✅ |
Datacamp: HR Analytics in Python: Vorhersage der Mitarbeiterabwanderung | ✅ |
Datacamp: Kundenabwanderung in Python vorhersagen | ✅ |
Datacamp: Dimensionsreduktion in Python | ✅ |
Datacamp: Vorverarbeitung für maschinelles Lernen in Python | ✅ |
Datacamp: Datentypen für Data Science | ✅ |
Datacamp: Bereinigen von Daten in Python | ✅ |
Datacamp: Feature Engineering für maschinelles Lernen in Python | ✅ |
Datacamp: Vorhersage der CTR mit maschinellem Lernen in Python | ✅ |
Datacamp: Einführung in Finanzkonzepte mit Python | ✅ |
Datacamp: Betrugserkennung in Python | ✅ |
Karpathy: Neuronale Netze: Zero to Hero | ✅ |
Artikel: Gewichtsinitialisierung in neuronalen Netzen: Eine Reise von den Grundlagen zum Kaiming | ⬜ |
Ressource | Fortschritt |
---|---|
Buch: Verarbeitung natürlicher Sprache mit Transformatoren | ✅ |
Stanford CS224U: Verständnis natürlicher Sprache | Frühling 2019 | ✅ |
Stanford CS224N: Stanford CS224N: NLP mit Deep Learning | Winter 2019 | ✅ |
CMU: Ressourcenarmes NLP-Bootcamp 2020 | ✅ |
CMU Mehrsprachiges NLP 2020 | ✅ |
Datacamp: Feature Engineering für NLP in Python | ✅ |
Datacamp: Grundlagen der Verarbeitung natürlicher Sprache in Python | ✅ |
Datacamp: Reguläre Ausdrücke in Python | ✅ |
Datacamp: RNN für Sprachmodellierung | ✅ |
Datacamp: Erzeugung natürlicher Sprache in Python | ✅ |
Datacamp: Chatbots in Python erstellen | ✅ |
Datacamp: Stimmungsanalyse in Python | ✅ |
Datacamp: Maschinelle Übersetzung in Python | ✅ |
Artikel: Die unangemessene Wirksamkeit von Kollokationen | ⬜ |
Artikel: FuzzyWuzzy: Fuzzy String Matching in Python | ✅ |
Artikel: Mamba erklärt | ⬜ |
Artikel: Ein visueller Leitfaden für Mamba- und State-Space-Modelle | ⬜ |
Artikel: Quantisierungsgrundlagen mit Hugging Face | ✅ |
Ressource | Fortschritt |
---|---|
Artikel: SolidGoldMagikarp (plus, prompte Generierung) | ⬜ |
DeepLearning.AI: LLMs vorab trainieren | ✅ |
DeepLearning.AI: Wie Diffusionsmodelle funktionieren | ⬜ |
Karpathy: Einführung in große Sprachmodelle [ 1hr ] | ✅ |
Karpathy: Lasst uns den GPT-Tokenizer erstellen [ 2hr13m ] | ✅ |
Karpathy: Lassen Sie uns GPT-2 (124 Mio.) reproduzieren [ 4hr1m ] | ⬜ |
Youtube: Ein Leitfaden für Hacker zu Sprachmodellen [ 1hr30m . ] | ✅ |
Youtube: 5 Jahre GPTs mit Finbarr Timbers | ⬜ |
Artikel: Sampling zur Textgenerierung | ⬜ |
DeepLearning.AI: Reinforcement Learning aus menschlichem Feedback | ✅ |
Youtube: LLaMA erklärt: KV-Cache, Rotary Positional Embedding, RMS Norm, Grouped Query Attention, SwiGLU [ 1h10m ] | ⬜ |
Ressource | Fortschritt |
---|---|
Vorab trainierte Transformer-Sprachmodelle für die Suche – Teil 1 | ⬜ |
Vorab trainierte Transformer-Sprachmodelle für die Suche – Teil 2 | ⬜ |
Vorab trainierte Transformer-Sprachmodelle für die Suche – Teil 3 | ⬜ |
Vorab trainierte Transformer-Sprachmodelle für die Suche – Teil 4 | ⬜ |
Den IVF-PQ-Index von LanceDB verstehen | ⬜ |
Ein wenig Pooling reicht für Darstellungen mit mehreren Vektoren aus | ✅ |
Fullstack-Retrieval-Kurs | |
Artikel: Komplexitätsstufen: RAG-Anwendungen | ✅ |
Artikel: Systematische Verbesserung Ihres RAG | ⬜ |
Artikel: Hören Sie auf, LGTM@Few als Metrik zu verwenden (Better RAG) | ⬜ |
Artikel: Low-Hanging Fruit für die RAG-Suche | ⬜ |
Artikel: Was KI-Ingenieure über die Suche wissen sollten | ✅ |
Artikel: Bewertung von Chunking-Strategien für den Abruf | ⬜ |
Artikel: Satzeinbettungen. Einführung in Satzeinbettungen | ⬜ |
DeepLearning.AI: Erstellen und Evaluieren fortgeschrittener RAG-Anwendungen | ✅ |
DeepLearning.AI: Vektordatenbanken: von Einbettungen zu Anwendungen | ✅ |
DeepLearning.AI: Erweiterter Abruf für KI mit Chroma | ✅ |
DeepLearning.AI: Prompt-Komprimierung und Abfrageoptimierung | ✅ |
DeepLearning.AI: Große Sprachmodelle mit semantischer Suche [ 1hr ] | ✅ |
DeepLearning.AI: Anwendungen mit Vektordatenbanken erstellen | ✅ |
DeepLearning.AI: Aufbau multimodaler Suche und RAG | ⬜ |
DeepLearning.AI: Wissensgraphen für RAG | ⬜ |
DeepLearning.AI: Funktionen, Tools und Agenten mit LangChain | ⬜ |
DeepLearning.AI: Erstellen eines Agenten-RAG mit LlamaIndex | ⬜ |
DeepLearning.AI: Multi-KI-Agentensysteme mit CrewAI | ⬜ |
DeepLearning.AI: AI Agentic Design Patterns mit AutoGen | ⬜ |
DeepLearning.AI: KI-Agenten in LangGraph | ⬜ |
DeepLearning.AI: Erstellen Sie Ihren eigenen Datenbankagenten | ⬜ |
DeepLearning.AI: Vorverarbeitung unstrukturierter Daten für LLM-Anwendungen | ⬜ |
DeepLearning.AI: Modelle einbetten: Von der Architektur bis zur Implementierung | ✅ |
Pinecone: Vektordatenbanken in der Produktion für vielbeschäftigte Ingenieure | ⬜ |
Pinecone: Retrieval Augmented Generation | ⬜ |
Pinecone: LangChain AI-Handbuch | ⬜ |
Pinecone: Einbettungsmethoden für die Bildsuche | ⬜ |
Pinecone: Faiss: Das fehlende Handbuch | ⬜ |
Tannenzapfen: Vektorsuche in freier Wildbahn | ⬜ |
Pinecone: Verarbeitung natürlicher Sprache für die semantische Suche | ⬜ |
Youtube: RAG-Anwendungen systematisch verbessern | ✅ |
Youtube: Zurück zu den Grundlagen für RAG mit Jo Bergum | ✅ |
Youtube: Jenseits der Grundlagen des Abrufs zur Augmenting Generation (mit Ben Clavié) | ✅ |
Youtube: RAG von Grund auf neu | 0/14 |
Artikel: LambdaMART im Detail | ⬜ |
Artikel: Geführte Generierung mit Outlines | ✅ |
Ressource | Fortschritt |
---|---|
Artikel: OpenAI Prompt Engineering | ⬜ |
Artikel: Grundlagen der Ansprache und wie man sie effektiv anwendet | ✅ |
Anthropische Kurse | ⬜ |
Artikel: Prompt Engineering (Liliang Weng) | ✅ |
Artikel: Prompt Engineering 201: Fortgeschrittene Methoden und Toolkits | ✅ |
Artikel: Optimierung von LLMs für Genauigkeit | ✅ |
Artikel: Einführungen • Prompt Engineering | ⬜ |
Artikel: Anyscale Endpoints: JSON-Modus und Funktionsaufruffunktionen | ⬜ |
Artikel: Geführte Textgenerierung mit großen Sprachmodellen | ⬜ |
Artikel: GPT-4 Vision-Alternativen | ⬜ |
DeepLearning.AI: ChatGPT Prompt Engineering für Entwickler | ⬜ |
DeepLearning.AI: Prompt Engineering für Vision-Modelle | ⬜ |
DeepLearning.AI: Prompt Engineering mit Llama 2 & 3 | ⬜ |
Wandb: LLM Engineering: Strukturierte Ausgaben | ⬜ |
DeepLearning.AI: Funktionsaufrufe und Datenextraktion mit LLMs | ⬜ |
Serie: Sofortige Injektion | ⬜ |
Youtube: Überblick über Prompt Engineering [ 1hr4m . ] | ✅ |
Youtube: Strukturierte Generierung mit LLMs | ⬜ |
Ressource | Fortschritt |
---|---|
Artikel: Muster für den Aufbau LLM-basierter Systeme und Produkte | ✅ |
Artikel: Neue Architekturen für LLM-Anwendungen | ✅ |
Artikel: Wie man LLMs schnell voranbringt | ⬜ |
Artikel: Auf der Überholspur! Spekulative Dekodierung – 10x größeres Modell, keine zusätzlichen Kosten | ⬜ |
Artikel: Harmonisierung von Multi-GPUs: Effiziente Skalierung der LLM-Inferenz | ⬜ |
Artikel: Aufmerksamkeit bei mehreren Abfragen ist alles, was Sie brauchen | ⬜ |
Artikel: Transformers Inference Optimization Toolset | ⬜ |
DeepLearning.AI: LLMs effizient bedienen | ✅ |
DeepLearning.AI: Automatisiertes Testen für LLMOps | ✅ |
DeepLearning.AI: Red Teaming LLM-Anwendungen | ✅ |
DeepLearning.AI: Evaluierung und Debugging generativer KI-Modelle mithilfe von Gewichtungen und Verzerrungen | ⬜ |
DeepLearning.AI: Qualität und Sicherheit für LLM-Anwendungen | ⬜ |
DeepLearning.AI: LLMOps | ⬜ |
DeepLearning.AI: Serverlose LLM-Apps mit Amazon Bedrock | ⬜ |
DeepLearning.AI: Quantisierung im Detail | ⬜ |
DeepLearning.AI: Einführung in On-Device AI | ⬜ |
Artikel: Ein visueller Leitfaden zur Quantisierung | ⬜ |
Artikel: QLoRA und 4-Bit-Quantisierung | ⬜ |
Artikel: KI/LLM-Quantisierung durch interaktive Visualisierungen verstehen | ⬜ |
Artikel: LLM-Inferenzreihe: 3. KV-Caching erklärt | ⬜ |
Artikel: LLM Inference Series: 4. KV-Caching, ein tieferer Einblick | ⬜ |
Artikel: LLM-Inferenzreihe: 5. Analyse der Modellleistung | ⬜ |
Youtube: SBTB 2023: Charles Frye, Parallel Processors: Past & Future Connections Between LLMs and OS Kernels | ⬜ |
Artikel: Transformer Inference Arithmetic | ⬜ |
Ressource | Fortschritt |
---|---|
Artikel: Was wir aus einem Jahr des Aufbaus mit LLMs gelernt haben | ⬜ |
Artikel: So generieren und verwenden Sie synthetische Daten für die Feinabstimmung | ✅ |
Artikel: Ihr KI-Produkt muss evaluiert werden | ✅ |
Artikel: Aufgabenspezifische LLM-Bewertungen, die funktionieren und nicht funktionieren | ✅ |
Artikel: Datenschwungräder für LLM-Anwendungen | ⬜ |
Artikel: LLM From the Trenches: 10 Lessons Learned zur Operationalisierung von Modellen bei GoDaddy | ✅ |
Artikel: Auswertung und Halluzinationserkennung für abstrakte Zusammenfassungen | ✅ |
Artikel: Neue UX-Muster für generative KI-Apps und Copiloten | ✅ |
Artikel: Der LLM-Trainingsleitfaden für Einsteiger | ⬜ |
Artikel: Die Unterstützung strukturierter Daten von ChatGPT stößt an ihre Grenzen | ✅ |
Artikel: GPTed: Verwendung von GPT-3 zur semantischen Prosaprüfung | ✅ |
Artikel: Machen Sie sich keine Sorgen wegen LLMs | ⬜ |
DeepLearning.AI: Feinabstimmung großer Sprachmodelle | ✅ |
DeepLearning.AI: Erstellen von Systemen mit der ChatGPT-API | ⬜ |
DeepLearning.AI: LangChain für die LLM-Anwendungsentwicklung | ⬜ |
DeepLearning.AI: LangChain: Chatten Sie mit Ihren Daten | ⬜ |
DeepLearning.AI: Generative KI-Anwendungen mit Gradio erstellen | ✅ |
DeepLearning.AI: Open-Source-Modelle mit umarmendem Gesicht | ⬜ |
DeepLearning.AI: Erste Schritte mit Mistral | ⬜ |
Datacamp: LLM-Anwendungen mit LangChain entwickeln | ⬜ |
LLMOps: Bauen mit LLMs | ⬜ |
LLM Bootcamp – Frühjahr 2023 | ✅ |
Youtube: Ein Überblick über Techniken zur Maximierung der LLM-Leistung | ✅ |
Youtube: Bausteine für LLM-Systeme und -Produkte: Eugene Yan | ✅ |
Youtube: Feinabstimmung von OpenAI-Modellen – Best Practices | ✅ |
Youtube: Kurs: LLM Fine-Tuning mit Axolotl | 0/4 |
Youtube: Feinabstimmung von LLMs | 1/5 |
Youtube: LLM-Bewertungen | 0/5 |
Youtube: LLM-Anwendungen erstellen | 0/8 |
Ressource | Fortschritt |
---|---|
Udemy: AWS Certified Developer – Associate 2018 | ✅ |
Ressource | Fortschritt |
---|---|
Artikel: Django, HTMX und Alpine.js: Moderne Websites, JavaScript optional | ✅ |
Ressource | Fortschritt |
---|---|
Datacamp: Einführung in Seaborn | ✅ |
Datacamp: Einführung in Matplotlib | ✅ |
Ressource | Fortschritt |
---|---|
Datacamp: Einführung in MLFlow | ✅ |
Ressource | Fortschritt |
---|---|
Dokumente: Beginnen Sie mit der Erstellung mit Next.js |
Ressource | Fortschritt |
---|---|
Datacamp: Pandas Foundations | ✅ |
Datacamp: Pandas tritt für Tabellenkalkulationsbenutzer bei | ✅ |
Datacamp: DataFrames mit Pandas manipulieren | ✅ |
Datacamp: DataFrames mit Pandas zusammenführen | ✅ |
Datacamp: Datenmanipulation mit Pandas | ✅ |
Datacamp: Python-Code mit Pandas optimieren | ✅ |
Datacamp: Optimierte Datenaufnahme mit Pandas | ✅ |
Datacamp: Analyse von Marketingkampagnen mit Pandas | ✅ |
Datacamp: Analyse der Polizeiaktivitäten mit Pandas | ✅ |
Ressource | Fortschritt |
---|---|
Artikel: PyTorch-Interna | ⬜ |
Artikel: PyTorch als selbstverständlich betrachten | ⬜ |
Datacamp: Einführung in Deep Learning mit PyTorch | ✅ |
Datacamp: Fortgeschrittenes Deep Learning mit PyTorch | ⬜ |
Datacamp: Deep Learning für Text mit PyTorch | ⬜ |
Datacamp: Deep Learning für Bilder mit PyTorch | ⬜ |
Deeplizard: Neuronale Netzwerkprogrammierung – Deep Learning mit PyTorch | ✅ |
Ressource | Fortschritt |
---|---|
Codecademy: ReactJS lernen: Teil I | ✅ |
Codecademy: ReactJS lernen: Teil II | ✅ |
NexxtJS: React Foundations | ⬜ |
Ressource | Fortschritt |
---|---|
Datacamp: Fortgeschrittenes NLP mit spaCy | ✅ |
Ressource | Fortschritt |
---|---|
Datacamp: Einführung in TensorFlow in Python | ✅ |
Datacamp: Deep Learning in Python | ✅ |
Datacamp: Einführung in Deep Learning mit Keras | ✅ |
Datacamp: Erweitertes Deep Learning mit Keras | ✅ |
Deeplizard: Keras – Python Deep Learning Neural Network API | ✅ |
Udacity: Einführung in TensorFlow für Deep Learning | ✅ |