Hinweis: Mit dieser praktischen Erweiterung „Markdown PDF“ können Sie diese Markdown-Datei ganz einfach in VSCode in eine PDF-Datei konvertieren.
Frameworks für maschinelles Lernen/Deep Learning.
Lernressourcen für ML
ML-Frameworks, Bibliotheken und Tools
Algorithmen
PyTorch-Entwicklung
TensorFlow-Entwicklung
Kern-ML-Entwicklung
Deep-Learning-Entwicklung
Verstärkung des Lernens
Entwicklung von Computer Vision
Entwicklung der Verarbeitung natürlicher Sprache (NLP).
Bioinformatik
CUDA-Entwicklung
MATLAB-Entwicklung
C/C++-Entwicklung
Java-Entwicklung
Python-Entwicklung
Scala-Entwicklung
R-Entwicklung
Julia-Entwicklung
Zurück nach oben
Maschinelles Lernen ist ein Zweig der künstlichen Intelligenz (KI), der sich auf die Entwicklung von Apps mithilfe von Algorithmen konzentriert, die aus Datenmodellen lernen und ihre Genauigkeit im Laufe der Zeit verbessern, ohne dass sie programmiert werden müssen.
Zurück nach oben
Best Practices für die Verarbeitung natürlicher Sprache (NLP) von Microsoft
Das Kochbuch zum autonomen Fahren von Microsoft
Azure Machine Learning – ML as a Service | Microsoft Azure
So führen Sie Jupyter Notebooks in Ihrem Azure Machine Learning-Arbeitsbereich aus
Maschinelles Lernen und künstliche Intelligenz | Amazon Web Services
Planen von Jupyter-Notebooks auf kurzlebigen Amazon SageMaker-Instanzen
KI und maschinelles Lernen | Google Cloud
Verwendung von Jupyter Notebooks mit Apache Spark in Google Cloud
Maschinelles Lernen | Apple-Entwickler
Künstliche Intelligenz und Autopilot | Tesla
Meta-KI-Tools | Facebook
PyTorch-Tutorials
TensorFlow-Tutorials
JupyterLab
Stabile Diffusion mit Core ML auf Apple Silicon
Zurück nach oben
Maschinelles Lernen von der Stanford University von Andrew Ng | Coursera
AWS-Schulung und Zertifizierung für Kurse zum maschinellen Lernen (ML).
Stipendienprogramm für maschinelles Lernen für Microsoft Azure | Udacity
Microsoft-zertifiziert: Azure Data Scientist Associate
Microsoft-zertifiziert: Azure AI Engineer Associate
Schulung und Bereitstellung von Azure Machine Learning
Lernen Sie maschinelles Lernen und künstliche Intelligenz von Google Cloud Training
Crashkurs zum maschinellen Lernen für Google Cloud
Online-Kurse zum maschinellen Lernen | Udemy
Online-Kurse zum maschinellen Lernen | Coursera
Lernen Sie maschinelles Lernen mit Online-Kursen und -Kursen | edX
Zurück nach oben
Einführung in maschinelles Lernen (PDF)
Künstliche Intelligenz: Ein moderner Ansatz von Stuart J. Russel und Peter Norvig
Deep Learning von Ian Goodfellow, Yoshoua Bengio und Aaron Courville
Das hundertseitige Buch über maschinelles Lernen von Andriy Burkov
Maschinelles Lernen von Tom M. Mitchell
Programmieren kollektiver Intelligenz: Erstellen intelligenter Web 2.0-Anwendungen von Toby Segaran
Maschinelles Lernen: Eine algorithmische Perspektive, 2. Auflage
Mustererkennung und maschinelles Lernen von Christopher M. Bishop
Verarbeitung natürlicher Sprache mit Python von Steven Bird, Ewan Klein und Edward Loper
Python Machine Learning: Ein technischer Ansatz für maschinelles Lernen für Anfänger von Leonard Eddison
Bayesianisches Denken und maschinelles Lernen von David Barber
Maschinelles Lernen für absolute Anfänger: Eine einfache englische Einführung von Oliver Theobald
Maschinelles Lernen in Aktion von Ben Wilson
Praktisches maschinelles Lernen mit Scikit-Learn, Keras und TensorFlow: Konzepte, Tools und Techniken zum Aufbau intelligenter Systeme von Aurélien Géron
Einführung in maschinelles Lernen mit Python: Ein Leitfaden für Datenwissenschaftler von Andreas C. Müller und Sarah Guido
Maschinelles Lernen für Hacker: Fallstudien und Algorithmen für den Einstieg von Drew Conway und John Myles White
Die Elemente des statistischen Lernens: Data Mining, Inferenz und Vorhersage von Trevor Hastie, Robert Tibshirani und Jerome Friedman
Verteilte Muster des maschinellen Lernens – Buch (kostenlos online lesbar) + Code
Reales maschinelles Lernen [Kostenlose Kapitel]
Eine Einführung in das statistische Lernen – Buch + R-Code
Elemente des statistischen Lernens – Buch
Think Bayes – Buch + Python-Code
Riesige Datensätze abbauen
Eine erste Begegnung mit maschinellem Lernen
Einführung in maschinelles Lernen – Alex Smola und SVN Vishwanathan
Eine probabilistische Theorie der Mustererkennung
Einführung in die Informationsbeschaffung
Prognose: Prinzipien und Praxis
Einführung in maschinelles Lernen – Amnon Shashua
Verstärkungslernen
Maschinelles Lernen
Eine Suche nach KI
R-Programmierung für Data Science
Data Mining – Praktische Tools und Techniken für maschinelles Lernen
Maschinelles Lernen mit TensorFlow
Maschinelle Lernsysteme
Grundlagen des maschinellen Lernens – Mehryar Mohri, Afshin Rostamizadeh und Ameet Talwalkar
KI-gestützte Suche – Trey Grainger, Doug Turnbull, Max Irwin –
Ensemble-Methoden für maschinelles Lernen – Gautam Kunapuli
Maschinelles Lernen in Aktion – Ben Wilson
Datenschutzschonendes maschinelles Lernen – J. Morris Chang, Di Zhuang, G. Dumindu Samaraweera
Automatisiertes maschinelles Lernen in Aktion – Qingquan Song, Haifeng Jin und Xia Hu
Verteilte Muster des maschinellen Lernens – Yuan Tang
Verwalten von maschinellen Lernprojekten: Vom Entwurf bis zur Bereitstellung – Simon Thompson
Kausales maschinelles Lernen – Robert Ness
Bayesianische Optimierung in Aktion – Quan Nguyen
Algorithmen für maschinelles Lernen im Detail) – Vadim Smolyakov
Optimierungsalgorithmen – Alaa Khamis
Praktisches Gradient Boosting von Guillaume Saupin
Zurück nach oben
Zurück nach oben
TensorFlow ist eine End-to-End-Open-Source-Plattform für maschinelles Lernen. Es verfügt über ein umfassendes, flexibles Ökosystem aus Tools, Bibliotheken und Community-Ressourcen, mit dem Forscher den neuesten Stand der Technik im Bereich ML vorantreiben und Entwickler problemlos ML-basierte Anwendungen erstellen und bereitstellen können.
Keras ist eine High-Level-API für neuronale Netze, die in Python geschrieben ist und auf TensorFlow, CNTK oder Theano ausgeführt werden kann. Sie wurde mit dem Schwerpunkt entwickelt, schnelles Experimentieren zu ermöglichen. Es kann auf TensorFlow, Microsoft Cognitive Toolkit, R, Theano oder PlaidML ausgeführt werden.
PyTorch ist eine Bibliothek für Deep Learning für unregelmäßige Eingabedaten wie Diagramme, Punktwolken und Mannigfaltigkeiten. Hauptsächlich vom Facebook-KI-Forschungslabor entwickelt.
Amazon SageMaker ist ein vollständig verwalteter Dienst, der jedem Entwickler und Datenwissenschaftler die Möglichkeit bietet, Modelle für maschinelles Lernen (ML) schnell zu erstellen, zu trainieren und bereitzustellen. SageMaker entlastet jeden Schritt des maschinellen Lernprozesses und erleichtert so die Entwicklung qualitativ hochwertiger Modelle.
Azure Databricks ist ein schneller und kollaborativer Big-Data-Analysedienst auf Apache Spark-Basis, der für Data Science und Data Engineering entwickelt wurde. Azure Databricks richtet Ihre Apache Spark-Umgebung in wenigen Minuten ein, skaliert automatisch und arbeitet in einem interaktiven Arbeitsbereich an gemeinsamen Projekten zusammen. Azure Databricks unterstützt Python, Scala, R, Java und SQL sowie Data-Science-Frameworks und -Bibliotheken, einschließlich TensorFlow, PyTorch und scikit-learn.
Microsoft Cognitive Toolkit (CNTK) ist ein Open-Source-Toolkit für verteiltes Deep Learning in kommerzieller Qualität. Es beschreibt neuronale Netze als eine Reihe von Rechenschritten über einen gerichteten Graphen. Mit CNTK kann der Benutzer gängige Modelltypen wie Feed-Forward-DNNs, Convolutional Neural Networks (CNNs) und Recurrent Neural Networks (RNNs/LSTMs) einfach realisieren und kombinieren. CNTK implementiert stochastisches Gradientenabstiegslernen (SGD, Error Backpropagation) mit automatischer Differenzierung und Parallelisierung über mehrere GPUs und Server hinweg.
Apple CoreML ist ein Framework, das dabei hilft, Modelle für maschinelles Lernen in Ihre App zu integrieren. Core ML bietet eine einheitliche Darstellung für alle Modelle. Ihre App nutzt Core ML APIs und Benutzerdaten, um Vorhersagen zu treffen und Modelle zu trainieren oder zu optimieren – alles auf dem Gerät des Benutzers. Ein Modell ist das Ergebnis der Anwendung eines maschinellen Lernalgorithmus auf einen Satz Trainingsdaten. Sie verwenden ein Modell, um Vorhersagen auf der Grundlage neuer Eingabedaten zu treffen.
Apache OpenNLP ist eine Open-Source-Bibliothek für ein auf maschinellem Lernen basierendes Toolkit zur Verarbeitung natürlichsprachlicher Texte. Es verfügt über eine API für Anwendungsfälle wie die Erkennung benannter Entitäten, Satzerkennung, POS-Tagging (Part-Of-Speech), Extraktion von Tokenisierungsmerkmalen, Chunking, Parsing und Koreferenzauflösung.
Apache Airflow ist eine von der Community entwickelte Open-Source-Workflow-Management-Plattform zum programmgesteuerten Erstellen, Planen und Überwachen von Workflows. Installieren. Prinzipien. Skalierbar. Airflow verfügt über eine modulare Architektur und verwendet eine Nachrichtenwarteschlange, um eine beliebige Anzahl von Workern zu orchestrieren. Der Luftstrom kann bis ins Unendliche skaliert werden.
Open Neural Network Exchange (ONNX) ist ein offenes Ökosystem, das es KI-Entwicklern ermöglicht, die richtigen Tools auszuwählen, während sich ihr Projekt weiterentwickelt. ONNX bietet ein Open-Source-Format für KI-Modelle, sowohl Deep Learning als auch traditionelles ML. Es definiert ein erweiterbares Berechnungsdiagrammmodell sowie Definitionen integrierter Operatoren und Standarddatentypen.
Apache MXNet ist ein Deep-Learning-Framework, das sowohl auf Effizienz als auch auf Flexibilität ausgelegt ist. Es ermöglicht Ihnen, symbolische und imperative Programmierung zu kombinieren, um Effizienz und Produktivität zu maximieren. Im Kern enthält MXNet einen dynamischen Abhängigkeitsplaner, der sowohl symbolische als auch imperative Vorgänge automatisch im laufenden Betrieb parallelisiert. Eine darüber liegende Grafikoptimierungsschicht sorgt für eine schnelle symbolische Ausführung und eine speichereffiziente Nutzung. MXNet ist portabel und leicht und lässt sich effektiv auf mehrere GPUs und mehrere Maschinen skalieren. Unterstützung für Python, R, Julia, Scala, Go, Javascript und mehr.
AutoGluon ist ein Toolkit für Deep Learning, das maschinelle Lernaufgaben automatisiert und es Ihnen ermöglicht, auf einfache Weise eine starke Vorhersageleistung in Ihren Anwendungen zu erzielen. Mit nur wenigen Codezeilen können Sie hochpräzise Deep-Learning-Modelle für Tabellen-, Bild- und Textdaten trainieren und bereitstellen.
Anaconda ist eine sehr beliebte Data-Science-Plattform für maschinelles Lernen und Deep Learning, die es Benutzern ermöglicht, Modelle zu entwickeln, sie zu trainieren und einzusetzen.
PlaidML ist ein fortschrittlicher und tragbarer Tensor-Compiler, der Deep Learning auf Laptops, eingebetteten Geräten oder anderen Geräten ermöglicht, bei denen die verfügbare Computerhardware nicht gut unterstützt wird oder der verfügbare Software-Stack unangenehme Lizenzbeschränkungen enthält.
OpenCV ist eine hochoptimierte Bibliothek mit Schwerpunkt auf Echtzeit-Computer-Vision-Anwendungen. Die C++-, Python- und Java-Schnittstellen unterstützen Linux, MacOS, Windows, iOS und Android.
Scikit-Learn ist ein Python-Modul für maschinelles Lernen, das auf SciPy, NumPy und matplotlib aufbaut und die Anwendung robuster und einfacher Implementierungen vieler beliebter Algorithmen für maschinelles Lernen erleichtert.
Weka ist eine Open-Source-Software für maschinelles Lernen, auf die über eine grafische Benutzeroberfläche, Standard-Terminalanwendungen oder eine Java-API zugegriffen werden kann. Es wird häufig für Lehre, Forschung und industrielle Anwendungen verwendet, enthält eine Vielzahl integrierter Tools für Standardaufgaben des maschinellen Lernens und bietet darüber hinaus transparenten Zugriff auf bekannte Toolboxen wie scikit-learn, R und Deeplearning4j.
Caffe ist ein Deep-Learning-Framework, das auf Ausdruck, Geschwindigkeit und Modularität ausgelegt ist. Es wurde von Berkeley AI Research (BAIR)/The Berkeley Vision and Learning Center (BVLC) und Community-Mitwirkenden entwickelt.
Theano ist eine Python-Bibliothek, mit der Sie mathematische Ausdrücke mit mehrdimensionalen Arrays effizient definieren, optimieren und auswerten können, einschließlich einer engen Integration mit NumPy.
nGraph ist eine Open-Source-C++-Bibliothek, ein Compiler und eine Laufzeitumgebung für Deep Learning. Der nGraph Compiler zielt darauf ab, die Entwicklung von KI-Workloads mithilfe eines beliebigen Deep-Learning-Frameworks und der Bereitstellung auf einer Vielzahl von Hardwarezielen zu beschleunigen. Er bietet KI-Entwicklern Freiheit, Leistung und Benutzerfreundlichkeit.
NVIDIA cuDNN ist eine GPU-beschleunigte Bibliothek von Grundelementen für tiefe neuronale Netze. cuDNN bietet hochgradig abgestimmte Implementierungen für Standardroutinen wie Vorwärts- und Rückwärtsfaltung, Pooling, Normalisierung und Aktivierungsschichten. cuDNN beschleunigt weit verbreitete Deep-Learning-Frameworks, darunter Caffe2, Chainer, Keras, MATLAB, MxNet, PyTorch und TensorFlow.
Huginn ist ein selbst gehostetes System für Bauagenten, die online automatisierte Aufgaben für Sie ausführen. Es kann das Internet lesen, auf Ereignisse achten und in Ihrem Namen Maßnahmen ergreifen. Huginns Agenten erstellen und konsumieren Ereignisse und verbreiten sie entlang eines gerichteten Diagramms. Betrachten Sie es als eine hackbare Version von IFTTT oder Zapier auf Ihrem eigenen Server.
Netron ist ein Viewer für Modelle für neuronale Netze, Deep Learning und maschinelles Lernen. Es unterstützt ONNX, TensorFlow Lite, Caffe, Keras, Darknet, PaddlePaddle, ncnn, MNN, Core ML, RKNN, MXNet, MindSpore Lite, TNN, Barracuda, Tengine, CNTK, TensorFlow.js, Caffe2 und UFF.
Dopamin ist ein Forschungsrahmen für das schnelle Prototyping von Reinforcement-Learning-Algorithmen.
DALI ist eine GPU-beschleunigte Bibliothek, die hochoptimierte Bausteine und eine Ausführungs-Engine für die Datenverarbeitung enthält, um Deep-Learning-Trainings- und Inferenzanwendungen zu beschleunigen.
MindSpore Lite ist ein neues Open-Source-Deep-Learning-Trainings-/Inferenz-Framework, das für mobile, Edge- und Cloud-Szenarien verwendet werden kann.
Darknet ist ein Open-Source-Framework für neuronale Netzwerke, das in C und CUDA geschrieben ist. Es ist schnell, einfach zu installieren und unterstützt CPU- und GPU-Berechnungen.
PaddlePaddle ist eine benutzerfreundliche, effiziente, flexible und skalierbare Deep-Learning-Plattform, die ursprünglich von Wissenschaftlern und Ingenieuren von Baidu entwickelt wurde, um Deep Learning auf viele Produkte bei Baidu anzuwenden.
GoogleNotebookLM ist ein experimentelles KI-Tool, das die Leistungsfähigkeit von Sprachmodellen in Kombination mit Ihren vorhandenen Inhalten nutzt, um schneller wichtige Erkenntnisse zu gewinnen. Ähnlich einem virtuellen Forschungsassistenten, der Fakten zusammenfassen, komplexe Ideen erklären und auf der Grundlage der von Ihnen ausgewählten Quellen neue Zusammenhänge erarbeiten kann.
Unilm ist ein groß angelegtes, selbstüberwachtes Vortraining für alle Aufgaben, Sprachen und Modalitäten.
Semantic Kernel (SK) ist ein leichtes SDK, das die Integration von AI Large Language Models (LLMs) mit herkömmlichen Programmiersprachen ermöglicht. Das erweiterbare Programmiermodell von SK kombiniert semantische Funktionen in natürlicher Sprache, traditionelle Code-native-Funktionen und einbettungsbasierten Speicher, um neue Potenziale zu erschließen und Anwendungen mit KI einen Mehrwert zu verleihen.
Pandas AI ist eine Python-Bibliothek, die generative künstliche Intelligenzfunktionen in Pandas integriert und so Datenrahmen konversationsfähig macht.
NCNN ist ein leistungsstarkes Inferenz-Framework für neuronale Netze, das für die mobile Plattform optimiert ist.
MNN ist ein blitzschnelles, leichtes Deep-Learning-Framework, das sich in geschäftskritischen Anwendungsfällen in Alibaba bewährt hat.
MediaPipe ist für die End-to-End-Leistung auf einer Vielzahl von Plattformen optimiert. Demos ansehen Mehr erfahren Komplexes ML auf dem Gerät, vereinfacht Wir haben die Komplexität abstrahiert, die es mit sich bringt, ML auf dem Gerät anpassbar, produktionsbereit und plattformübergreifend zugänglich zu machen.
MegEngine ist ein schnelles, skalierbares und benutzerfreundliches Deep-Learning-Framework mit drei Hauptfunktionen: Einheitliches Framework für Training und Inferenz.
ML.NET ist eine Bibliothek für maschinelles Lernen, die als erweiterbare Plattform konzipiert ist, sodass Sie andere beliebte ML-Frameworks (TensorFlow, ONNX, Infer.NET und mehr) nutzen und Zugriff auf noch mehr Szenarien für maschinelles Lernen haben, wie z. B. Bildklassifizierung, Objekterkennung und mehr.
Ludwig ist ein deklaratives Framework für maschinelles Lernen, das die Definition von Pipelines für maschinelles Lernen mithilfe eines einfachen und flexiblen datengesteuerten Konfigurationssystems erleichtert.
MMdnn ist ein umfassendes und Framework-übergreifendes Tool zur Konvertierung, Visualisierung und Diagnose von Deep-Learning-Modellen (DL). „MM“ steht für Model Management und „dnn“ ist die Abkürzung für Deep Neural Network. Konvertieren Sie Modelle zwischen Caffe, Keras, MXNet, Tensorflow, CNTK, PyTorch Onnx und CoreML.
Horovod ist ein verteiltes Deep-Learning-Trainingsframework für TensorFlow, Keras, PyTorch und Apache MXNet.
Vaex ist eine leistungsstarke Python-Bibliothek für verzögerte Out-of-Core-DataFrames (ähnlich wie Pandas), um große tabellarische Datensätze zu visualisieren und zu untersuchen.
GluonTS ist ein Python-Paket für die probabilistische Zeitreihenmodellierung mit Schwerpunkt auf Deep-Learning-basierten Modellen, basierend auf PyTorch und MXNet.
MindsDB ist ein ML-SQL-Server, der maschinelle Lernworkflows für die leistungsstärksten Datenbanken und Data Warehouses mit SQL ermöglicht.
Jupyter Notebook ist eine Open-Source-Webanwendung, mit der Sie Dokumente erstellen und teilen können, die Live-Code, Gleichungen, Visualisierungen und narrativen Text enthalten. Jupyter wird häufig in Branchen eingesetzt, die sich mit Datenbereinigung und -transformation, numerischer Simulation, statistischer Modellierung, Datenvisualisierung, Datenwissenschaft und maschinellem Lernen befassen.
Apache Spark ist eine einheitliche Analyse-Engine für die Verarbeitung großer Datenmengen. Es bietet High-Level-APIs in Scala, Java, Python und R sowie eine optimierte Engine, die allgemeine Berechnungsdiagramme für die Datenanalyse unterstützt. Es unterstützt außerdem eine Vielzahl übergeordneter Tools, darunter Spark SQL für SQL und DataFrames, MLlib für maschinelles Lernen, GraphX für die Diagrammverarbeitung und Structured Streaming für die Stream-Verarbeitung.
Apache Spark Connector für SQL Server und Azure SQL ist ein leistungsstarker Connector, der Ihnen die Verwendung von Transaktionsdaten in Big-Data-Analysen ermöglicht und Ergebnisse für Ad-hoc-Abfragen oder Berichte speichert. Mit dem Connector können Sie jede SQL-Datenbank lokal oder in der Cloud als Eingabedatenquelle oder Ausgabedatensenke für Spark-Jobs verwenden.
Apache PredictionIO ist ein Open-Source-Framework für maschinelles Lernen für Entwickler, Datenwissenschaftler und Endbenutzer. Es unterstützt die Ereigniserfassung, die Bereitstellung von Algorithmen, die Auswertung und die Abfrage von Vorhersageergebnissen über REST-APIs. Es basiert auf skalierbaren Open-Source-Diensten wie Hadoop, HBase (und anderen DBs), Elasticsearch, Spark und implementiert eine sogenannte Lambda-Architektur.
Cluster Manager für Apache Kafka (CMAK) ist ein Tool zur Verwaltung von Apache Kafka-Clustern.
BigDL ist eine verteilte Deep-Learning-Bibliothek für Apache Spark. Mit BigDL können Benutzer ihre Deep-Learning-Anwendungen als Standard-Spark-Programme schreiben, die direkt auf vorhandenen Spark- oder Hadoop-Clustern ausgeführt werden können.
Eclipse Deeplearning4J (DL4J) ist eine Reihe von Projekten, die alle Anforderungen einer JVM-basierten Deep-Learning-Anwendung (Scala, Kotlin, Clojure und Groovy) unterstützen sollen. Das bedeutet, dass man mit den Rohdaten beginnt, diese lädt und vorverarbeitet, egal wo und in welchem Format sie vorliegen, bis hin zum Aufbau und der Optimierung einer Vielzahl einfacher und komplexer Deep-Learning-Netzwerke.
Tensorman ist ein von System76 entwickeltes Dienstprogramm zur einfachen Verwaltung von Tensorflow-Containern. Tensorman ermöglicht den Betrieb von Tensorflow in einer isolierten Umgebung, die vom Rest des Systems isoliert ist. Diese virtuelle Umgebung kann unabhängig vom Basissystem betrieben werden, sodass Sie jede Version von Tensorflow auf jeder Version einer Linux-Distribution verwenden können, die die Docker-Laufzeit unterstützt.
Numba ist ein Open-Source-, NumPy-fähiger, optimierender Compiler für Python, der von Anaconda, Inc. gesponsert wird. Er verwendet das LLVM-Compilerprojekt, um Maschinencode aus der Python-Syntax zu generieren. Numba kann eine große Teilmenge von numerisch fokussiertem Python kompilieren, einschließlich vieler NumPy-Funktionen. Darüber hinaus unterstützt Numba die automatische Parallelisierung von Schleifen, die Generierung von GPU-beschleunigtem Code sowie die Erstellung von UFUNCs und C-Callbacks.
Chainer ist ein Python-basiertes Deep-Learning-Framework, das auf Flexibilität abzielt. Es bietet automatische Differenzierungs-APIs basierend auf dem Define-by-Run-Ansatz (dynamische Rechendiagramme) sowie objektorientierte High-Level-APIs zum Aufbau und Training neuronaler Netze. Es unterstützt auch CUDA/cuDNN mit CuPy für Hochleistungstraining und Inferenz.
XGBoost ist eine optimierte verteilte Gradient-Boosting-Bibliothek, die hocheffizient, flexibel und portabel ist. Es implementiert Algorithmen für maschinelles Lernen im Rahmen des Gradient Boosting-Frameworks. XGBoost bietet ein paralleles Tree-Boosting (auch bekannt als GBDT, GBM), das viele datenwissenschaftliche Probleme schnell und genau löst. Es unterstützt verteiltes Training auf mehreren Maschinen, einschließlich AWS-, GCE-, Azure- und Yarn-Clustern. Außerdem kann es in Flink, Spark und andere Cloud-Datenflusssysteme integriert werden.
cuML ist eine Suite von Bibliotheken, die Algorithmen für maschinelles Lernen und mathematische Grundfunktionen implementieren, die kompatible APIs mit anderen RAPIDS-Projekten teilen. Mit cuML können Datenwissenschaftler, Forscher und Softwareentwickler herkömmliche tabellarische ML-Aufgaben auf GPUs ausführen, ohne sich mit den Details der CUDA-Programmierung befassen zu müssen. In den meisten Fällen stimmt die Python-API von cuML mit der API von scikit-learn überein.
Emu ist eine GPGPU-Bibliothek für Rust mit Schwerpunkt auf Portabilität, Modularität und Leistung. Es handelt sich um eine CUDA-artige rechenspezifische Abstraktion über WebGPU, die spezifische Funktionen bereitstellt, damit sich WebGPU eher wie CUDA anfühlt.
Scalene ist ein leistungsstarker CPU-, GPU- und Speicherprofiler für Python, der eine Reihe von Dingen kann, die andere Python-Profiler nicht können und können. Es läuft um Größenordnungen schneller als viele andere Profiler und liefert gleichzeitig weitaus detailliertere Informationen.
MLpack ist eine schnelle, flexible C++-Bibliothek für maschinelles Lernen, die in C++ geschrieben ist und auf der linearen Algebra-Bibliothek Armadillo, der numerischen Optimierungsbibliothek ensmallen und Teilen von Boost basiert.
Netron ist ein Viewer für Modelle für neuronale Netze, Deep Learning und maschinelles Lernen. Es unterstützt ONNX, TensorFlow Lite, Caffe, Keras, Darknet, PaddlePaddle, ncnn, MNN, Core ML, RKNN, MXNet, MindSpore Lite, TNN, Barracuda, Tengine, CNTK, TensorFlow.js, Caffe2 und UFF.
Lightning ist ein Tool, das PyTorch-Modelle erstellt und trainiert und sie mithilfe von Lightning-App-Vorlagen mit dem ML-Lebenszyklus verbindet, ohne sich um DIY-Infrastruktur, Kostenmanagement, Skalierung usw. kümmern zu müssen.
OpenNN ist eine Open-Source-Bibliothek für neuronale Netze für maschinelles Lernen. Es enthält hochentwickelte Algorithmen und Dienstprogramme für den Umgang mit vielen Lösungen der künstlichen Intelligenz.
H20 ist eine KI-Cloud-Plattform, die komplexe Geschäftsprobleme löst und die Entdeckung neuer Ideen beschleunigt – mit Ergebnissen, die Sie verstehen und denen Sie vertrauen können.
Gensim ist eine Python-Bibliothek zur Themenmodellierung, Dokumentindizierung und Ähnlichkeitssuche mit großen Korpora. Zielgruppe ist die Community für die Verarbeitung natürlicher Sprache (NLP) und den Informationsabruf (IR).
llama.cpp ist eine Portierung des LLaMA-Modells von Facebook in C/C++.
hmmlearn ist eine Reihe von Algorithmen für unbeaufsichtigtes Lernen und Inferenz von Hidden-Markov-Modellen.
Nextjournal ist ein Notizbuch für reproduzierbare Recherche. Es führt alles aus, was Sie in einen Docker-Container einfügen können. Verbessern Sie Ihren Workflow mit mehrsprachigen Notizbüchern, automatischer Versionierung und Zusammenarbeit in Echtzeit. Sparen Sie Zeit und Geld mit der On-Demand-Bereitstellung, einschließlich GPU-Unterstützung.
IPython bietet eine umfangreiche Architektur für interaktives Computing mit:
Veles ist eine verteilte Plattform für die schnelle Entwicklung von Deep-Learning-Anwendungen, die derzeit von Samsung entwickelt wird.
DyNet ist eine neuronale Netzwerkbibliothek, die von der Carnegie Mellon University und vielen anderen entwickelt wurde. Es ist in C++ geschrieben (mit Bindungen in Python) und so konzipiert, dass es sowohl auf der CPU als auch auf der GPU effizient läuft und gut mit Netzwerken funktioniert, deren dynamische Strukturen sich für jede Trainingsinstanz ändern. Diese Art von Netzwerken ist besonders wichtig bei der Verarbeitung natürlicher Sprache, und DyNet wurde zum Aufbau hochmoderner Systeme für syntaktisches Parsen, maschinelle Übersetzung, morphologische Flexion und viele andere Anwendungsbereiche verwendet.
Ray ist ein einheitliches Framework zur Skalierung von KI- und Python-Anwendungen. Es besteht aus einer verteilten Kernlaufzeit und einem Toolkit von Bibliotheken (Ray AIR) zur Beschleunigung von ML-Workloads.
whisper.cpp ist eine leistungsstarke Inferenz des automatischen Spracherkennungsmodells (ASR) Whisper von OpenAI.
ChatGPT Plus ist ein Pilotabonnement ( 20 $/Monat ) für ChatGPT, eine Konversations-KI, die mit Ihnen chatten, Folgefragen beantworten und falsche Annahmen in Frage stellen kann.
Auto-GPT ist ein „KI-Agent“, der ein Ziel in natürlicher Sprache vorgibt und versuchen kann, dieses zu erreichen, indem er es in Unteraufgaben aufteilt und das Internet und andere Tools in einer automatischen Schleife nutzt. Es nutzt die GPT-4- oder GPT-3.5-APIs von OpenAI und gehört zu den ersten Beispielen einer Anwendung, die GPT-4 zur Ausführung autonomer Aufgaben verwendet.
Chatbot UI von mckaywrigley ist ein erweitertes Chatbot-Kit für die Chat-Modelle von OpenAI, das auf Chatbot UI Lite mit Next.js, TypeScript und Tailwind CSS aufbaut. Diese Version der ChatBot-Benutzeroberfläche unterstützt sowohl GPT-3.5- als auch GPT-4-Modelle. Gespräche werden lokal in Ihrem Browser gespeichert. Sie können Konversationen exportieren und importieren, um sich vor Datenverlust zu schützen. Sehen Sie sich eine Demo an.
Chatbot UI Lite von mckaywrigley ist ein einfaches Chatbot-Starterkit für das Chat-Modell von OpenAI mit Next.js, TypeScript und Tailwind CSS. Sehen Sie sich eine Demo an.
MiniGPT-4 ist ein verbessertes visuelles Sprachverständnis mit fortschrittlichen großen Sprachmodellen.
GPT4All ist ein Ökosystem von Open-Source-Chatbots, die auf einer riesigen Sammlung sauberer Assistentendaten, einschließlich Code, Geschichten und Dialogen, basierend auf LLaMa, trainiert werden.
GPT4All UI ist eine Flask-Webanwendung, die eine Chat-Benutzeroberfläche für die Interaktion mit dem GPT4All-Chatbot bereitstellt.
Alpaca.cpp ist ein schnelles ChatGPT-ähnliches Modell lokal auf Ihrem Gerät. Es kombiniert das LLaMA-Grundmodell mit einer offenen Reproduktion von Stanford Alpaca, einer Feinabstimmung des Basismodells, um Anweisungen zu befolgen (ähnlich dem RLHF, das zum Trainieren von ChatGPT verwendet wird) und einer Reihe von Modifikationen an llama.cpp, um eine Chat-Schnittstelle hinzuzufügen.
llama.cpp ist eine Portierung des LLaMA-Modells von Facebook in C/C++.
OpenPlayground ist ein Spielplatz zum lokalen Ausführen von ChatGPT-ähnlichen Modellen auf Ihrem Gerät.
Vicuna ist ein Open-Source-Chatbot, der durch die Feinabstimmung von LLaMA trainiert wurde. Es erreicht offenbar eine Chatgpt-Qualität von mehr als 90 % und die Schulung kostet 300 US-Dollar.
Yeagar ai ist ein Langchain-Agent-Ersteller, der Ihnen dabei helfen soll, KI-gestützte Agents ganz einfach zu erstellen, zu prototypisieren und bereitzustellen.
Vicuna entsteht durch die Feinabstimmung eines LLaMA-Basismodells unter Verwendung von etwa 70.000 von Benutzern geteilten Konversationen, die von ShareGPT.com mit öffentlichen APIs gesammelt wurden. Um die Datenqualität sicherzustellen, wird der HTML-Code wieder in Markdown konvertiert und einige ungeeignete oder minderwertige Beispiele herausgefiltert.
ShareGPT ist ein Ort, an dem Sie Ihre wildesten ChatGPT-Gespräche mit einem Klick teilen können. Bisher wurden 198.404 Gespräche geteilt.
FastChat ist eine offene Plattform zum Trainieren, Bereitstellen und Bewerten großer, auf Sprachmodellen basierender Chatbots.
Haystack ist ein Open-Source-NLP-Framework zur Interaktion mit Ihren Daten mithilfe von Transformer-Modellen und LLMs (GPT-4, ChatGPT und ähnliche). Es bietet produktionsbereite Tools zum schnellen Erstellen komplexer Anwendungen für Entscheidungsfindung, Fragebeantwortung, semantische Suche, Textgenerierung und mehr.
StableLM (Stability AI Language Models) ist eine StableLM-Reihe von Sprachmodellen und wird kontinuierlich mit neuen Prüfpunkten aktualisiert.
Databricks‘ Dolly ist ein anweisungenfolgendes, großes Sprachmodell, das auf der Databricks-Plattform für maschinelles Lernen trainiert wurde und für die kommerzielle Nutzung lizenziert ist.
GPTCach ist eine Bibliothek zum Erstellen eines semantischen Caches für LLM-Abfragen.
AlaC ist ein Infrastructure-as-Code-Generator für künstliche Intelligenz.
Adrenaline ist ein Tool, mit dem Sie mit Ihrer Codebasis kommunizieren können. Es basiert auf statischer Analyse, Vektorsuche und großen Sprachmodellen.
OpenAssistant ist ein chatbasierter Assistent, der Aufgaben versteht, mit Drittsystemen interagieren kann und dazu dynamisch Informationen abruft.
DoctorGPT ist eine leichte, eigenständige Binärdatei, die Ihre Anwendungsprotokolle auf Probleme überwacht und diese diagnostiziert.
HttpGPT ist ein Unreal Engine 5-Plugin, das die Integration mit den GPT-basierten Diensten von OpenAI (ChatGPT und DALL-E) durch asynchrone REST-Anfragen erleichtert und Entwicklern die Kommunikation mit diesen Diensten erleichtert. Es enthält außerdem Editor-Tools zur Integration der Chat-GPT- und DALL-E-Bildgenerierung direkt in die Engine.
PaLM 2 ist ein großes Sprachmodell der nächsten Generation, das auf Googles Erbe bahnbrechender Forschung im Bereich maschinelles Lernen und verantwortungsvolle KI aufbaut. Es umfasst fortgeschrittene Denkaufgaben, einschließlich Code und Mathematik, Klassifizierung und Beantwortung von Fragen, Übersetzung und Mehrsprachigkeit sowie die Generierung natürlicher Sprache, die besser ist als unsere vorherigen hochmodernen LLMs.
Med-PaLM ist ein großes Sprachmodell (LLM), das qualitativ hochwertige Antworten auf medizinische Fragen liefern soll. Es nutzt die Leistungsfähigkeit der großen Sprachmodelle von Google, die wir mit einer Reihe sorgfältig zusammengestellter Demonstrationen medizinischer Experten auf den medizinischen Bereich ausgerichtet haben.
Sec-PaLM ist ein großes Sprachmodell (LLM), das die Fähigkeit beschleunigt, Menschen zu helfen, die für die Sicherheit ihrer Organisationen verantwortlich sind. Diese neuen Modelle bieten den Menschen nicht nur eine natürlichere und kreativere Möglichkeit, Sicherheit zu verstehen und zu verwalten.
Zurück nach oben
Zurück nach oben
Zurück nach oben
Localai ist eine selbst gehostete, gemeinschaftsgetriebene örtliche OpenAI-kompatible API. Drop-In-Austausch für OpenAI-Running LLMs auf Hardware für Verbraucherqualität ohne GPU erforderlich. Es ist eine API, um GGML-kompatible Modelle auszuführen: Lama, Gpt4all, RWKV, Whisper, Vicuna, Koala, GPT4all-J, Cerebras, Falcon, Dolly, StarCoder und viele andere.
llama.cpp ist ein Port des Lama -Modells von Facebook in C/C ++.
Ollama ist ein Werkzeug, um mit LLAMA 2 und anderen großen Sprachmodellen lokal zu laufen.
Localai ist eine selbst gehostete, gemeinschaftsgetriebene örtliche OpenAI-kompatible API. Drop-In-Austausch für OpenAI-Running LLMs auf Hardware für Verbraucherqualität ohne GPU erforderlich. Es ist eine API, um GGML-kompatible Modelle auszuführen: Lama, Gpt4all, RWKV, Whisper, Vicuna, Koala, GPT4all-J, Cerebras, Falcon, Dolly, StarCoder und viele andere.
Serge ist eine Weboberfläche zum Chatten mit Alpaka über Lama.cpp. Vollständig selbst gehostet und dockiert, mit einer einfach zu verwendenden API.
Openllm ist eine offene Plattform für den Betrieb von Großsprachemodellen (LLMs) in der Produktion. Feinabstimmung, servieren, bereitstellen und überwachen Sie alle LLMs mühelos.
Lama-gpt ist ein selbstwertiger, offline-Chatgpt-ähnlicher Chatbot. Angetrieben von Lama 2. 100% privat, ohne dass Daten Ihr Gerät verlassen.
LLAMA2 Webui ist ein Tool, um Lama 2 lokal mit Gradio UI an GPU oder CPU von überall (Linux/Windows/Mac) auszuführen. Verwenden Sie llama2-wrapper
als Ihr lokales Lama2-Backend für Generativmakler/Apps.
LLAMA2.c ist ein Werkzeug, um die LLM-Architektur LLA 2 LLM in Pytorch zu trainieren und sie dann mit einer einfachen 700-Linie-C-Datei (Run.C) zu inferenzen.
Alpaca.cpp ist ein schnelles Chatgpt-ähnliches Modell vor Ort auf Ihrem Gerät. Es kombiniert das Modell der LLAMA Foundation mit einer offenen Reproduktion von Stanford Alpaca, einem Feinabstimmung des Basismodells, um Anweisungen zu befolgen (ähnlich wie die RLHF, die zum Training von Chatgpt verwendet wurde) und eine Reihe von Modifikationen an llama.cpp, um eine Chat-Schnittstelle hinzuzufügen.
GPT4ALL ist ein Ökosystem von Open-Source-Chatbots, die auf massiven Sammlungen sauberer Assistenten geschult wurden, darunter Code, Geschichten und Dialoge, die auf Lama basieren.
MiniGPT-4 ist ein verbessertes Verständnis für die Visionsprachen mit fortgeschrittenen großen Sprachmodellen
Lollms Webui ist ein Hub für LLM -Modelle (großes Sprachmodell). Ziel ist es, eine benutzerfreundliche Schnittstelle zur Verfügung zu stellen, um verschiedene LLM-Modelle für eine Vielzahl von Aufgaben zuzugreifen und zu verwenden. Unabhängig davon, ob Sie Hilfe beim Schreiben, Codieren, Organisieren von Daten, Generieren von Bildern oder beim Suche nach Antworten auf Ihre Fragen benötigen.
LM Studio ist ein Tool zum Entdecken, Herunterladen und Ausführen lokaler LLMs.
Die Gradio Web UI ist ein Werkzeug für Großsprachmodelle. Unterstützt Transformers, GPTQ, LLAMA.CPP (GGML/GGUF), LLAMA -Modelle.
OpenPlayground ist ein Spiel für das Ausführen von Chatgpt-ähnlichen Modellen lokal auf Ihrem Gerät.
Vicuna ist ein Open -Source -Chatbot, das von Fine Tuning Lama trainiert wurde. Es erreicht anscheinend mehr als 90% der Qualität von ChatGPT und kostet 300 US -Dollar für den Training.
Yeagar AI ist ein Schöpfer von Langchain Agent, der Ihnen dabei helfen soll, mit Leichtigkeit von AI-betriebenen Agenten aufzubauen, zu prototypen und bereitzustellen.
KoboldCPP ist eine benutzerfreundliche AI-Text-Generation-Software für GGML-Modelle. Es ist ein einzelnes Selbst, das aus Concedo verteilt ist, das lama.cpp aufbaut, und einen vielseitigen Kobold -API -Endpunkt, zusätzliche Formatunterstützung, Rückwärtskompatibilität sowie eine schicke Benutzeroberfläche mit anhaltenden Geschichten, Bearbeitung von Tools, Speichern, Speicher, Memory, Welt hinzu Info, Anmerkung des Autors, Charaktere und Szenarien.
Zurück nach oben
Fuzzy Logic ist ein heuristischer Ansatz, der eine fortgeschrittenere Entscheidungsbaumverarbeitung und eine bessere Integration in die Regeln basierende Programmierung ermöglicht.
Architektur eines unscharfen Logiksystems. Quelle: ResearchGate
Support Vector Machine (SVM) ist ein überwachtes maschinelles Lernmodell, das Klassifizierungsalgorithmen für Klassifizierungsprobleme mit zwei Gruppen verwendet.
Unterstützen Sie die Vektormaschine (SVM). Quelle: openClipart
Neuronale Netze sind eine Untergruppe des maschinellen Lernens und sind das Herzstück von Deep -Lern -Algorithmen. Der Name/die Struktur wird von dem menschlichen Gehirn inspiriert, der den Prozess kopiert, den biologische Neuronen/Knoten einander signalisieren.
Tiefes neuronales Netzwerk. Quelle: IBM
Faltungsnetzwerke (R-CNN) ist ein Objekterkennungsalgorithmus, der zuerst das Bild zum Finden potenzieller relevanter Begrenzungsboxen segmentiert und dann den Erkennungsalgorithmus ausführt, um die meisten wahrscheinlichen Objekte in diesen Begrenzungsboxen zu finden.
Faltungsnetzwerke. Quelle: CS231N
Recurrent Neural Networks (RNNs) ist eine Art künstlicher neuronaler Netzwerk, das sequentielle Daten- oder Zeitreihendaten verwendet.
Wiederkehrende neuronale Netzwerke. Quelle: Slideteam
Mehrschichtige Perzeptrons (MLPs) ist mehrschichtige neuronale Netzwerke, die aus mehreren Wahrnehmungsschichten mit einer Schwellenwertaktivierung bestehen.
Mehrschichtige Perzeptrons. Quelle: Deepai
Zufälliger Wald ist ein häufig verwendeter Algorithmus für maschinelles Lernen, der die Ausgabe mehrerer Entscheidungsbäume kombiniert, um ein einzelnes Ergebnis zu erzielen. Ein Entscheidungsbaum in einem Wald kann nicht zur Probenahme und damit für die Vorhersageauswahl beschnitten werden. Seine Benutzerfreundlichkeit und Flexibilität haben seine Einführung angeheizt, da sie sowohl Klassifizierungs- als auch Regressionsprobleme behandelt.
Zufallswald. Quelle: Wikimedia
Entscheidungsbäume sind baumstrukturierte Modelle für die Klassifizierung und Regression.
** Entscheidungsbäume. Quelle: CMU
Naive Bayes ist ein Algorithmus für maschinelles Lernen, der gelöste CALSSIFIFIZATION -Probleme verwendet wird. Es basiert auf der Anwendung von Bayes 'Theorem mit starken Unabhängigkeitsannahmen zwischen den Merkmalen.
Bayes 'Theorem. Quelle: Mathisfun
Zurück nach oben
Pytorch ist ein Open-Source-Deep-Lern-Rahmen, der den Weg von der Forschung zur Produktion beschleunigt, die für Anwendungen wie Computer Vision und natürliche Sprachverarbeitung verwendet wird. Pytorch wird vom AI -Forschungslabor von Facebook entwickelt.
Erste Schritte mit Pytorch
Pytorch -Dokumentation
Pytorch -Diskussionsforum
Top -Pytorch -Kurse online | Coursera
Top -Pytorch -Kurse online | Udemy
Lernen Sie Pytorch mit Online -Kursen und Klassen | edX
Pytorch -Grundlagen - Lernen | Microsoft Docs
Intro zum tiefgreifenden Lernen mit Pytorch | Udacity
Pytorch -Entwicklung im Visual Studio Code
Pytorch on Azure - Deep Learning mit Pytorch | Microsoft Azure
Pytorch - Azure Databricks | Microsoft Docs
Tiefes Lernen mit Pytorch | Amazon Web Services (AWS)
Erste Schritte mit Pytorch auf Google Cloud
Pytorch Mobile ist ein End-to-End-ML-Workflow vom Training bis zur Bereitstellung für iOS- und Android-Mobilgeräte.
Torchscript ist eine Möglichkeit, serialisierbare und optimierbare Modelle aus Pytorch -Code zu erstellen. Auf diese Weise kann jedes Torchscript -Programm aus einem Python -Prozess gespeichert und in einem Prozess geladen werden, bei dem keine Python -Abhängigkeit vorhanden ist.
TorchServe ist ein flexibles und einfach zu verwendendes Werkzeug zum Servieren von Pytorch -Modellen.
Keras ist eine hochrangige neuronale Netzwerke-API, die in Python geschrieben wurde und in der Lage ist, auf Tensorflow, CNTK oder Theano zu laufen. Es ist in der Lage, auf Tensorflow, Microsoft Cognitive Toolkit, R, Theano oder Plaidml zu laufen.
Die OnNX-Laufzeit ist eine plattformübergreifende, leistungsstarke ML-Inferenz- und Trainingsbeschleunigerin. Es unterstützt Modelle aus Deep-Learning-Frameworks wie Pytorch und TensorFlow/Keras sowie klassischen Bibliotheken für maschinelles Lernen wie Scikit-Learn, LightGBM, Xgboost usw.
Kornia ist eine differenzierbare Computer -Vision -Bibliothek, die aus einer Reihe von Routinen und differenzierbaren Modulen besteht, um generische CV -Probleme (Computer Vision) zu lösen.
Pytorch-NLP ist eine Bibliothek für die Verarbeitung natürlicher Sprache (NLP) in Python. Es wurde mit den neuesten Forschungsarbeiten aufgebaut und wurde vom ersten Tag an zur Unterstützung Rapid Prototyping entwickelt. Pytorch-NLP verfügt über ausgebildete Einbettungen, Sampler, Datensatzlader, Metriken, neuronale Netzwerkmodule und Textcodierer.
Ignite ist eine hochrangige Bibliothek, die bei der Ausbildung und Bewertung neuronaler Netzwerke in Pytorch flexibel und transparent hilft.
Hummingbird ist eine Bibliothek zum Zusammenstellen geschulter traditioneller ML -Modelle in Tensorberechnungen. Es ermöglicht Benutzern, neuronale Netzwerk -Frameworks (wie Pytorch) nahtlos zu nutzen, um herkömmliche ML -Modelle zu beschleunigen.
Die Deep Graph Library (DGL) ist ein Python -Paket, das für die einfache Implementierung der Grafik -Netzwerkmodellfamilie neben Pytorch und anderen Frameworks erstellt wurde.
Tensory ist eine API auf hoher Ebene für Tensormethoden und tief geprägte neuronale Netzwerke in Python, die das Tensor -Lernen einfach machen soll.
GPYTORCH ist eine mit Pytorch implementierte Gaußsche Prozessbibliothek, die zum Erstellen skalierbarer, flexibler Gaußscher Prozessmodelle entwickelt wurde.
Poutyne ist ein kerasähnliches Rahmen für Pytorch und verarbeitet einen Großteil des Code, der für die Ausbildung neuronaler Netzwerke benötigt wird.
Forte ist ein Toolkit zum Erstellen von NLP-Pipelines mit komponierbaren Komponenten, bequemen Datenschnittstellen und Kreuzungsinteraktion.
TorchMetrics ist ein maschinelles Lernen für verteilte, skalierbare Pytorch -Anwendungen.
Captum ist eine Open -Source -Bibliothek für Modellinterpretierbarkeit, die auf Pytorch basiert.
Transformator ist eine modernste natürliche Sprachverarbeitung für Pytorch, Tensorflow und Jax.
Hydra ist ein Rahmen für die elegant konfigurierte Konfiguration komplexer Anwendungen.
Accelerate ist eine einfache Möglichkeit, Pytorch-Modelle mit Multi-GPU, TPU und gemischter Präzision zu trainieren und zu verwenden.
Ray ist ein schnelles und einfaches Framework zum Erstellen und Ausführen verteilter Anwendungen.
Parlai ist eine einheitliche Plattform zum Teilen, Training und Bewertung von Dialogmodellen über viele Aufgaben.
Pytorchvideo ist eine Deep -Learning -Bibliothek für das Verständnis von Videoverständnissen. Moderiert verschiedene Video-ausgerichtete Modelle, Datensätze, Trainingspipelines und mehr.
Opacus ist eine Bibliothek, die es ermöglicht, Pytorch -Modelle mit unterschiedlicher Privatsphäre zu schulen.
Pytorch Lightning ist eine Keras-ähnliche ML-Bibliothek für Pytorch. Es überlässt Ihnen eine Kerntraining- und Validierungslogik und automatisiert den Rest.
Die geometrische Pytorch -Temporal ist eine zeitliche (dynamische) Erweiterungsbibliothek für pytorch geometrische.
PytOrch Geometric ist eine Bibliothek für tiefes Lernen für unregelmäßige Eingabedaten wie Diagramme, Punktwolken und Verteiler.
Raster Vision ist ein Open -Source -Rahmen für tiefes Lernen auf Satelliten- und Luftbildern.
Crypten ist ein Rahmen für die Privatsphäre, die ML aufbewahrt. Sein Ziel ist es, sichere Computertechniken für ML -Praktiker zugänglich zu machen.
Optuna ist ein Open -Source -Hyperparameter -Optimierungsrahmen, um die Hyperparameter -Suche zu automatisieren.
Pyro ist eine universelle probabilistische Programmiersprache (PPL), die in Python geschrieben und von Pytorch im Backend unterstützt wird.
Albumentations ist eine schnelle und erweiterbare Bildvergrößerungsbibliothek für verschiedene CV -Aufgaben wie Klassifizierung, Segmentierung, Objekterkennung und Posenschätzung.
Skorch ist eine hochrangige Bibliothek für Pytorch, die eine umfassende Kompatibilität für die SCIKIT-LARN bietet.
MMF ist ein modularer Rahmen für die multimodale Forschung von Vision & Language von Facebook AI Research (Fair).
AdaptDL ist ein ressourcenadaptiver Deep-Learning-Trainings- und Planungsrahmen.
Polyaxon ist eine Plattform zum Aufbau, Training und Überwachung großer Deep-Learning-Anwendungen.
Textbrewer ist ein pytorchbasiertes Wissensdestillations-Toolkit für die Verarbeitung natürlicher Sprache
Advertorch ist eine Toolbox für die Forschung für kontroverse Robustheit. Es enthält Module zur Erzeugung von widersprüchlichen Beispielen und zur Verteidigung gegen Angriffe.
Nemo ist ein AA -Toolkit für die Konversations -KI.
Clinicadl ist ein Rahmen für die reproduzierbare Klassifizierung der Alzheimer -Krankheit
Stabile Baseline3 (SB3) ist eine Reihe zuverlässiger Implementierungen von Verstärkungslernen -Algorithmen in Pytorch.
Torchio ist eine Reihe von Tools, um 3D -medizinische Bilder in Pytorch geschrieben zu lesen, vorzuproben, zu probieren, zu erweitern und zu schreiben.
Pysyft ist eine Python -Bibliothek für verschlüsseltes, Datenschutz, um tiefes Lernen zu erhalten.
Flair ist ein sehr einfacher Rahmen für die modernste natürliche Sprachverarbeitung (NLP).
Glow ist ein ML -Compiler, der die Leistung von Deep -Learning -Frameworks auf verschiedenen Hardware -Plattformen beschleunigt.
Fairscale ist eine Pytorch -Erweiterungsbibliothek für Hochleistungen und ein großes Training auf einem oder mehreren Maschinen/Knoten.
Monai ist ein Deep-Learning-Rahmen, der domänenoptimierte grundlegende Fähigkeiten für die Entwicklung von Workflows für die Bildung von Gesundheitsbildern bietet.
PFRL ist eine tiefe Bibliothek für Verstärkung, die verschiedene hochmoderne tiefe Verstärkungsalgorithmen in Python mit Pytorch implementiert.
Einops ist ein flexibler und leistungsstarker Tensor -Operationen für lesbare und zuverlässige Code.
Pytorch3d ist eine Deep -Learning -Bibliothek, die effiziente, wiederverwendbare Komponenten für die 3D -Computer -Vision -Forschung mit Pytorch bietet.
Ensemble Pytorch ist ein einheitliches Ensemble -Rahmen für Pytorch, um die Leistung und Robustheit Ihres Deep -Lern -Modells zu verbessern.
Leicht ein Computer-Vision-Framework für das selbstbewertete Lernen.
Höher ist eine Bibliothek, die die Implementierung von willkürlich komplexen Gradienten-basierten Meta-Learning-Algorithmen und verschachtelten Optimierungsschleifen mit nahezu Vanilla-Pytorch erleichtert.
Horovod ist eine verteilte Trainingsbibliothek für Deep -Learning -Frameworks. Horovod zielt darauf ab, verteilte DL schnell und einfach zu bedienen.
Pennylane ist eine Bibliothek für Quanten-ML, automatische Differenzierung und Optimierung von hybriden quantenklassischen Berechnungen.
DETECTRON2 ist die Plattform der nächsten Generation von Fair für die Objekterkennung und -segmentierung.
Fastai ist eine Bibliothek, die das Training Fast und genaue neuronale Netze mit modernen Best Practices vereinfacht.
Zurück nach oben
TensorFlow ist eine End-to-End-Open-Source-Plattform für maschinelles Lernen. Es verfügt über ein umfassendes, flexibles Ökosystem aus Tools, Bibliotheken und Community-Ressourcen, mit dem die Forscher die hochmoderne in ML und Entwickler problemlos ML-Antriebsanwendungen erstellen und bereitstellen können.
Erste Schritte mit Tensorflow
Tensorflow -Tutorials
TensorFlow Developer Certificate | TensorFlow
Tensorflow Community
Tensorflow -Modelle und Datensätze
Tensorflow Cloud
Ausbildung für maschinelles Lernen | TensorFlow
Top TensorFlow -Kurse online | Coursera
Top TensorFlow -Kurse online | Udemy
Tiefes Lernen mit Tensorflow | Udemy
Tiefes Lernen mit Tensorflow | edX
Intro in TensorFlow für Deep Learning | Udacity
Intro to TensorFlow: Crashkurs für maschinelles Lernen | Google -Entwickler
Trainieren und bereitstellen ein TensorFlow -Modell - Azure Machine Learning
Wenden Sie maschinelle Lernmodelle in Azurefunktionen mit Python und Tensorflow | an | Microsoft Azure
Tiefes Lernen mit Tensorflow | Amazon Web Services (AWS)
Tensorflow - Amazon EMR | AWS -Dokumentation
TensorFlow Enterprise | Google Cloud
TensorFlow Lite ist ein Open -Source -Deep -Lern -Framework für die Bereitstellung maschineller Lernmodelle auf mobilen und IoT -Geräten.
TensorFlow.js ist eine JavaScript -Bibliothek, mit der Sie ML -Modelle in JavaScript entwickeln oder ausführen können und ML direkt auf der Browser -Clientseite, Serverseite über node.js, mobile native über React Native, Desktop Native über Elektron und sogar auf IoT verwenden können Geräte über node.js auf Raspberry pi.
TensorFlow_Macos ist eine von Mac-optimierte Version von TensorFlow- und TensorFlow-Addons für MacOS 11.0+, die mit dem ML-Rechens-Framework von Apple beschleunigt wurden.
Google Colaboratory ist eine kostenlose Jupyter -Notebook -Umgebung, für die kein Setup erforderlich ist und ausschließlich in der Cloud ausgeführt wird, sodass Sie den TensorFlow -Code in Ihrem Browser mit einem einzigen Klick ausführen können.
Was-wäre-wenn-Tool ist ein Tool für die codfreie Prüfung von maschinellen Lernmodellen, die für das Verständnis von Modellen, das Debuggen und die Fairness nützlich sind. Erhältlich in Tensorboard und Jupyter- oder Colab -Notizbüchern.
Tensorboard ist eine Reihe von Visualisierungstools, um TensorFlow -Programme zu verstehen, zu debuggen und zu optimieren.
Keras ist eine hochrangige neuronale Netzwerke-API, die in Python geschrieben wurde und in der Lage ist, auf Tensorflow, CNTK oder Theano zu laufen. Es ist in der Lage, auf Tensorflow, Microsoft Cognitive Toolkit, R, Theano oder Plaidml zu laufen.
XLA (beschleunigte lineare Algebra) ist ein domänenspezifischer Compiler für lineare Algebra, der Tensorflow-Berechnungen optimiert. Die Ergebnisse sind Verbesserungen in Geschwindigkeit, Speichernutzung und Portabilität auf Server- und Mobilfunkplattformen.
ML Perf ist eine breite ML -Benchmark -Suite zur Messung der Leistung von ML -Software -Frameworks, ML -Hardware -Beschleunigern und ML -Cloud -Plattformen.
TensorFlow Playground ist eine Entwicklungsumgebung, die mit einem neuronalen Netzwerk in Ihrem Browser herumbastelt.
TPU Research Cloud (TRC) ist ein Programm ermöglicht es Forschern, den Zugriff auf eine Cluster von mehr als 1.000 Cloud -TPUs ohne Ladung zu beantragen, um die nächste Welle von Forschungsbräumen zu beschleunigen.
MLIR ist eine neue Zwischendarstellung und ein Compiler -Rahmen.
Das Gitter ist eine Bibliothek für flexible, kontrollierte und interpretierbare ML-Lösungen mit Gewohnheitsverhältnissen.
TensorFlow Hub ist eine Bibliothek für wiederverwendbares maschinelles Lernen. Laden Sie die neuesten geschulten Modelle mit einer minimalen Menge an Code herunter und verwenden Sie sie wieder.
TensorFlow Cloud ist eine Bibliothek, in der Ihre lokale Umgebung mit Google Cloud verbunden wird.
Das TensorFlow -Modelloptimierungs -Toolkit ist eine Reihe von Tools zur Optimierung von ML -Modellen für die Bereitstellung und Ausführung.
TensorFlow Empfehlungen sind eine Bibliothek zum Erstellen von Empfehlungssystemmodellen.
Der TensorFlow-Text ist eine Sammlung von Klassen und OPs im Zusammenhang mit Text und NLP, die mit TensorFlow 2 verwendet werden können.
TensorFlow Graphics ist eine Bibliothek von Computergrafikfunktionen, die von Kameras, Lichtern und Materialien bis hin zu Renderern reichen.
TensorFlow Federated ist ein Open -Source -Framework für maschinelles Lernen und andere Berechnungen zu dezentralen Daten.
Die Tensorflow -Wahrscheinlichkeit ist eine Bibliothek für probabilistisches Denken und statistische Analyse.
Tensor2tensor ist eine Bibliothek von Deep -Learning -Modellen und Datensätzen, mit denen Deep -Lernen zugänglicher und ml -Forschung zugänglicher wird.
TensorFlow Privacy ist eine Python -Bibliothek, die Implementierungen von Tensorflow -Optimierern für die Schulung maschineller Lernmodelle mit unterschiedlicher Privatsphäre umfasst.
TensorFlow-Ranking ist eine Bibliothek für Lern-Rang-Techniken (Lern-to-Rank) auf der Tensorflow-Plattform.
Tensorflow Agents ist eine Bibliothek zum Verstärkungslernen im Tensorflow.
TensorFlow Addons ist ein Repository von Beiträgen, die gut etablierten API-Mustern entsprechen, aber neue Funktionen implementieren, die in Kernzensorflow nicht verfügbar sind, die von SIG-Addons aufrechterhalten werden. TensorFlow unterstützt nativ eine große Anzahl von Betreibern, Schichten, Metriken, Verlusten und Optimierern.
Die TensorFlow I/O ist ein Datensatz-, Streaming- und Dateisystemerweiterungen, der von SIG IO gepflegt wird.
Tensorflow Quantum ist eine Bibliothek für maschinelles Lernen für maschinelles Lernen für schnelle Prototypen von hybrid-quantenklassischen ML-Modellen.
Dopamin ist ein Forschungsrahmen für schnelle Prototypen von Verstärkungslernenalgorithmen.
TRFL ist eine Bibliothek für Verstärkungslernbausteine, die von DeepMind erstellt wurden.
Mesh Tensorflow ist eine Sprache für verteiltes Deep -Lernen, das eine breite Klasse verteilter Tensorberechnungen angeben kann.
Raggedtensors ist eine API, die es einfach macht, Daten mit ungleichmäßiger Form zu speichern und zu manipulieren, einschließlich Text (Wörter, Sätze, Zeichen) und Chargen mit variabler Länge.
Unicode OPS ist eine API, die die Arbeit mit Unicode -Text direkt im Tensorflow unterstützt.
Magenta ist ein Forschungsprojekt, das die Rolle des maschinellen Lernens im Prozess der Erstellung von Kunst und Musik untersucht.
Nucleus ist eine Bibliothek mit Python- und C ++ - Code, mit denen Daten in gemeinsamen Genomik -Dateiformaten wie SAM und VCF gelesen, geschrieben und analysiert werden können.
Sonett ist eine Bibliothek von DeepMind für den Bau neuronaler Netzwerke.
Neuronales strukturiertes Lernen ist ein Lernrahmen, um neuronale Netzwerke zu schulen, indem strukturierte Signale zusätzlich zu Eingaben genutzt werden.
Die Modellsanierung ist eine Bibliothek, mit der Modelle erstellt und trainiert, die den Benutzer von Benutzern, die sich aus zugrunde liegenden Leistungsverzerrungen ergeben, reduziert oder beseitigt.
Fairness-Indikatoren sind eine Bibliothek, die eine einfache Berechnung der allgemein identifizierten Fairness-Metriken für Binär- und Multiclas-Klassifizierer ermöglicht.
Decision Forests ist ein hochmoderner Algorithmen zum Training, Servieren und Interpretieren von Modellen, die Entscheidungswälder für Klassifizierung, Regression und Rangliste verwenden.
Zurück nach oben
Core ML ist ein Apple -Framework für die Integration von maschinellen Lernmodellen in Apps, die auf Apple -Geräten ausgeführt werden (einschließlich iOS, WatchOS, MacOS und TVOS). Core ML führt ein öffentliches Dateiformat (.mlmodel) für eine breite Reihe von ML -Methoden vor, darunter tiefe neuronale Netzwerke (sowohl Faltungs- als auch wiederkehrende), Baumsensembles mit Boosting und verallgemeinerte lineare Modelle. Modelle in diesem Format können direkt über Xcode in Apps integriert werden.
Einführung in den Kern -ML
Integration eines Kern -ML -Modells in Ihre App
Kern -ML -Modelle
Kern -ML -API -Referenz
Kern -ML -Spezifikation
Apple Developer -Foren für Core ML
Top Core ML -Kurse online | Udemy
Top Core ML -Kurse online | Coursera
IBM Watson Services für Kern ML | IBM
Generieren Sie Kern -ML -Assets mit IBM Maximo Visual Inspection | IBM
Core ML Tools ist ein Projekt, das unterstützende Tools für die Konvertierung, Bearbeitung und Validierung von ML -ML -Modellen für Kernml -ML enthält.
Create ML ist ein Tool, das neue Möglichkeiten für maschinelles Lernmodelle auf Ihrem Mac bietet. Es nimmt die Komplexität aus dem Modelltraining heraus, während sie leistungsstarke Kernmodelle erzeugt.
TensorFlow_Macos ist eine von Mac-optimierte Version von TensorFlow- und TensorFlow-Addons für MacOS 11.0+, die mit dem ML-Rechens-Framework von Apple beschleunigt wurden.
Apple Vision ist ein Rahmen, der die Erkennung von Gesichts- und Gesichtserkennung, Texterkennung, Barcode -Erkennung, Bildregistrierung und allgemeine Feature -Tracking ausführt. Das Vision ermöglicht auch die Verwendung von benutzerdefinierten Kern -ML -Modellen für Aufgaben wie Klassifizierung oder Objekterkennung.
Keras ist eine hochrangige neuronale Netzwerke-API, die in Python geschrieben wurde und in der Lage ist, auf Tensorflow, CNTK oder Theano zu laufen. Es ist in der Lage, auf Tensorflow, Microsoft Cognitive Toolkit, R, Theano oder Plaidml zu laufen.
XGBOOST ist eine optimierte verteilte Gradienten -Boosting -Bibliothek, die hocheffizient, flexibel und tragbar ist. Es implementiert Algorithmen für maschinelles Lernen im Rahmen des Gradienten -Boosting -Frameworks. XGBOOST bietet eine parallele Baumsteigerung (auch als GBDT, GBM bekannt), die viele Datenwissenschaftsprobleme schnell und genau löst. Es unterstützt verteilte Schulungen auf mehreren Maschinen, einschließlich AWS-, GCE-, Azure- und Garnclustern. Außerdem kann es in Flink-, Spark- und andere Cloud -Datenflow -Systeme integriert werden.
LIBSVM ist eine integrierte Software zur Support-Vektor-Klassifizierung (C-SVC, Nu-SVC), Regression (Epsilon-SVR, Nu-SVR) und Verteilungsschätzung (One-Class-SVM). Es unterstützt die Klassifizierung der Multi-Klassherkende.
Scikit-Learn ist ein einfaches und effizientes Tool für Data Mining und Datenanalyse. Es basiert auf Numpy, Scipy und Mathplotlib.
XCode enthält alles, was Entwickler benötigen, um großartige Anwendungen für Mac, iPhone, iPad, Apple TV und Apple Watch zu erstellen. Xcode bietet Entwicklern einen einheitlichen Workflow für das Design, Codieren, Testen und Debuggen von Benutzeroberflächen. XCode ist als universelle App entwickelt, die 100% nativ auf Intel-basierten CPUs und Apple Silicon betreibt. Es enthält ein einheitliches MacOS -SDK, das alle Frameworks, Compiler, Debugger und andere Tools enthält, die Sie benötigen, um Apps zu erstellen, die nativ auf Apple Silicon und der Intel X86_64 CPU ausgeführt werden.
Swiftui ist ein Benutzeroberflächen -Toolkit, das Ansichten, Steuerelemente und Layoutstrukturen zur Deklarierung der Benutzeroberfläche Ihrer App bietet. Das Swiftui -Framework bietet Event -Handler für die Bereitstellung von Taps, Gesten und anderen Eingabetypen für Ihre Anwendung.
UIKIT ist ein Framework, das die erforderliche Infrastruktur für Ihre iOS- oder TVOS -Apps bietet. Es bietet das Fenster und die Ansichtsarchitektur für die Implementierung Ihrer Schnittstelle, die Infrastruktur für die Ereignisbearbeitung für die Bereitstellung von Multi-Touchs und anderen Eingabearten in Ihre App sowie die Hauptauflaufschleife, die zur Verwaltung der Interaktionen des Benutzers, des Systems und Ihrer App erforderlich ist.
AppKit ist ein grafisches Benutzeroberfläche -Toolkit, das alle Objekte enthält, die Sie für die Implementierung der Benutzeroberfläche für eine MacOS Zeichnet auf dem Bildschirm, kommuniziert mit Hardware -Geräten und Bildschirmpuffern, löscht die Bereiche des Bildschirms vor dem Zeichnen und Clips -Ansichten.
Arkit ist ein Satz von Softwareentwicklungs-Tools, mit denen Entwickler Augmented-Reality-Apps für iOS erstellen können, die von Apple entwickelt wurden. Die neueste Version Arkit 3.5 nutzt das neue Lidar -Scanner- und Tiefenerkennungssystem auf iPad Pro (2020), um eine neue Generation von AR -Apps zu unterstützen, die die Szenengeometrie für das verstärkte Verständnis von Szenen und Objektverschluss verwenden.
RealityKit ist ein Framework zur Implementierung einer Hochleistungs-3D-Simulation und der Rendern mit Informationen, die vom Arkit-Framework bereitgestellt werden, um virtuelle Objekte nahtlos in die reale Welt zu integrieren.
SceneKit ist ein hochrangiges 3D-Grafik-Framework, mit dem Sie 3D-animierte Szenen und Effekte in Ihren iOS-Apps erstellen können.
Instruments ist ein leistungsstarkes und flexibles Tool zur Leistungsanalyse- und Test-Tool, das Teil des Xcode-Toolsatzes ist. Es soll Ihnen helfen, Ihre iOS, Watchos, TVOS und MacOS -Apps, -Prozesse und -geräte zu profilieren, um ihr Verhalten und ihre Leistung besser zu verstehen und zu optimieren.
Cocoapods ist ein Abhängigkeitsmanager für Swift- und Objective-C, der in Xcode-Projekten verwendet wird, indem die Abhängigkeiten für Ihr Projekt in einer einfachen Textdatei angegeben werden. Cocoapods löst dann die Abhängigkeiten zwischen Bibliotheken rekursiv auf, holt den Quellcode für alle Abhängigkeiten ab und erstellt und verwaltet einen Xcode -Arbeitsbereich, um Ihr Projekt zu erstellen.
Appcode überwacht ständig die Qualität Ihres Codes. Es warnt Sie vor Fehlern und Gerüchen und schlägt Schnellfixes vor, sie automatisch zu beheben. AppCode bietet zahlreiche Codeinspektionen für Objektive-C, Swift, C/C ++ und eine Reihe von Codeinspektionen für andere unterstützte Sprachen.
Zurück nach oben
Deep Learning ist eine Untergruppe des maschinellen Lernens, das im Wesentlichen ein neuronales Netzwerk mit drei oder mehr Schichten ist. Diese neuronalen Netzwerke versuchen jedoch, das Verhalten des menschlichen Gehirns zu simulieren, weit davon entfernt, seine Fähigkeiten zu entsprechen. Dies ermöglicht es den neuronalen Netzwerken, aus großen Datenmengen zu "lernen". Das Lernen kann beaufsichtigt, semi-überprüft oder unbeaufsichtigt werden.
Online -Kurse für Deep Learning | NVIDIA
Top Deep Learning -Kurse online | Coursera
Top Deep Learning -Kurse online | Udemy
Lernen Sie tiefes Lernen mit Online -Kursen und Lektionen | edX
Deep Learning Online -Kurs NanodeGree | Udacity
Maschinenlernkurs von Andrew Ng | Coursera
Maschinenbautechnik für Produktion (MLOPS) von Andrew Ng | Coursera
Data Science: Deep Learning und Neural Networks in Python | Udemy
Verständnis maschinelles Lernen mit Python | Pluralsight
Wie man über Algorithmen für maschinelles Lernen nachdenkt | Pluralsight
Deep Learning -Kurse | Stanford online
Deep Learning - UW Professional & Weiterbildung
Online -Kurse für Deep Learning | Harvard-Universität
Maschinelles Lernen für alle Kurse | DataCamp
Expertenkurs für künstliche Intelligenz: Platinum Edition | Udemy
Top künstliche Intelligenzkurse online | Coursera
Lernen Sie künstliche Intelligenz mit Online -Kursen und Lektionen | edX
Professioneller Zertifikat in Informatik für künstliche Intelligenz | edX
Künstliche Intelligenz Nanodegree -Programm
Künstliche Intelligenz (KI) Online -Kurse | Udacity
Intro zum Kurs für künstliche Intelligenz | Udacity
Edge KI für IoT -Entwickler Kurs | Udacity
Argumentation: Zielbäume und regelbasierte Expertensysteme | MIT openCourseware
Expertensysteme und angewandte künstliche Intelligenz
Autonome Systeme - Microsoft AI
Einführung in Microsoft Project Bonsai
Maschinenunterricht mit der Microsoft Autonomous Systems Plattform
Autonomes Training für maritime Systeme | AMC -Suche
Top autonome Autos Kurse online | Udemy
Angewandte Steuerungssysteme 1: Autonome Autos: Math + PID + MPC | Udemy
Lernen Sie autonome Robotik mit Online -Kursen und Lektionen | edX
Künstliche Intelligenz Nanodegree -Programm
Autonome Systeme Online -Kurse und -Programme | Udacity
Edge KI für IoT -Entwickler Kurs | Udacity
Autonome Systeme MOOC und kostenlose Online -Kurse | MOOC -Liste
Robotik und autonomes System Graduiertenprogramm | Standford online
Labor für mobile autonome Systeme | MIT openCourseware
Nvidia Cudnn ist eine GPU-beschleunigte Bibliothek von Primitiven für tiefe neuronale Netze. CUDNN bietet hochgestaltete Implementierungen für Standardroutinen wie Vorwärts- und Rückwärtsverfolgung, Pooling, Normalisierung und Aktivierungsschichten. CUDNN beschleunigt weit verbreitete Deep -Lern -Frameworks, einschließlich Caffe2, Chainer, Keras, Matlab, Mxnet, Pytorch und TensorFlow.
NVIDIA DLSS (Deep Learning Super -Sampling) ist eine zeitliche Image -Upscaling -KI -Rendering -Technologie, die die Grafikleistung mithilfe dedizierter Tensor -Kern -AI -Prozessoren bei Geforce RTX ™ GPUs erhöht. DLSS nutzt die Leistung eines neuronalen Netzwerks für tiefes Lernen, um die Bildraten zu steigern und schöne, scharfe Bilder für Ihre Spiele zu generieren.
AMD FidelityFX Super Resolution (FSR) ist eine Open-Source-Lösung, um hochauflösende Frames aus Eingängen mit niedrigerer Auflösung zu erzeugen. Es verwendet eine Sammlung von modernsten Deep-Lern-Algorithmen, wobei der Schwerpunkt auf der Schaffung hochwertiger Kanten im Vergleich zu direkter Auflösung bei der direkten Auflösung großer Leistungsverbesserungen bietet. FSR ermöglicht „praktische Leistung“ für teure Renderoperationen wie Hardware -Strahlenverfolgung für die Architekturen AMD RDNA ™ und AMD RDNA ™ 2.
Die Intel XE Super -Sample (XES) ist eine zeitliche Bildaufnahme -KI -Rendering -Technologie, die die Grafikleistung ähnlich wie die DLS von NVIDIA (Deep Learning Super -Sample) erhöht. Die ARC-GPU-Architektur von Intel (Anfang 2022) verfügt über GPUs, die dedizierte XE-Cores zum Ausführen von Xess enthalten. Der GPUs verfügt über XE-Matrix-Erweiterungsmatrix (XMX) -Motrizen für die KI-Verarbeitung von Hardware. Xess kann auf Geräten ohne XMX ausführen, einschließlich integrierter Grafiken. Die Leistung von XES ist jedoch auf Nicht-uninternen Grafikkarten niedriger, da es durch DP4A-Anweisungen angetrieben wird.
Jupyter Notebook ist eine Open-Source-Webanwendung, mit der Sie Dokumente erstellen und freigeben können, die Live-Code, Gleichungen, Visualisierungen und narrative Text enthalten. Jupyter wird in Branchen, die Datenreinigung und -transformation, numerische Simulation, statistische Modellierung, Datenvisualisierung, Datenwissenschaft und maschinelles Lernen ausführlich verwendet.
Apache Spark ist eine einheitliche Analyse-Engine für die groß angelegte Datenverarbeitung. It provides high-level APIs in Scala, Java, Python, and R, and an optimized engine that supports general computation graphs for data analysis. It also supports a rich set of higher-level tools including Spark SQL for SQL and DataFrames, MLlib for machine learning, GraphX for graph processing, and Structured Streaming for stream processing.
Apache Spark Connector for SQL Server and Azure SQL is a high-performance connector that enables you to use transactional data in big data analytics and persists results for ad-hoc queries or reporting. The connector allows you to use any SQL database, on-premises or in the cloud, as an input data source or output data sink for Spark jobs.
Apache PredictionIO is an open source machine learning framework for developers, data scientists, and end users. It supports event collection, deployment of algorithms, evaluation, querying predictive results via REST APIs. It is based on scalable open source services like Hadoop, HBase (and other DBs), Elasticsearch, Spark and implements what is called a Lambda Architecture.
Cluster Manager for Apache Kafka(CMAK) is a tool for managing Apache Kafka clusters.
BigDL is a distributed deep learning library for Apache Spark. With BigDL, users can write their deep learning applications as standard Spark programs, which can directly run on top of existing Spark or Hadoop clusters.
Eclipse Deeplearning4J (DL4J) is a set of projects intended to support all the needs of a JVM-based(Scala, Kotlin, Clojure, and Groovy) deep learning application. This means starting with the raw data, loading and preprocessing it from wherever and whatever format it is in to building and tuning a wide variety of simple and complex deep learning networks.
Deep Learning Toolbox™ is a tool that provides a framework for designing and implementing deep neural networks with algorithms, pretrained models, and apps. You can use convolutional neural networks (ConvNets, CNNs) and long short-term memory (LSTM) networks to perform classification and regression on image, time-series, and text data. You can build network architectures such as generative adversarial networks (GANs) and Siamese networks using automatic differentiation, custom training loops, and shared weights. With the Deep Network Designer app, you can design, analyze, and train networks graphically. It can exchange models with TensorFlow™ and PyTorch through the ONNX format and import models from TensorFlow-Keras and Caffe. The toolbox supports transfer learning with DarkNet-53, ResNet-50, NASNet, SqueezeNet and many other pretrained models.
Reinforcement Learning Toolbox™ is a tool that provides an app, functions, and a Simulink® block for training policies using reinforcement learning algorithms, including DQN, PPO, SAC, and DDPG. You can use these policies to implement controllers and decision-making algorithms for complex applications such as resource allocation, robotics, and autonomous systems.
Deep Learning HDL Toolbox™ is a tool that provides functions and tools to prototype and implement deep learning networks on FPGAs and SoCs. It provides pre-built bitstreams for running a variety of deep learning networks on supported Xilinx® and Intel® FPGA and SoC devices. Profiling and estimation tools let you customize a deep learning network by exploring design, performance, and resource utilization tradeoffs.
Parallel Computing Toolbox™ is a tool that lets you solve computationally and data-intensive problems using multicore processors, GPUs, and computer clusters. High-level constructs such as parallel for-loops, special array types, and parallelized numerical algorithms enable you to parallelize MATLAB® applications without CUDA or MPI programming. The toolbox lets you use parallel-enabled functions in MATLAB and other toolboxes. You can use the toolbox with Simulink® to run multiple simulations of a model in parallel. Programs and models can run in both interactive and batch modes.
XGBoost is an optimized distributed gradient boosting library designed to be highly efficient, flexible and portable. It implements machine learning algorithms under the Gradient Boosting framework. XGBoost provides a parallel tree boosting (also known as GBDT, GBM) that solve many data science problems in a fast and accurate way. It supports distributed training on multiple machines, including AWS, GCE, Azure, and Yarn clusters. Also, it can be integrated with Flink, Spark and other cloud dataflow systems.
LIBSVM is an integrated software for support vector classification, (C-SVC, nu-SVC), regression (epsilon-SVR, nu-SVR) and distribution estimation (one-class SVM). It supports multi-class classification.
Scikit-Learn is a simple and efficient tool for data mining and data analysis. It is built on NumPy,SciPy, and mathplotlib.
TensorFlow is an end-to-end open source platform for machine learning. It has a comprehensive, flexible ecosystem of tools, libraries and community resources that lets researchers push the state-of-the-art in ML and developers easily build and deploy ML powered applications.
Keras is a high-level neural networks API, written in Python and capable of running on top of TensorFlow, CNTK, or Theano.It was developed with a focus on enabling fast experimentation. It is capable of running on top of TensorFlow, Microsoft Cognitive Toolkit, R, Theano, or PlaidML.
PyTorch is a library for deep learning on irregular input data such as graphs, point clouds, and manifolds. Primarily developed by Facebook's AI Research lab.
Azure Databricks is a fast and collaborative Apache Spark-based big data analytics service designed for data science and data engineering. Azure Databricks, sets up your Apache Spark environment in minutes, autoscale, and collaborate on shared projects in an interactive workspace. Azure Databricks supports Python, Scala, R, Java, and SQL, as well as data science frameworks and libraries including TensorFlow, PyTorch, and scikit-learn.
Microsoft Cognitive Toolkit (CNTK) is an open-source toolkit for commercial-grade distributed deep learning. It describes neural networks as a series of computational steps via a directed graph. CNTK allows the user to easily realize and combine popular model types such as feed-forward DNNs, convolutional neural networks (CNNs) and recurrent neural networks (RNNs/LSTMs). CNTK implements stochastic gradient descent (SGD, error backpropagation) learning with automatic differentiation and parallelization across multiple GPUs and servers.
Tensorflow_macOS is a Mac-optimized version of TensorFlow and TensorFlow Addons for macOS 11.0+ accelerated using Apple's ML Compute framework.
Apache Airflow is an open-source workflow management platform created by the community to programmatically author, schedule and monitor workflows. Installieren. Principles. Skalierbar. Airflow has a modular architecture and uses a message queue to orchestrate an arbitrary number of workers. Airflow is ready to scale to infinity.
Open Neural Network Exchange(ONNX) is an open ecosystem that empowers AI developers to choose the right tools as their project evolves. ONNX provides an open source format for AI models, both deep learning and traditional ML. It defines an extensible computation graph model, as well as definitions of built-in operators and standard data types.
Apache MXNet is a deep learning framework designed for both efficiency and flexibility. It allows you to mix symbolic and imperative programming to maximize efficiency and productivity. At its core, MXNet contains a dynamic dependency scheduler that automatically parallelizes both symbolic and imperative operations on the fly. A graph optimization layer on top of that makes symbolic execution fast and memory efficient. MXNet is portable and lightweight, scaling effectively to multiple GPUs and multiple machines. Support for Python, R, Julia, Scala, Go, Javascript and more.
AutoGluon is toolkit for Deep learning that automates machine learning tasks enabling you to easily achieve strong predictive performance in your applications. With just a few lines of code, you can train and deploy high-accuracy deep learning models on tabular, image, and text data.
Anaconda is a very popular Data Science platform for machine learning and deep learning that enables users to develop models, train them, and deploy them.
PlaidML is an advanced and portable tensor compiler for enabling deep learning on laptops, embedded devices, or other devices where the available computing hardware is not well supported or the available software stack contains unpalatable license restrictions.
OpenCV is a highly optimized library with focus on real-time computer vision applications. The C++, Python, and Java interfaces support Linux, MacOS, Windows, iOS, and Android.
Scikit-Learn is a Python module for machine learning built on top of SciPy, NumPy, and matplotlib, making it easier to apply robust and simple implementations of many popular machine learning algorithms.
Weka is an open source machine learning software that can be accessed through a graphical user interface, standard terminal applications, or a Java API. It is widely used for teaching, research, and industrial applications, contains a plethora of built-in tools for standard machine learning tasks, and additionally gives transparent access to well-known toolboxes such as scikit-learn, R, and Deeplearning4j.
Caffe is a deep learning framework made with expression, speed, and modularity in mind. It is developed by Berkeley AI Research (BAIR)/The Berkeley Vision and Learning Center (BVLC) and community contributors.
Theano is a Python library that allows you to define, optimize, and evaluate mathematical expressions involving multi-dimensional arrays efficiently including tight integration with NumPy.
Microsoft Project Bonsai is a low-code AI platform that speeds AI-powered automation development and part of the Autonomous Systems suite from Microsoft. Bonsai is used to build AI components that can provide operator guidance or make independent decisions to optimize process variables, improve production efficiency, and reduce downtime.
Microsoft AirSim is a simulator for drones, cars and more, built on Unreal Engine (with an experimental Unity release). AirSim is open-source, cross platform, and supports software-in-the-loop simulation with popular flight controllers such as PX4 & ArduPilot and hardware-in-loop with PX4 for physically and visually realistic simulations. It is developed as an Unreal plugin that can simply be dropped into any Unreal environment. AirSim is being developed as a platform for AI research to experiment with deep learning, computer vision and reinforcement learning algorithms for autonomous vehicles.
CARLA is an open-source simulator for autonomous driving research. CARLA has been developed from the ground up to support development, training, and validation of autonomous driving systems. In addition to open-source code and protocols, CARLA provides open digital assets (urban layouts, buildings, vehicles) that were created for this purpose and can be used freely.
ROS/ROS2 bridge for CARLA(package) is a bridge that enables two-way communication between ROS and CARLA. The information from the CARLA server is translated to ROS topics. In the same way, the messages sent between nodes in ROS get translated to commands to be applied in CARLA.
ROS Toolbox is a tool that provides an interface connecting MATLAB® and Simulink® with the Robot Operating System (ROS and ROS 2), enabling you to create a network of ROS nodes. The toolbox includes MATLAB functions and Simulink blocks to import, analyze, and play back ROS data recorded in rosbag files. You can also connect to a live ROS network to access ROS messages.
Robotics Toolbox™ provides a toolbox that brings robotics specific functionality(designing, simulating, and testing manipulators, mobile robots, and humanoid robots) to MATLAB, exploiting the native capabilities of MATLAB (linear algebra, portability, graphics). The toolbox also supports mobile robots with functions for robot motion models (bicycle), path planning algorithms (bug, distance transform, D*, PRM), kinodynamic planning (lattice, RRT), localization (EKF, particle filter), map building (EKF) and simultaneous localization and mapping (EKF), and a Simulink model a of non-holonomic vehicle. The Toolbox also including a detailed Simulink model for a quadrotor flying robot.
Image Processing Toolbox™ is a tool that provides a comprehensive set of reference-standard algorithms and workflow apps for image processing, analysis, visualization, and algorithm development. You can perform image segmentation, image enhancement, noise reduction, geometric transformations, image registration, and 3D image processing.
Computer Vision Toolbox™ is a tool that provides algorithms, functions, and apps for designing and testing computer vision, 3D vision, and video processing systems. You can perform object detection and tracking, as well as feature detection, extraction, and matching. You can automate calibration workflows for single, stereo, and fisheye cameras. For 3D vision, the toolbox supports visual and point cloud SLAM, stereo vision, structure from motion, and point cloud processing.
Robotics Toolbox™ is a tool that provides a toolbox that brings robotics specific functionality(designing, simulating, and testing manipulators, mobile robots, and humanoid robots) to MATLAB, exploiting the native capabilities of MATLAB (linear algebra, portability, graphics). The toolbox also supports mobile robots with functions for robot motion models (bicycle), path planning algorithms (bug, distance transform, D*, PRM), kinodynamic planning (lattice, RRT), localization (EKF, particle filter), map building (EKF) and simultaneous localization and mapping (EKF), and a Simulink model a of non-holonomic vehicle. The Toolbox also including a detailed Simulink model for a quadrotor flying robot.
Model Predictive Control Toolbox™ is a tool that provides functions, an app, and Simulink® blocks for designing and simulating controllers using linear and nonlinear model predictive control (MPC). The toolbox lets you specify plant and disturbance models, horizons, constraints, and weights. By running closed-loop simulations, you can evaluate controller performance.
Predictive Maintenance Toolbox™ is a tool that lets you manage sensor data, design condition indicators, and estimate the remaining useful life (RUL) of a machine. The toolbox provides functions and an interactive app for exploring, extracting, and ranking features using data-based and model-based techniques, including statistical, spectral, and time-series analysis.
Vision HDL Toolbox™ is a tool that provides pixel-streaming algorithms for the design and implementation of vision systems on FPGAs and ASICs. It provides a design framework that supports a diverse set of interface types, frame sizes, and frame rates. The image processing, video, and computer vision algorithms in the toolbox use an architecture appropriate for HDL implementations.
Automated Driving Toolbox™ is a MATLAB tool that provides algorithms and tools for designing, simulating, and testing ADAS and autonomous driving systems. You can design and test vision and lidar perception systems, as well as sensor fusion, path planning, and vehicle controllers. Visualization tools include a bird's-eye-view plot and scope for sensor coverage, detections and tracks, and displays for video, lidar, and maps. The toolbox lets you import and work with HERE HD Live Map data and OpenDRIVE® road networks. It also provides reference application examples for common ADAS and automated driving features, including FCW, AEB, ACC, LKA, and parking valet. The toolbox supports C/C++ code generation for rapid prototyping and HIL testing, with support for sensor fusion, tracking, path planning, and vehicle controller algorithms.
UAV Toolbox is an application that provides tools and reference applications for designing, simulating, testing, and deploying unmanned aerial vehicle (UAV) and drone applications. You can design autonomous flight algorithms, UAV missions, and flight controllers. The Flight Log Analyzer app lets you interactively analyze 3D flight paths, telemetry information, and sensor readings from common flight log formats.
Navigation Toolbox™ is a tool that provides algorithms and analysis tools for motion planning, simultaneous localization and mapping (SLAM), and inertial navigation. The toolbox includes customizable search and sampling-based path planners, as well as metrics for validating and comparing paths. You can create 2D and 3D map representations, generate maps using SLAM algorithms, and interactively visualize and debug map generation with the SLAM map builder app.
Lidar Toolbox™ is a tool that provides algorithms, functions, and apps for designing, analyzing, and testing lidar processing systems. You can perform object detection and tracking, semantic segmentation, shape fitting, lidar registration, and obstacle detection. Lidar Toolbox supports lidar-camera cross calibration for workflows that combine computer vision and lidar processing.
Mapping Toolbox™ is a tool that provides algorithms and functions for transforming geographic data and creating map displays. You can visualize your data in a geographic context, build map displays from more than 60 map projections, and transform data from a variety of sources into a consistent geographic coordinate system.
Back to the Top
Reinforcement Learning is a subset of machine learning, which is a neural network with three or more layers. These neural networks attempt to simulate the behavior of the human brain,though, far from matching its ability. This allows the neural networks to "learn" from a process in which a model learns to become more accurate for performing an action in an environment based on feedback in order to maximize the reward. The Learning can be supervised, semi-supervised or unsupervised.
Top Reinforcement Learning Courses | Coursera
Top Reinforcement Learning Courses | Udemy
Top Reinforcement Learning Courses | Udacity
Reinforcement Learning Courses | Stanford Online
Deep Learning Online Courses | NVIDIA
Top Deep Learning Courses Online | Coursera
Top Deep Learning Courses Online | Udemy
Learn Deep Learning with Online Courses and Lessons | edX
Deep Learning Online Course Nanodegree | Udacity
Machine Learning Course by Andrew Ng | Coursera
Machine Learning Engineering for Production (MLOps) course by Andrew Ng | Coursera
Data Science: Deep Learning and Neural Networks in Python | Udemy
Understanding Machine Learning with Python | Pluralsight
How to Think About Machine Learning Algorithms | Pluralsight
Deep Learning Courses | Stanford Online
Deep Learning - UW Professional & Continuing Education
Deep Learning Online Courses | Harvard-Universität
Machine Learning for Everyone Courses | DataCamp
Artificial Intelligence Expert Course: Platinum Edition | Udemy
Top Artificial Intelligence Courses Online | Coursera
Learn Artificial Intelligence with Online Courses and Lessons | edX
Professional Certificate in Computer Science for Artificial Intelligence | edX
Artificial Intelligence Nanodegree program
Artificial Intelligence (AI) Online Courses | Udacity
Intro to Artificial Intelligence Course | Udacity
Edge AI for IoT Developers Course | Udacity
Reasoning: Goal Trees and Rule-Based Expert Systems | MIT OpenCourseWare
Expert Systems and Applied Artificial Intelligence
Autonomous Systems - Microsoft AI
Introduction to Microsoft Project Bonsai
Machine teaching with the Microsoft Autonomous Systems platform
Autonomous Maritime Systems Training | AMC Search
Top Autonomous Cars Courses Online | Udemy
Applied Control Systems 1: autonomous cars: Math + PID + MPC | Udemy
Learn Autonomous Robotics with Online Courses and Lessons | edX
Artificial Intelligence Nanodegree program
Autonomous Systems Online Courses & Programs | Udacity
Edge AI for IoT Developers Course | Udacity
Autonomous Systems MOOC and Free Online Courses | MOOC List
Robotics and Autonomous Systems Graduate Program | Standford Online
Mobile Autonomous Systems Laboratory | MIT OpenCourseWare
OpenAI is an open source Python library for developing and comparing reinforcement learning algorithms by providing a standard API to communicate between learning algorithms and environments, as well as a standard set of environments compliant with that API.
ReinforcementLearning.jl is a collection of tools for doing reinforcement learning research in Julia.
Reinforcement Learning Toolbox™ is a tool that provides an app, functions, and a Simulink® block for training policies using reinforcement learning algorithms, including DQN, PPO, SAC, and DDPG. You can use these policies to implement controllers and decision-making algorithms for complex applications such as resource allocation, robotics, and autonomous systems.
Amazon SageMaker is a fully managed service that provides every developer and data scientist with the ability to build, train, and deploy machine learning (ML) models quickly.
AWS RoboMaker is a service that provides a fully-managed, scalable infrastructure for simulation that customers use for multi-robot simulation and CI/CD integration with regression testing in simulation.
TensorFlow is an end-to-end open source platform for machine learning. It has a comprehensive, flexible ecosystem of tools, libraries and community resources that lets researchers push the state-of-the-art in ML and developers easily build and deploy ML powered applications.
Keras is a high-level neural networks API, written in Python and capable of running on top of TensorFlow, CNTK, or Theano.It was developed with a focus on enabling fast experimentation. It is capable of running on top of TensorFlow, Microsoft Cognitive Toolkit, R, Theano, or PlaidML.
PyTorch is a library for deep learning on irregular input data such as graphs, point clouds, and manifolds. Primarily developed by Facebook's AI Research lab.
Scikit-Learn is a simple and efficient tool for data mining and data analysis. It is built on NumPy,SciPy, and mathplotlib.
NVIDIA cuDNN is a GPU-accelerated library of primitives for deep neural networks. cuDNN provides highly tuned implementations for standard routines such as forward and backward convolution, pooling, normalization, and activation layers. cuDNN accelerates widely used deep learning frameworks, including Caffe2, Chainer, Keras, MATLAB, MxNet, PyTorch, and TensorFlow.
Jupyter Notebook is an open-source web application that allows you to create and share documents that contain live code, equations, visualizations and narrative text. Jupyter is used widely in industries that do data cleaning and transformation, numerical simulation, statistical modeling, data visualization, data science, and machine learning.
Apache Spark is a unified analytics engine for large-scale data processing. It provides high-level APIs in Scala, Java, Python, and R, and an optimized engine that supports general computation graphs for data analysis. It also supports a rich set of higher-level tools including Spark SQL for SQL and DataFrames, MLlib for machine learning, GraphX for graph processing, and Structured Streaming for stream processing.
Apache Spark Connector for SQL Server and Azure SQL is a high-performance connector that enables you to use transactional data in big data analytics and persists results for ad-hoc queries or reporting. The connector allows you to use any SQL database, on-premises or in the cloud, as an input data source or output data sink for Spark jobs.
Apache PredictionIO is an open source machine learning framework for developers, data scientists, and end users. It supports event collection, deployment of algorithms, evaluation, querying predictive results via REST APIs. It is based on scalable open source services like Hadoop, HBase (and other DBs), Elasticsearch, Spark and implements what is called a Lambda Architecture.
Cluster Manager for Apache Kafka(CMAK) is a tool for managing Apache Kafka clusters.
BigDL is a distributed deep learning library for Apache Spark. With BigDL, users can write their deep learning applications as standard Spark programs, which can directly run on top of existing Spark or Hadoop clusters.
Eclipse Deeplearning4J (DL4J) is a set of projects intended to support all the needs of a JVM-based(Scala, Kotlin, Clojure, and Groovy) deep learning application. This means starting with the raw data, loading and preprocessing it from wherever and whatever format it is in to building and tuning a wide variety of simple and complex deep learning networks.
Deep Learning Toolbox™ is a tool that provides a framework for designing and implementing deep neural networks with algorithms, pretrained models, and apps. You can use convolutional neural networks (ConvNets, CNNs) and long short-term memory (LSTM) networks to perform classification and regression on image, time-series, and text data. You can build network architectures such as generative adversarial networks (GANs) and Siamese networks using automatic differentiation, custom training loops, and shared weights. With the Deep Network Designer app, you can design, analyze, and train networks graphically. It can exchange models with TensorFlow™ and PyTorch through the ONNX format and import models from TensorFlow-Keras and Caffe. The toolbox supports transfer learning with DarkNet-53, ResNet-50, NASNet, SqueezeNet and many other pretrained models.
Deep Learning HDL Toolbox™ is a tool that provides functions and tools to prototype and implement deep learning networks on FPGAs and SoCs. It provides pre-built bitstreams for running a variety of deep learning networks on supported Xilinx® and Intel® FPGA and SoC devices. Profiling and estimation tools let you customize a deep learning network by exploring design, performance, and resource utilization tradeoffs.
Parallel Computing Toolbox™ is a tool that lets you solve computationally and data-intensive problems using multicore processors, GPUs, and computer clusters. High-level constructs such as parallel for-loops, special array types, and parallelized numerical algorithms enable you to parallelize MATLAB® applications without CUDA or MPI programming. The toolbox lets you use parallel-enabled functions in MATLAB and other toolboxes. You can use the toolbox with Simulink® to run multiple simulations of a model in parallel. Programs and models can run in both interactive and batch modes.
XGBoost is an optimized distributed gradient boosting library designed to be highly efficient, flexible and portable. It implements machine learning algorithms under the Gradient Boosting framework. XGBoost provides a parallel tree boosting (also known as GBDT, GBM) that solve many data science problems in a fast and accurate way. It supports distributed training on multiple machines, including AWS, GCE, Azure, and Yarn clusters. Also, it can be integrated with Flink, Spark and other cloud dataflow systems.
LIBSVM is an integrated software for support vector classification, (C-SVC, nu-SVC), regression (epsilon-SVR, nu-SVR) and distribution estimation (one-class SVM). It supports multi-class classification.
Azure Databricks is a fast and collaborative Apache Spark-based big data analytics service designed for data science and data engineering. Azure Databricks, sets up your Apache Spark environment in minutes, autoscale, and collaborate on shared projects in an interactive workspace. Azure Databricks supports Python, Scala, R, Java, and SQL, as well as data science frameworks and libraries including TensorFlow, PyTorch, and scikit-learn.
Microsoft Cognitive Toolkit (CNTK) is an open-source toolkit for commercial-grade distributed deep learning. It describes neural networks as a series of computational steps via a directed graph. CNTK allows the user to easily realize and combine popular model types such as feed-forward DNNs, convolutional neural networks (CNNs) and recurrent neural networks (RNNs/LSTMs). CNTK implements stochastic gradient descent (SGD, error backpropagation) learning with automatic differentiation and parallelization across multiple GPUs and servers.
Tensorflow_macOS is a Mac-optimized version of TensorFlow and TensorFlow Addons for macOS 11.0+ accelerated using Apple's ML Compute framework.
Apache Airflow is an open-source workflow management platform created by the community to programmatically author, schedule and monitor workflows. Installieren. Principles. Skalierbar. Airflow has a modular architecture and uses a message queue to orchestrate an arbitrary number of workers. Airflow is ready to scale to infinity.
Open Neural Network Exchange(ONNX) is an open ecosystem that empowers AI developers to choose the right tools as their project evolves. ONNX provides an open source format for AI models, both deep learning and traditional ML. It defines an extensible computation graph model, as well as definitions of built-in operators and standard data types.
Apache MXNet is a deep learning framework designed for both efficiency and flexibility. It allows you to mix symbolic and imperative programming to maximize efficiency and productivity. At its core, MXNet contains a dynamic dependency scheduler that automatically parallelizes both symbolic and imperative operations on the fly. A graph optimization layer on top of that makes symbolic execution fast and memory efficient. MXNet is portable and lightweight, scaling effectively to multiple GPUs and multiple machines. Support for Python, R, Julia, Scala, Go, Javascript and more.
AutoGluon is toolkit for Deep learning that automates machine learning tasks enabling you to easily achieve strong predictive performance in your applications. With just a few lines of code, you can train and deploy high-accuracy deep learning models on tabular, image, and text data.
Anaconda is a very popular Data Science platform for machine learning and deep learning that enables users to develop models, train them, and deploy them.
PlaidML is an advanced and portable tensor compiler for enabling deep learning on laptops, embedded devices, or other devices where the available computing hardware is not well supported or the available software stack contains unpalatable license restrictions.
OpenCV is a highly optimized library with focus on real-time computer vision applications. The C++, Python, and Java interfaces support Linux, MacOS, Windows, iOS, and Android.
Scikit-Learn is a Python module for machine learning built on top of SciPy, NumPy, and matplotlib, making it easier to apply robust and simple implementations of many popular machine learning algorithms.
Weka is an open source machine learning software that can be accessed through a graphical user interface, standard terminal applications, or a Java API. It is widely used for teaching, research, and industrial applications, contains a plethora of built-in tools for standard machine learning tasks, and additionally gives transparent access to well-known toolboxes such as scikit-learn, R, and Deeplearning4j.
Caffe is a deep learning framework made with expression, speed, and modularity in mind. It is developed by Berkeley AI Research (BAIR)/The Berkeley Vision and Learning Center (BVLC) and community contributors.
Theano is a Python library that allows you to define, optimize, and evaluate mathematical expressions involving multi-dimensional arrays efficiently including tight integration with NumPy.
Microsoft Project Bonsai is a low-code AI platform that speeds AI-powered automation development and part of the Autonomous Systems suite from Microsoft. Bonsai is used to build AI components that can provide operator guidance or make independent decisions to optimize process variables, improve production efficiency, and reduce downtime.
Microsoft AirSim is a simulator for drones, cars and more, built on Unreal Engine (with an experimental Unity release). AirSim is open-source, cross platform, and supports software-in-the-loop simulation with popular flight controllers such as PX4 & ArduPilot and hardware-in-loop with PX4 for physically and visually realistic simulations. It is developed as an Unreal plugin that can simply be dropped into any Unreal environment. AirSim is being developed as a platform for AI research to experiment with deep learning, computer vision and reinforcement learning algorithms for autonomous vehicles.
CARLA is an open-source simulator for autonomous driving research. CARLA has been developed from the ground up to support development, training, and validation of autonomous driving systems. In addition to open-source code and protocols, CARLA provides open digital assets (urban layouts, buildings, vehicles) that were created for this purpose and can be used freely.
ROS/ROS2 bridge for CARLA(package) is a bridge that enables two-way communication between ROS and CARLA. The information from the CARLA server is translated to ROS topics. In the same way, the messages sent between nodes in ROS get translated to commands to be applied in CARLA.
ROS Toolbox is a tool that provides an interface connecting MATLAB® and Simulink® with the Robot Operating System (ROS and ROS 2), enabling you to create a network of ROS nodes. The toolbox includes MATLAB functions and Simulink blocks to import, analyze, and play back ROS data recorded in rosbag files. You can also connect to a live ROS network to access ROS messages.
Robotics Toolbox™ provides a toolbox that brings robotics specific functionality(designing, simulating, and testing manipulators, mobile robots, and humanoid robots) to MATLAB, exploiting the native capabilities of MATLAB (linear algebra, portability, graphics). The toolbox also supports mobile robots with functions for robot motion models (bicycle), path planning algorithms (bug, distance transform, D*, PRM), kinodynamic planning (lattice, RRT), localization (EKF, particle filter), map building (EKF) and simultaneous localization and mapping (EKF), and a Simulink model a of non-holonomic vehicle. The Toolbox also including a detailed Simulink model for a quadrotor flying robot.
Image Processing Toolbox™ is a tool that provides a comprehensive set of reference-standard algorithms and workflow apps for image processing, analysis, visualization, and algorithm development. You can perform image segmentation, image enhancement, noise reduction, geometric transformations, image registration, and 3D image processing.
Computer Vision Toolbox™ is a tool that provides algorithms, functions, and apps for designing and testing computer vision, 3D vision, and video processing systems. You can perform object detection and tracking, as well as feature detection, extraction, and matching. You can automate calibration workflows for single, stereo, and fisheye cameras. For 3D vision, the toolbox supports visual and point cloud SLAM, stereo vision, structure from motion, and point cloud processing.
Robotics Toolbox™ is a tool that provides a toolbox that brings robotics specific functionality(designing, simulating, and testing manipulators, mobile robots, and humanoid robots) to MATLAB, exploiting the native capabilities of MATLAB (linear algebra, portability, graphics). The toolbox also supports mobile robots with functions for robot motion models (bicycle), path planning algorithms (bug, distance transform, D*, PRM), kinodynamic planning (lattice, RRT), localization (EKF, particle filter), map building (EKF) and simultaneous localization and mapping (EKF), and a Simulink model a of non-holonomic vehicle. The Toolbox also including a detailed Simulink model for a quadrotor flying robot.
Model Predictive Control Toolbox™ is a tool that provides functions, an app, and Simulink® blocks for designing and simulating controllers using linear and nonlinear model predictive control (MPC). The toolbox lets you specify plant and disturbance models, horizons, constraints, and weights. By running closed-loop simulations, you can evaluate controller performance.
Predictive Maintenance Toolbox™ is a tool that lets you manage sensor data, design condition indicators, and estimate the remaining useful life (RUL) of a machine. The toolbox provides functions and an interactive app for exploring, extracting, and ranking features using data-based and model-based techniques, including statistical, spectral, and time-series analysis.
Vision HDL Toolbox™ is a tool that provides pixel-streaming algorithms for the design and implementation of vision systems on FPGAs and ASICs. It provides a design framework that supports a diverse set of interface types, frame sizes, and frame rates. The image processing, video, and computer vision algorithms in the toolbox use an architecture appropriate for HDL implementations.
Automated Driving Toolbox™ is a MATLAB tool that provides algorithms and tools for designing, simulating, and testing ADAS and autonomous driving systems. You can design and test vision and lidar perception systems, as well as sensor fusion, path planning, and vehicle controllers. Visualization tools include a bird's-eye-view plot and scope for sensor coverage, detections and tracks, and displays for video, lidar, and maps. The toolbox lets you import and work with HERE HD Live Map data and OpenDRIVE® road networks. It also provides reference application examples for common ADAS and automated driving features, including FCW, AEB, ACC, LKA, and parking valet. The toolbox supports C/C++ code generation for rapid prototyping and HIL testing, with support for sensor fusion, tracking, path planning, and vehicle controller algorithms.
Navigation Toolbox™ is a tool that provides algorithms and analysis tools for motion planning, simultaneous localization and mapping (SLAM), and inertial navigation. The toolbox includes customizable search and sampling-based path planners, as well as metrics for validating and comparing paths. You can create 2D and 3D map representations, generate maps using SLAM algorithms, and interactively visualize and debug map generation with the SLAM map builder app.
UAV Toolbox is an application that provides tools and reference applications for designing, simulating, testing, and deploying unmanned aerial vehicle (UAV) and drone applications. You can design autonomous flight algorithms, UAV missions, and flight controllers. The Flight Log Analyzer app lets you interactively analyze 3D flight paths, telemetry information, and sensor readings from common flight log formats.
Lidar Toolbox™ is a tool that provides algorithms, functions, and apps for designing, analyzing, and testing lidar processing systems. You can perform object detection and tracking, semantic segmentation, shape fitting, lidar registration, and obstacle detection. Lidar Toolbox supports lidar-camera cross calibration for workflows that combine computer vision and lidar processing.
Mapping Toolbox™ is a tool that provides algorithms and functions for transforming geographic data and creating map displays. You can visualize your data in a geographic context, build map displays from more than 60 map projections, and transform data from a variety of sources into a consistent geographic coordinate system.
Back to the Top
Computer Vision is a field of Artificial Intelligence (AI) that focuses on enabling computers to identify and understand objects and people in images and videos.
OpenCV Courses
Exploring Computer Vision in Microsoft Azure
Top Computer Vision Courses Online | Coursera
Top Computer Vision Courses Online | Udemy
Learn Computer Vision with Online Courses and Lessons | edX
Computer Vision and Image Processing Fundamentals | edX
Introduction to Computer Vision Courses | Udacity
Computer Vision Nanodegree program | Udacity
Machine Vision Course |MIT Open Courseware
Computer Vision Training Courses | NobleProg
Visual Computing Graduate Program | Stanford Online
OpenCV is a highly optimized library with focus on real-time computer vision applications. The C++, Python, and Java interfaces support Linux, MacOS, Windows, iOS, and Android.
Microsoft Computer Vision Recipes is a project that provides examples and best practice guidelines for building computer vision systems. This allows people to build a comprehensive set of tools and examples that leverage recent advances in Computer Vision algorithms, neural architectures, and operationalizing such systems. Creatin from existing state-of-the-art libraries and build additional utility around loading image data, optimizing and evaluating models, and scaling up to the cloud.
Microsoft Cognitive Toolkit (CNTK) is an open-source toolkit for commercial-grade distributed deep learning. It describes neural networks as a series of computational steps via a directed graph. CNTK allows the user to easily realize and combine popular model types such as feed-forward DNNs, convolutional neural networks (CNNs) and recurrent neural networks (RNNs/LSTMs). CNTK implements stochastic gradient descent (SGD, error backpropagation) learning with automatic differentiation and parallelization across multiple GPUs and servers.
Scikit-Learn is a Python module for machine learning built on top of SciPy, NumPy, and matplotlib, making it easier to apply robust and simple implementations of many popular machine learning algorithms.
NVIDIA cuDNN is a GPU-accelerated library of primitives for deep neural networks. cuDNN provides highly tuned implementations for standard routines such as forward and backward convolution, pooling, normalization, and activation layers. cuDNN accelerates widely used deep learning frameworks, including Caffe2, Chainer, Keras, MATLAB, MxNet, PyTorch, and TensorFlow.
Automated Driving Toolbox™ is a MATLAB tool that provides algorithms and tools for designing, simulating, and testing ADAS and autonomous driving systems. You can design and test vision and lidar perception systems, as well as sensor fusion, path planning, and vehicle controllers. Visualization tools include a bird's-eye-view plot and scope for sensor coverage, detections and tracks, and displays for video, lidar, and maps. The toolbox lets you import and work with HERE HD Live Map data and OpenDRIVE® road networks. It also provides reference application examples for common ADAS and automated driving features, including FCW, AEB, ACC, LKA, and parking valet. The toolbox supports C/C++ code generation for rapid prototyping and HIL testing, with support for sensor fusion, tracking, path planning, and vehicle controller algorithms.
LRSLibrary is a Low-Rank and Sparse Tools for Background Modeling and Subtraction in Videos. The library was designed for moving object detection in videos, but it can be also used for other computer vision and machine learning problems.
Image Processing Toolbox™ is a tool that provides a comprehensive set of reference-standard algorithms and workflow apps for image processing, analysis, visualization, and algorithm development. You can perform image segmentation, image enhancement, noise reduction, geometric transformations, image registration, and 3D image processing.
Computer Vision Toolbox™ is a tool that provides algorithms, functions, and apps for designing and testing computer vision, 3D vision, and video processing systems. You can perform object detection and tracking, as well as feature detection, extraction, and matching. You can automate calibration workflows for single, stereo, and fisheye cameras. For 3D vision, the toolbox supports visual and point cloud SLAM, stereo vision, structure from motion, and point cloud processing.
Statistics and Machine Learning Toolbox™ is a tool that provides functions and apps to describe, analyze, and model data. You can use descriptive statistics, visualizations, and clustering for exploratory data analysis; fit probability distributions to data; generate random numbers for Monte Carlo simulations, and perform hypothesis tests. Regression and classification algorithms let you draw inferences from data and build predictive models either interactively, using the Classification and Regression Learner apps, or programmatically, using AutoML.
Lidar Toolbox™ is a tool that provides algorithms, functions, and apps for designing, analyzing, and testing lidar processing systems. You can perform object detection and tracking, semantic segmentation, shape fitting, lidar registration, and obstacle detection. Lidar Toolbox supports lidar-camera cross calibration for workflows that combine computer vision and lidar processing.
Mapping Toolbox™ is a tool that provides algorithms and functions for transforming geographic data and creating map displays. You can visualize your data in a geographic context, build map displays from more than 60 map projections, and transform data from a variety of sources into a consistent geographic coordinate system.
UAV Toolbox is an application that provides tools and reference applications for designing, simulating, testing, and deploying unmanned aerial vehicle (UAV) and drone applications. You can design autonomous flight algorithms, UAV missions, and flight controllers. The Flight Log Analyzer app lets you interactively analyze 3D flight paths, telemetry information, and sensor readings from common flight log formats.
Parallel Computing Toolbox™ is a tool that lets you solve computationally and data-intensive problems using multicore processors, GPUs, and computer clusters. High-level constructs such as parallel for-loops, special array types, and parallelized numerical algorithms enable you to parallelize MATLAB® applications without CUDA or MPI programming. The toolbox lets you use parallel-enabled functions in MATLAB and other toolboxes. You can use the toolbox with Simulink® to run multiple simulations of a model in parallel. Programs and models can run in both interactive and batch modes.
Partial Differential Equation Toolbox™ is a tool that provides functions for solving structural mechanics, heat transfer, and general partial differential equations (PDEs) using finite element analysis.
ROS Toolbox is a tool that provides an interface connecting MATLAB® and Simulink® with the Robot Operating System (ROS and ROS 2), enabling you to create a network of ROS nodes. The toolbox includes MATLAB functions and Simulink blocks to import, analyze, and play back ROS data recorded in rosbag files. You can also connect to a live ROS network to access ROS messages.
Robotics Toolbox™ provides a toolbox that brings robotics specific functionality(designing, simulating, and testing manipulators, mobile robots, and humanoid robots) to MATLAB, exploiting the native capabilities of MATLAB (linear algebra, portability, graphics). The toolbox also supports mobile robots with functions for robot motion models (bicycle), path planning algorithms (bug, distance transform, D*, PRM), kinodynamic planning (lattice, RRT), localization (EKF, particle filter), map building (EKF) and simultaneous localization and mapping (EKF), and a Simulink model a of non-holonomic vehicle. The Toolbox also including a detailed Simulink model for a quadrotor flying robot.
Deep Learning Toolbox™ is a tool that provides a framework for designing and implementing deep neural networks with algorithms, pretrained models, and apps. You can use convolutional neural networks (ConvNets, CNNs) and long short-term memory (LSTM) networks to perform classification and regression on image, time-series, and text data. You can build network architectures such as generative adversarial networks (GANs) and Siamese networks using automatic differentiation, custom training loops, and shared weights. With the Deep Network Designer app, you can design, analyze, and train networks graphically. It can exchange models with TensorFlow™ and PyTorch through the ONNX format and import models from TensorFlow-Keras and Caffe. The toolbox supports transfer learning with DarkNet-53, ResNet-50, NASNet, SqueezeNet and many other pretrained models.
Reinforcement Learning Toolbox™ is a tool that provides an app, functions, and a Simulink® block for training policies using reinforcement learning algorithms, including DQN, PPO, SAC, and DDPG. You can use these policies to implement controllers and decision-making algorithms for complex applications such as resource allocation, robotics, and autonomous systems.
Deep Learning HDL Toolbox™ is a tool that provides functions and tools to prototype and implement deep learning networks on FPGAs and SoCs. It provides pre-built bitstreams for running a variety of deep learning networks on supported Xilinx® and Intel® FPGA and SoC devices. Profiling and estimation tools let you customize a deep learning network by exploring design, performance, and resource utilization tradeoffs.
Model Predictive Control Toolbox™ is a tool that provides functions, an app, and Simulink® blocks for designing and simulating controllers using linear and nonlinear model predictive control (MPC). The toolbox lets you specify plant and disturbance models, horizons, constraints, and weights. By running closed-loop simulations, you can evaluate controller performance.
Vision HDL Toolbox™ is a tool that provides pixel-streaming algorithms for the design and implementation of vision systems on FPGAs and ASICs. It provides a design framework that supports a diverse set of interface types, frame sizes, and frame rates. The image processing, video, and computer vision algorithms in the toolbox use an architecture appropriate for HDL implementations.
Data Acquisition Toolbox™ is a tool that provides apps and functions for configuring data acquisition hardware, reading data into MATLAB® and Simulink®, and writing data to DAQ analog and digital output channels. The toolbox supports a variety of DAQ hardware, including USB, PCI, PCI Express®, PXI®, and PXI Express® devices, from National Instruments® and other vendors.
Microsoft AirSim is a simulator for drones, cars and more, built on Unreal Engine (with an experimental Unity release). AirSim is open-source, cross platform, and supports software-in-the-loop simulation with popular flight controllers such as PX4 & ArduPilot and hardware-in-loop with PX4 for physically and visually realistic simulations. It is developed as an Unreal plugin that can simply be dropped into any Unreal environment. AirSim is being developed as a platform for AI research to experiment with deep learning, computer vision and reinforcement learning algorithms for autonomous vehicles.
Back to the Top
Natural Language Processing (NLP) is a branch of artificial intelligence (AI) focused on giving computers the ability to understand text and spoken words in much the same way human beings can. NLP combines computational linguistics rule-based modeling of human language with statistical, machine learning, and deep learning models.
Natural Language Processing With Python's NLTK Package
Cognitive Services—APIs for AI Developers | Microsoft Azure
Artificial Intelligence Services - Amazon Web Services (AWS)
Google Cloud Natural Language API
Top Natural Language Processing Courses Online | Udemy
Introduction to Natural Language Processing (NLP) | Udemy
Top Natural Language Processing Courses | Coursera
Natural Language Processing | Coursera
Natural Language Processing in TensorFlow | Coursera
Learn Natural Language Processing with Online Courses and Lessons | edX
Build a Natural Language Processing Solution with Microsoft Azure | Pluralsight
Natural Language Processing (NLP) Training Courses | NobleProg
Natural Language Processing with Deep Learning Course | Standford Online
Advanced Natural Language Processing - MIT OpenCourseWare
Certified Natural Language Processing Expert Certification | IABAC
Natural Language Processing Course - Intel
Natural Language Toolkit (NLTK) is a leading platform for building Python programs to work with human language data. It provides easy-to-use interfaces to over 50 corpora and lexical resources such as WordNet, along with a suite of text processing libraries for classification, tokenization, stemming, tagging, parsing, and semantic reasoning, wrappers for industrial-strength NLP libraries.
spaCy is a library for advanced Natural Language Processing in Python and Cython. It's built on the very latest research, and was designed from day one to be used in real products. spaCy comes with pretrained pipelines and currently supports tokenization and training for 60+ languages. It also features neural network models for tagging, parsing, named entity recognition, text classification and more, multi-task learning with pretrained transformers like BERT.
CoreNLP is a set of natural language analysis tools written in Java. CoreNLP enables users to derive linguistic annotations for text, including token and sentence boundaries, parts of speech, named entities, numeric and time values, dependency and constituency parses, coreference, sentiment, quote attributions, and relations.
NLPnet is a Python library for Natural Language Processing tasks based on neural networks. It performs part-of-speech tagging, semantic role labeling and dependency parsing.
Flair is a simple framework for state-of-the-art Natural Language Processing (NLP) models to your text, such as named entity recognition (NER), part-of-speech tagging (PoS), special support for biomedical data, sense disambiguation and classification, with support for a rapidly growing number of languages.
Catalyst is a C# Natural Language Processing library built for speed. Inspired by spaCy's design, it brings pre-trained models, out-of-the box support for training word and document embeddings, and flexible entity recognition models.
Apache OpenNLP is an open-source library for a machine learning based toolkit used in the processing of natural language text. It features an API for use cases like Named Entity Recognition, Sentence Detection, POS(Part-Of-Speech) tagging, Tokenization Feature extraction, Chunking, Parsing, and Coreference resolution.
Microsoft Cognitive Toolkit (CNTK) is an open-source toolkit for commercial-grade distributed deep learning. It describes neural networks as a series of computational steps via a directed graph. CNTK allows the user to easily realize and combine popular model types such as feed-forward DNNs, convolutional neural networks (CNNs) and recurrent neural networks (RNNs/LSTMs). CNTK implements stochastic gradient descent (SGD, error backpropagation) learning with automatic differentiation and parallelization across multiple GPUs and servers.
NVIDIA cuDNN is a GPU-accelerated library of primitives for deep neural networks. cuDNN provides highly tuned implementations for standard routines such as forward and backward convolution, pooling, normalization, and activation layers. cuDNN accelerates widely used deep learning frameworks, including Caffe2, Chainer, Keras, MATLAB, MxNet, PyTorch, and TensorFlow.
TensorFlow is an end-to-end open source platform for machine learning. It has a comprehensive, flexible ecosystem of tools, libraries and community resources that lets researchers push the state-of-the-art in ML and developers easily build and deploy ML powered applications.
Tensorflow_macOS is a Mac-optimized version of TensorFlow and TensorFlow Addons for macOS 11.0+ accelerated using Apple's ML Compute framework.
Keras is a high-level neural networks API, written in Python and capable of running on top of TensorFlow, CNTK, or Theano.It was developed with a focus on enabling fast experimentation. It is capable of running on top of TensorFlow, Microsoft Cognitive Toolkit, R, Theano, or PlaidML.
PyTorch is a library for deep learning on irregular input data such as graphs, point clouds, and manifolds. Primarily developed by Facebook's AI Research lab.
Eclipse Deeplearning4J (DL4J) is a set of projects intended to support all the needs of a JVM-based(Scala, Kotlin, Clojure, and Groovy) deep learning application. This means starting with the raw data, loading and preprocessing it from wherever and whatever format it is in to building and tuning a wide variety of simple and complex deep learning networks.
Chainer is a Python-based deep learning framework aiming at flexibility. It provides automatic differentiation APIs based on the define-by-run approach (dynamic computational graphs) as well as object-oriented high-level APIs to build and train neural networks. It also supports CUDA/cuDNN using CuPy for high performance training and inference.
Anaconda is a very popular Data Science platform for machine learning and deep learning that enables users to develop models, train them, and deploy them.
PlaidML is an advanced and portable tensor compiler for enabling deep learning on laptops, embedded devices, or other devices where the available computing hardware is not well supported or the available software stack contains unpalatable license restrictions.
Scikit-Learn is a Python module for machine learning built on top of SciPy, NumPy, and matplotlib, making it easier to apply robust and simple implementations of many popular machine learning algorithms.
Caffe is a deep learning framework made with expression, speed, and modularity in mind. It is developed by Berkeley AI Research (BAIR)/The Berkeley Vision and Learning Center (BVLC) and community contributors.
Theano is a Python library that allows you to define, optimize, and evaluate mathematical expressions involving multi-dimensional arrays efficiently including tight integration with NumPy.
Apache Spark is a unified analytics engine for large-scale data processing. It provides high-level APIs in Scala, Java, Python, and R, and an optimized engine that supports general computation graphs for data analysis. It also supports a rich set of higher-level tools including Spark SQL for SQL and DataFrames, MLlib for machine learning, GraphX for graph processing, and Structured Streaming for stream processing.
Apache Spark Connector for SQL Server and Azure SQL is a high-performance connector that enables you to use transactional data in big data analytics and persists results for ad-hoc queries or reporting. The connector allows you to use any SQL database, on-premises or in the cloud, as an input data source or output data sink for Spark jobs.
Apache PredictionIO is an open source machine learning framework for developers, data scientists, and end users. It supports event collection, deployment of algorithms, evaluation, querying predictive results via REST APIs. It is based on scalable open source services like Hadoop, HBase (and other DBs), Elasticsearch, Spark and implements what is called a Lambda Architecture.
Apache Airflow is an open-source workflow management platform created by the community to programmatically author, schedule and monitor workflows. Airflow has a modular architecture and uses a message queue to orchestrate an arbitrary number of workers. Airflow is ready to scale to infinity.
Open Neural Network Exchange(ONNX) is an open ecosystem that empowers AI developers to choose the right tools as their project evolves. ONNX provides an open source format for AI models, both deep learning and traditional ML. It defines an extensible computation graph model, as well as definitions of built-in operators and standard data types.
BigDL is a distributed deep learning library for Apache Spark. With BigDL, users can write their deep learning applications as standard Spark programs, which can directly run on top of existing Spark or Hadoop clusters.
Numba is an open source, NumPy-aware optimizing compiler for Python sponsored by Anaconda, Inc. It uses the LLVM compiler project to generate machine code from Python syntax. Numba can compile a large subset of numerically-focused Python, including many NumPy functions. Additionally, Numba has support for automatic parallelization of loops, generation of GPU-accelerated code, and creation of ufuncs and C callbacks.
Back to the Top
Bioinformatics is a field of computational science that has to do with the analysis of sequences of biological molecules. This usually refers to genes, DNA, RNA, or protein, and is particularly useful in comparing genes and other sequences in proteins and other sequences within an organism or between organisms, looking at evolutionary relationships between organisms, and using the patterns that exist across DNA and protein sequences to figure out what their function is.
European Bioinformatics Institute
National Center for Biotechnology Information
Online Courses in Bioinformatics |ISCB - International Society for Computational Biology
Bioinformatics | Coursera
Top Bioinformatics Courses | Udemy
Biometrics Courses | Udemy
Learn Bioinformatics with Online Courses and Lessons | edX
Bioinformatics Graduate Certificate | Harvard Extension School
Bioinformatics and Biostatistics | UC San Diego Extension
Bioinformatics and Proteomics - Free Online Course Materials | MIT
Introduction to Biometrics course - Biometrics Institute
Bioconductor is an open source project that provides tools for the analysis and comprehension of high-throughput genomic data. Bioconductor uses the R statistical programming language, and is open source and open development. It has two releases each year, and an active user community. Bioconductor is also available as an AMI (Amazon Machine Image) and Docker images.
Bioconda is a channel for the conda package manager specializing in bioinformatics software. It has a repository of packages containing over 7000 bioinformatics packages ready to use with conda install.
UniProt is a freely accessible database that provide users with a comprehensive, high-quality and freely accessible set of protein sequences annotated with functional information.
Bowtie 2 is an ultrafast and memory-efficient tool for aligning sequencing reads to long reference sequences. It is particularly good at aligning reads of about 50 up to 100s or 1,000s of characters, and particularly good at aligning to relatively long (mammalian) genomes.
Biopython is a set of freely available tools for biological computation written in Python by an international team of developers. It is a distributed collaborative effort to develop Python libraries and applications which address the needs of current and future work in bioinformatics.
BioRuby is a toolkit that has components for sequence analysis, pathway analysis, protein modelling and phylogenetic analysis; it supports many widely used data formats and provides easy access to databases, external programs and public web services, including BLAST, KEGG, GenBank, MEDLINE and GO.
BioJava is a toolkit that provides an API to maintain local installations of the PDB, load and manipulate structures, perform standard analysis such as sequence and structure alignments and visualize them in 3D.
BioPHP is an open source project that provides a collection of open source PHP code, with classes for DNA and protein sequence analysis, alignment, database parsing, and other bioinformatics tools.
Avogadro is an advanced molecule editor and visualizer designed for cross-platform use in computational chemistry, molecular modeling, bioinformatics, materials science, and related areas. It offers flexible high quality rendering and a powerful plugin architecture.
Ascalaph Designer is a program for molecular dynamic simulations. Under a single graphical environment are represented as their own implementation of molecular dynamics as well as the methods of classical and quantum mechanics of popular programs.
Anduril is a workflow platform for analyzing large data sets. Anduril provides facilities for analyzing high-thoughput data in biomedical research, and the platform is fully extensible by third parties. Ready-made tools support data visualization, DNA/RNA/ChIP-sequencing, DNA/RNA microarrays, cytometry and image analysis.
Galaxy is an open source, web-based platform for accessible, reproducible, and transparent computational biomedical research. It allows users without programming experience to easily specify parameters and run individual tools as well as larger workflows. It also captures run information so that any user can repeat and understand a complete computational analysis.
PathVisio is a free open-source pathway analysis and drawing software which allows drawing, editing, and analyzing biological pathways. It is developed in Java and can be extended with plugins.
Orange is a powerful data mining and machine learning toolkit that performs data analysis and visualization.
Basic Local Alignment Search Tool is a tool that finds regions of similarity between biological sequences. The program compares nucleotide or protein sequences to sequence databases and calculates the statistical significance.
OSIRIS is public-domain, free, and open source STR analysis software designed for clinical, forensic, and research use, and has been validated for use as an expert system for single-source samples.
NCBI BioSystems is a Database that provides integrated access to biological systems and their component genes, proteins, and small molecules, as well as literature describing those biosystems and other related data throughout Entrez.
Back to the Top
CUDA Toolkit. Source: NVIDIA Developer CUDA
CUDA is a parallel computing platform and programming model developed by NVIDIA for general computing on graphical processing units (GPUs). With CUDA, developers are able to dramatically speed up computing applications by harnessing the power of GPUs. In GPU-accelerated applications, the sequential part of the workload runs on the CPU, which is optimized for single-threaded. The compute intensive portion of the application runs on thousands of GPU cores in parallel. When using CUDA, developers can program in popular languages such as C, C++, Fortran, Python and MATLAB.
CUDA Toolkit Documentation
CUDA Quick Start Guide
CUDA on WSL
CUDA GPU support for TensorFlow
NVIDIA Deep Learning cuDNN Documentation
NVIDIA GPU Cloud Documentation
NVIDIA NGC is a hub for GPU-optimized software for deep learning, machine learning, and high-performance computing (HPC) workloads.
NVIDIA NGC Containers is a registry that provides researchers, data scientists, and developers with simple access to a comprehensive catalog of GPU-accelerated software for AI, machine learning and HPC. These containers take full advantage of NVIDIA GPUs on-premises and in the cloud.
CUDA Toolkit is a collection of tools & libraries that provide a development environment for creating high performance GPU-accelerated applications. The CUDA Toolkit allows you can develop, optimize, and deploy your applications on GPU-accelerated embedded systems, desktop workstations, enterprise data centers, cloud-based platforms and HPC supercomputers. The toolkit includes GPU-accelerated libraries, debugging and optimization tools, a C/C++ compiler, and a runtime library to build and deploy your application on major architectures including x86, Arm and POWER.
NVIDIA cuDNN is a GPU-accelerated library of primitives for deep neural networks. cuDNN provides highly tuned implementations for standard routines such as forward and backward convolution, pooling, normalization, and activation layers. cuDNN accelerates widely used deep learning frameworks, including Caffe2, Chainer, Keras, MATLAB, MxNet, PyTorch, and TensorFlow.
CUDA-X HPC is a collection of libraries, tools, compilers and APIs that help developers solve the world's most challenging problems. CUDA-X HPC includes highly tuned kernels essential for high-performance computing (HPC).
NVIDIA Container Toolkit is a collection of tools & libraries that allows users to build and run GPU accelerated Docker containers. The toolkit includes a container runtime library and utilities to automatically configure containers to leverage NVIDIA GPUs.
Minkowski Engine is an auto-differentiation library for sparse tensors. It supports all standard neural network layers such as convolution, pooling, unpooling, and broadcasting operations for sparse tensors.
CUTLASS is a collection of CUDA C++ template abstractions for implementing high-performance matrix-multiplication (GEMM) at all levels and scales within CUDA. It incorporates strategies for hierarchical decomposition and data movement similar to those used to implement cuBLAS.
CUB is a cooperative primitives for CUDA C++ kernel authors.
Tensorman is a utility for easy management of Tensorflow containers by developed by System76.Tensorman allows Tensorflow to operate in an isolated environment that is contained from the rest of the system. This virtual environment can operate independent of the base system, allowing you to use any version of Tensorflow on any version of a Linux distribution that supports the Docker runtime.
Numba is an open source, NumPy-aware optimizing compiler for Python sponsored by Anaconda, Inc. It uses the LLVM compiler project to generate machine code from Python syntax. Numba can compile a large subset of numerically-focused Python, including many NumPy functions. Additionally, Numba has support for automatic parallelization of loops, generation of GPU-accelerated code, and creation of ufuncs and C callbacks.
Chainer is a Python-based deep learning framework aiming at flexibility. It provides automatic differentiation APIs based on the define-by-run approach (dynamic computational graphs) as well as object-oriented high-level APIs to build and train neural networks. It also supports CUDA/cuDNN using CuPy for high performance training and inference.
CuPy is an implementation of NumPy-compatible multi-dimensional array on CUDA. CuPy consists of the core multi-dimensional array class, cupy.ndarray, and many functions on it. It supports a subset of numpy.ndarray interface.
CatBoost is a fast, scalable, high performance Gradient Boosting on Decision Trees library, used for ranking, classification, regression and other machine learning tasks for Python, R, Java, C++. Supports computation on CPU and GPU.
cuDF is a GPU DataFrame library for loading, joining, aggregating, filtering, and otherwise manipulating data. cuDF provides a pandas-like API that will be familiar to data engineers & data scientists, so they can use it to easily accelerate their workflows without going into the details of CUDA programming.
cuML is a suite of libraries that implement machine learning algorithms and mathematical primitives functions that share compatible APIs with other RAPIDS projects. cuML enables data scientists, researchers, and software engineers to run traditional tabular ML tasks on GPUs without going into the details of CUDA programming. In most cases, cuML's Python API matches the API from scikit-learn.
ArrayFire is a general-purpose library that simplifies the process of developing software that targets parallel and massively-parallel architectures including CPUs, GPUs, and other hardware acceleration devices.
Thrust is a C++ parallel programming library which resembles the C++ Standard Library. Thrust's high-level interface greatly enhances programmer productivity while enabling performance portability between GPUs and multicore CPUs.
AresDB is a GPU-powered real-time analytics storage and query engine. It features low query latency, high data freshness and highly efficient in-memory and on disk storage management.
Arraymancer is a tensor (N-dimensional array) project in Nim. The main focus is providing a fast and ergonomic CPU, Cuda and OpenCL ndarray library on which to build a scientific computing ecosystem.
Kintinuous is a real-time dense visual SLAM system capable of producing high quality globally consistent point and mesh reconstructions over hundreds of metres in real-time with only a low-cost commodity RGB-D sensor.
GraphVite is a general graph embedding engine, dedicated to high-speed and large-scale embedding learning in various applications.
Back to the Top
MATLAB is a programming language that does numerical computing such as expressing matrix and array mathematics directly.
MATLAB Documentation
Getting Started with MATLAB
MATLAB and Simulink Training from MATLAB Academy
MathWorks Certification Program
MATLAB Online Courses from Udemy
MATLAB Online Courses from Coursera
MATLAB Online Courses from edX
Building a MATLAB GUI
MATLAB Style Guidelines 2.0
Setting Up Git Source Control with MATLAB & Simulink
Pull, Push and Fetch Files with Git with MATLAB & Simulink
Create New Repository with MATLAB & Simulink
PRMLT is Matlab code for machine learning algorithms in the PRML book.
MATLAB and Simulink Services & Applications List
MATLAB in the Cloud is a service that allows you to run in cloud environments from MathWorks Cloud to Public Clouds including AWS and Azure.
MATLAB Online™ is a service that allows to users to uilitize MATLAB and Simulink through a web browser such as Google Chrome.
Simulink is a block diagram environment for Model-Based Design. It supports simulation, automatic code generation, and continuous testing of embedded systems.
Simulink Online™ is a service that provides access to Simulink through your web browser.
MATLAB Drive™ is a service that gives you the ability to store, access, and work with your files from anywhere.
MATLAB Parallel Server™ is a tool that lets you scale MATLAB® programs and Simulink® simulations to clusters and clouds. You can prototype your programs and simulations on the desktop and then run them on clusters and clouds without recoding. MATLAB Parallel Server supports batch jobs, interactive parallel computations, and distributed computations with large matrices.
MATLAB Schemer is a MATLAB package makes it easy to change the color scheme (theme) of the MATLAB display and GUI.
LRSLibrary is a Low-Rank and Sparse Tools for Background Modeling and Subtraction in Videos. The library was designed for moving object detection in videos, but it can be also used for other computer vision and machine learning problems.
Image Processing Toolbox™ is a tool that provides a comprehensive set of reference-standard algorithms and workflow apps for image processing, analysis, visualization, and algorithm development. You can perform image segmentation, image enhancement, noise reduction, geometric transformations, image registration, and 3D image processing.
Computer Vision Toolbox™ is a tool that provides algorithms, functions, and apps for designing and testing computer vision, 3D vision, and video processing systems. You can perform object detection and tracking, as well as feature detection, extraction, and matching. You can automate calibration workflows for single, stereo, and fisheye cameras. For 3D vision, the toolbox supports visual and point cloud SLAM, stereo vision, structure from motion, and point cloud processing.
Statistics and Machine Learning Toolbox™ is a tool that provides functions and apps to describe, analyze, and model data. You can use descriptive statistics, visualizations, and clustering for exploratory data analysis; fit probability distributions to data; generate random numbers for Monte Carlo simulations, and perform hypothesis tests. Regression and classification algorithms let you draw inferences from data and build predictive models either interactively, using the Classification and Regression Learner apps, or programmatically, using AutoML.
Lidar Toolbox™ is a tool that provides algorithms, functions, and apps for designing, analyzing, and testing lidar processing systems. You can perform object detection and tracking, semantic segmentation, shape fitting, lidar registration, and obstacle detection. Lidar Toolbox supports lidar-camera cross calibration for workflows that combine computer vision and lidar processing.
Mapping Toolbox™ is a tool that provides algorithms and functions for transforming geographic data and creating map displays. You can visualize your data in a geographic context, build map displays from more than 60 map projections, and transform data from a variety of sources into a consistent geographic coordinate system.
UAV Toolbox is an application that provides tools and reference applications for designing, simulating, testing, and deploying unmanned aerial vehicle (UAV) and drone applications. You can design autonomous flight algorithms, UAV missions, and flight controllers. The Flight Log Analyzer app lets you interactively analyze 3D flight paths, telemetry information, and sensor readings from common flight log formats.
Parallel Computing Toolbox™ is a tool that lets you solve computationally and data-intensive problems using multicore processors, GPUs, and computer clusters. High-level constructs such as parallel for-loops, special array types, and parallelized numerical algorithms enable you to parallelize MATLAB® applications without CUDA or MPI programming. The toolbox lets you use parallel-enabled functions in MATLAB and other toolboxes. You can use the toolbox with Simulink® to run multiple simulations of a model in parallel. Programs and models can run in both interactive and batch modes.
Partial Differential Equation Toolbox™ is a tool that provides functions for solving structural mechanics, heat transfer, and general partial differential equations (PDEs) using finite element analysis.
ROS Toolbox is a tool that provides an interface connecting MATLAB® and Simulink® with the Robot Operating System (ROS and ROS 2), enabling you to create a network of ROS nodes. The toolbox includes MATLAB functions and Simulink blocks to import, analyze, and play back ROS data recorded in rosbag files. You can also connect to a live ROS network to access ROS messages.
Robotics Toolbox™ provides a toolbox that brings robotics specific functionality(designing, simulating, and testing manipulators, mobile robots, and humanoid robots) to MATLAB, exploiting the native capabilities of MATLAB (linear algebra, portability, graphics). The toolbox also supports mobile robots with functions for robot motion models (bicycle), path planning algorithms (bug, distance transform, D*, PRM), kinodynamic planning (lattice, RRT), localization (EKF, particle filter), map building (EKF) and simultaneous localization and mapping (EKF), and a Simulink model a of non-holonomic vehicle. The Toolbox also including a detailed Simulink model for a quadrotor flying robot.
Deep Learning Toolbox™ is a tool that provides a framework for designing and implementing deep neural networks with algorithms, pretrained models, and apps. You can use convolutional neural networks (ConvNets, CNNs) and long short-term memory (LSTM) networks to perform classification and regression on image, time-series, and text data. You can build network architectures such as generative adversarial networks (GANs) and Siamese networks using automatic differentiation, custom training loops, and shared weights. With the Deep Network Designer app, you can design, analyze, and train networks graphically. It can exchange models with TensorFlow™ and PyTorch through the ONNX format and import models from TensorFlow-Keras and Caffe. The toolbox supports transfer learning with DarkNet-53, ResNet-50, NASNet, SqueezeNet and many other pretrained models.
Reinforcement Learning Toolbox™ is a tool that provides an app, functions, and a Simulink® block for training policies using reinforcement learning algorithms, including DQN, PPO, SAC, and DDPG. You can use these policies to implement controllers and decision-making algorithms for complex applications such as resource allocation, robotics, and autonomous systems.
Deep Learning HDL Toolbox™ is a tool that provides functions and tools to prototype and implement deep learning networks on FPGAs and SoCs. It provides pre-built bitstreams for running a variety of deep learning networks on supported Xilinx® and Intel® FPGA and SoC devices. Profiling and estimation tools let you customize a deep learning network by exploring design, performance, and resource utilization tradeoffs.
Model Predictive Control Toolbox™ is a tool that provides functions, an app, and Simulink® blocks for designing and simulating controllers using linear and nonlinear model predictive control (MPC). The toolbox lets you specify plant and disturbance models, horizons, constraints, and weights. By running closed-loop simulations, you can evaluate controller performance.
Vision HDL Toolbox™ is a tool that provides pixel-streaming algorithms for the design and implementation of vision systems on FPGAs and ASICs. It provides a design framework that supports a diverse set of interface types, frame sizes, and frame rates. The image processing, video, and computer vision algorithms in the toolbox use an architecture appropriate for HDL implementations.
SoC Blockset™ is a tool that provides Simulink® blocks and visualization tools for modeling, simulating, and analyzing hardware and software architectures for ASICs, FPGAs, and systems on a chip (SoC). You can build your system architecture using memory models, bus models, and I/O models, and simulate the architecture together with the algorithms.
Wireless HDL Toolbox™ is a tool that provides pre-verified, hardware-ready Simulink® blocks and subsystems for developing 5G, LTE, and custom OFDM-based wireless communication applications. It includes reference applications, IP blocks, and gateways between frame and sample-based processing.
ThingSpeak™ is an IoT analytics service that allows you to aggregate, visualize, and analyze live data streams in the cloud. ThingSpeak provides instant visualizations of data posted by your devices to ThingSpeak. With the ability to execute MATLAB® code in ThingSpeak, you can perform online analysis and process data as it comes in. ThingSpeak is often used for prototyping and proof-of-concept IoT systems that require analytics.
SEA-MAT is a collaborative effort to organize and distribute Matlab tools for the Oceanographic Community.
Gramm is a complete data visualization toolbox for Matlab. It provides an easy to use and high-level interface to produce publication-quality plots of complex data with varied statistical visualizations. Gramm is inspired by R's ggplot2 library.
hctsa is a software package for running highly comparative time-series analysis using Matlab.
Plotly is a Graphing Library for MATLAB.
YALMIP is a MATLAB toolbox for optimization modeling.
GNU Octave is a high-level interpreted language, primarily intended for numerical computations. It provides capabilities for the numerical solution of linear and nonlinear problems, and for performing other numerical experiments. It also provides extensive graphics capabilities for data visualization and manipulation.
Back to the Top
C++ is a cross-platform language that can be used to build high-performance applications developed by Bjarne Stroustrup, as an extension to the C language.
C is a general-purpose, high-level language that was originally developed by Dennis M. Ritchie to develop the UNIX operating system at Bell Labs. It supports structured programming, lexical variable scope, and recursion, with a static type system. C also provides constructs that map efficiently to typical machine instructions, which makes it one was of the most widely used programming languages today.
Embedded C is a set of language extensions for the C programming language by the C Standards Committee to address issues that exist between C extensions for different embedded systems. The extensions hep enhance microprocessor features such as fixed-point arithmetic, multiple distinct memory banks, and basic I/O operations. This makes Embedded C the most popular embedded software language in the world.
C & C++ Developer Tools from JetBrains
Open source C++ libraries on cppreference.com
C++ Graphics libraries
C++ Libraries in MATLAB
C++ Tools and Libraries Articles
Google C++ Style Guide
Introduction C++ Education course on Google Developers
C++ style guide for Fuchsia
C and C++ Coding Style Guide by OpenTitan
Chromium C++ Style Guide
C++ Core Guidelines
C++ Style Guide for ROS
Learn C++
Learn C : An Interactive C Tutorial
C++ Institute
C++ Online Training Courses on LinkedIn Learning
C++ Tutorials on W3Schools
Learn C Programming Online Courses on edX
Learn C++ with Online Courses on edX
Learn C++ on Codecademy
Coding for Everyone: C and C++ course on Coursera
C++ For C Programmers on Coursera
Top C Courses on Coursera
C++ Online Courses on Udemy
Top C Courses on Udemy
Basics of Embedded C Programming for Beginners on Udemy
C++ For Programmers Course on Udacity
C++ Fundamentals Course on Pluralsight
Introduction to C++ on MIT Free Online Course Materials
Introduction to C++ for Programmers | Harvard
Online C Courses | Harvard-Universität
AWS SDK for C++
Azure SDK for C++
Azure SDK for C
C++ Client Libraries for Google Cloud Services
Visual Studio is an integrated development environment (IDE) from Microsoft; which is a feature-rich application that can be used for many aspects of software development. Visual Studio makes it easy to edit, debug, build, and publish your app. By using Microsoft software development platforms such as Windows API, Windows Forms, Windows Presentation Foundation, and Windows Store.
Visual Studio Code is a code editor redefined and optimized for building and debugging modern web and cloud applications.
Vcpkg is a C++ Library Manager for Windows, Linux, and MacOS.
ReSharper C++ is a Visual Studio Extension for C++ developers developed by JetBrains.
AppCode is constantly monitoring the quality of your code. It warns you of errors and smells and suggests quick-fixes to resolve them automatically. AppCode provides lots of code inspections for Objective-C, Swift, C/C++, and a number of code inspections for other supported languages. All code inspections are run on the fly.
CLion is a cross-platform IDE for C and C++ developers developed by JetBrains.
Code::Blocks is a free C/C++ and Fortran IDE built to meet the most demanding needs of its users. It is designed to be very extensible and fully configurable. Built around a plugin framework, Code::Blocks can be extended with plugins.
CppSharp is a tool and set of libraries which facilitates the usage of native C/C++ code with the .NET ecosystem. It consumes C/C++ header and library files and generates the necessary glue code to surface the native API as a managed API. Such an API can be used to consume an existing native library in your managed code or add managed scripting support to a native codebase.
Conan is an Open Source Package Manager for C++ development and dependency management into the 21st century and on par with the other development ecosystems.
High Performance Computing (HPC) SDK is a comprehensive toolbox for GPU accelerating HPC modeling and simulation applications. It includes the C, C++, and Fortran compilers, libraries, and analysis tools necessary for developing HPC applications on the NVIDIA platform.
Thrust is a C++ parallel programming library which resembles the C++ Standard Library. Thrust's high-level interface greatly enhances programmer productivity while enabling performance portability between GPUs and multicore CPUs. Interoperability with established technologies such as CUDA, TBB, and OpenMP integrates with existing software.
Boost is an educational opportunity focused on cutting-edge C++. Boost has been a participant in the annual Google Summer of Code since 2007, in which students develop their skills by working on Boost Library development.
Automake is a tool for automatically generating Makefile.in files compliant with the GNU Coding Standards. Automake requires the use of GNU Autoconf.
Cmake is an open-source, cross-platform family of tools designed to build, test and package software. CMake is used to control the software compilation process using simple platform and compiler independent configuration files, and generate native makefiles and workspaces that can be used in the compiler environment of your choice.
GDB is a debugger, that allows you to see what is going on `inside' another program while it executes or what another program was doing at the moment it crashed.
GCC is a compiler Collection that includes front ends for C, C++, Objective-C, Fortran, Ada, Go, and D, as well as libraries for these languages.
GSL is a numerical library for C and C++ programmers. It is free software under the GNU General Public License. The library provides a wide range of mathematical routines such as random number generators, special functions and least-squares fitting. There are over 1000 functions in total with an extensive test suite.
OpenGL Extension Wrangler Library (GLEW) is a cross-platform open-source C/C++ extension loading library. GLEW provides efficient run-time mechanisms for determining which OpenGL extensions are supported on the target platform.
Libtool is a generic library support script that hides the complexity of using shared libraries behind a consistent, portable interface. To use Libtool, add the new generic library building commands to your Makefile, Makefile.in, or Makefile.am.
Maven is a software project management and comprehension tool. Based on the concept of a project object model (POM), Maven can manage a project's build, reporting and documentation from a central piece of information.
TAU (Tuning And Analysis Utilities) is capable of gathering performance information through instrumentation of functions, methods, basic blocks, and statements as well as event-based sampling. All C++ language features are supported including templates and namespaces.
Clang is a production quality C, Objective-C, C++ and Objective-C++ compiler when targeting X86-32, X86-64, and ARM (other targets may have caveats, but are usually easy to fix). Clang is used in production to build performance-critical software like Google Chrome or Firefox.
OpenCV is a highly optimized library with focus on real-time applications. Cross-Platform C++, Python and Java interfaces support Linux, MacOS, Windows, iOS, and Android.
Libcu++ is the NVIDIA C++ Standard Library for your entire system. It provides a heterogeneous implementation of the C++ Standard Library that can be used in and between CPU and GPU code.
ANTLR (ANother Tool for Language Recognition) is a powerful parser generator for reading, processing, executing, or translating structured text or binary files. It's widely used to build languages, tools, and frameworks. From a grammar, ANTLR generates a parser that can build parse trees and also generates a listener interface that makes it easy to respond to the recognition of phrases of interest.
Oat++ is a light and powerful C++ web framework for highly scalable and resource-efficient web application. It's zero-dependency and easy-portable.
JavaCPP is a program that provides efficient access to native C++ inside Java, not unlike the way some C/C++ compilers interact with assembly language.
Cython is a language that makes writing C extensions for Python as easy as Python itself. Cython is based on Pyrex, but supports more cutting edge functionality and optimizations such as calling C functions and declaring C types on variables and class attributes.
Spdlog is a very fast, header-only/compiled, C++ logging library.
Infer is a static analysis tool for Java, C++, Objective-C, and C. Infer is written in OCaml.
Back to the Top
Java is a popular programming language and development platform(JDK). It reduces costs, shortens development timeframes, drives innovation, and improves application services. With millions of developers running more than 51 billion Java Virtual Machines worldwide.
The Eclipse Foundation is home to a worldwide community of developers, the Eclipse IDE, Jakarta EE and over 375 open source projects, including runtimes, tools and frameworks for Java and other languages.
Getting Started with Java
Oracle Java certifications from Oracle University
Google Developers Training
Google Developers Certification
Java Tutorial by W3Schools
Building Your First Android App in Java
Getting Started with Java in Visual Studio Code
Google Java Style Guide
AOSP Java Code Style for Contributors
Chromium Java style guide
Get Started with OR-Tools for Java
Getting started with Java Tool Installer task for Azure Pipelines
Gradle User Manual
Java SE contains several tools to assist in program development and debugging, and in the monitoring and troubleshooting of production applications.
JDK Development Tools includes the Java Web Start Tools (javaws) Java Troubleshooting, Profiling, Monitoring and Management Tools (jcmd, jconsole, jmc, jvisualvm); and Java Web Services Tools (schemagen, wsgen, wsimport, xjc).
Android Studio is the official integrated development environment for Google's Android operating system, built on JetBrains' IntelliJ IDEA software and designed specifically for Android development. Availble on Windows, macOS, Linux, Chrome OS.
IntelliJ IDEA is an IDE for Java, but it also understands and provides intelligent coding assistance for a large variety of other languages such as Kotlin, SQL, JPQL, HTML, JavaScript, etc., even if the language expression is injected into a String literal in your Java code.
NetBeans is an IDE provides Java developers with all the tools needed to create professional desktop, mobile and enterprise applications. Creating, Editing, and Refactoring. The IDE provides wizards and templates to let you create Java EE, Java SE, and Java ME applications.
Java Design Patterns is a collection of the best formalized practices a programmer can use to solve common problems when designing an application or system.
Elasticsearch is a distributed RESTful search engine built for the cloud written in Java.
RxJava is a Java VM implementation of Reactive Extensions: a library for composing asynchronous and event-based programs by using observable sequences. It extends the observer pattern to support sequences of data/events and adds operators that allow you to compose sequences together declaratively while abstracting away concerns about things like low-level threading, synchronization, thread-safety and concurrent data structures.
Guava is a set of core Java libraries from Google that includes new collection types (such as multimap and multiset), immutable collections, a graph library, and utilities for concurrency, I/O, hashing, caching, primitives, strings, and more! It is widely used on most Java projects within Google, and widely used by many other companies as well.
okhttp is a HTTP client for Java and Kotlin developed by Square.
Retrofit is a type-safe HTTP client for Android and Java develped by Square.
LeakCanary is a memory leak detection library for Android develped by Square.
Apache Spark is a unified analytics engine for large-scale data processing. It provides high-level APIs in Scala, Java, Python, and R, and an optimized engine that supports general computation graphs for data analysis. It also supports a rich set of higher-level tools including Spark SQL for SQL and DataFrames, MLlib for machine learning, GraphX for graph processing, and Structured Streaming for stream processing.
Apache Flink is an open source stream processing framework with powerful stream- and batch-processing capabilities with elegant and fluent APIs in Java and Scala.
Fastjson is a Java library that can be used to convert Java Objects into their JSON representation. It can also be used to convert a JSON string to an equivalent Java object.
libGDX is a cross-platform Java game development framework based on OpenGL (ES) that works on Windows, Linux, Mac OS X, Android, your WebGL enabled browser and iOS.
Jenkins is the leading open-source automation server. Built with Java, it provides over 1700 plugins to support automating virtually anything, so that humans can actually spend their time doing things machines cannot.
DBeaver is a free multi-platform database tool for developers, SQL programmers, database administrators and analysts. Supports any database which has JDBC driver (which basically means - ANY database). EE version also supports non-JDBC datasources (MongoDB, Cassandra, Redis, DynamoDB, etc).
Redisson is a Redis Java client with features of In-Memory Data Grid. Over 50 Redis based Java objects and services: Set, Multimap, SortedSet, Map, List, Queue, Deque, Semaphore, Lock, AtomicLong, Map Reduce, Publish / Subscribe, Bloom filter, Spring Cache, Tomcat, Scheduler, JCache API, Hibernate, MyBatis, RPC, and local cache.
GraalVM is a universal virtual machine for running applications written in JavaScript, Python, Ruby, R, JVM-based languages like Java, Scala, Clojure, Kotlin, and LLVM-based languages such as C and C++.
Gradle is a build automation tool for multi-language software development. From mobile apps to microservices, from small startups to big enterprises, Gradle helps teams build, automate and deliver better software, faster. Write in Java, C++, Python or your language of choice.
Apache Groovy is a powerful, optionally typed and dynamic language, with static-typing and static compilation capabilities, for the Java platform aimed at improving developer productivity thanks to a concise, familiar and easy to learn syntax. It integrates smoothly with any Java program, and immediately delivers to your application powerful features, including scripting capabilities, Domain-Specific Language authoring, runtime and compile-time meta-programming and functional programming.
JaCoCo is a free code coverage library for Java, which has been created by the EclEmma team based on the lessons learned from using and integration existing libraries for many years.
Apache JMeter is used to test performance both on static and dynamic resources, Web dynamic applications. It also used to simulate a heavy load on a server, group of servers, network or object to test its strength or to analyze overall performance under different load types.
Junit is a simple framework to write repeatable tests. It is an instance of the xUnit architecture for unit testing frameworks.
Mockito is the most popular Mocking framework for unit tests written in Java.
SpotBugs is a program which uses static analysis to look for bugs in Java code.
SpringBoot is a great tool that helps you to create Spring-powered, production-grade applications and services with absolute minimum fuss. It takes an opinionated view of the Spring platform so that new and existing users can quickly get to the bits they need.
YourKit is a technology leader, creator of the most innovative and intelligent tools for profiling Java & .NET applications.
Back to the Top
Python is an interpreted, high-level programming language. Python is used heavily in the fields of Data Science and Machine Learning.
Python Developer's Guide is a comprehensive resource for contributing to Python – for both new and experienced contributors. It is maintained by the same community that maintains Python.
Azure Functions Python developer guide is an introduction to developing Azure Functions using Python. The content below assumes that you've already read the Azure Functions developers guide.
CheckiO is a programming learning platform and a gamified website that teaches Python through solving code challenges and competing for the most elegant and creative solutions.
Python Institute
PCEP – Certified Entry-Level Python Programmer certification
PCAP – Certified Associate in Python Programming certification
PCPP – Certified Professional in Python Programming 1 certification
PCPP – Certified Professional in Python Programming 2
MTA: Introduction to Programming Using Python Certification
Getting Started with Python in Visual Studio Code
Google's Python Style Guide
Google's Python Education Class
Real Python
The Python Open Source Computer Science Degree by Forrest Knight
Intro to Python for Data Science
Intro to Python by W3schools
Codecademy's Python 3 course
Learn Python with Online Courses and Classes from edX
Python Courses Online from Coursera
Python Package Index (PyPI) is a repository of software for the Python programming language. PyPI helps you find and install software developed and shared by the Python community.
PyCharm is the best IDE I've ever used. With PyCharm, you can access the command line, connect to a database, create a virtual environment, and manage your version control system all in one place, saving time by avoiding constantly switching between windows.
Python Tools for Visual Studio(PTVS) is a free, open source plugin that turns Visual Studio into a Python IDE. It supports editing, browsing, IntelliSense, mixed Python/C++ debugging, remote Linux/MacOS debugging, profiling, IPython, and web development with Django and other frameworks.
Pylance is an extension that works alongside Python in Visual Studio Code to provide performant language support. Under the hood, Pylance is powered by Pyright, Microsoft's static type checking tool.
Pyright is a fast type checker meant for large Python source bases. It can run in a “watch” mode and performs fast incremental updates when files are modified.
Django is a high-level Python Web framework that encourages rapid development and clean, pragmatic design.
Flask is a micro web framework written in Python. It is classified as a microframework because it does not require particular tools or libraries.
Web2py is an open-source web application framework written in Python allowing allows web developers to program dynamic web content. One web2py instance can run multiple web sites using different databases.
AWS Chalice is a framework for writing serverless apps in python. It allows you to quickly create and deploy applications that use AWS Lambda.
Tornado is a Python web framework and asynchronous networking library. Tornado uses a non-blocking network I/O, which can scale to tens of thousands of open connections.
HTTPie is a command line HTTP client that makes CLI interaction with web services as easy as possible. HTTPie is designed for testing, debugging, and generally interacting with APIs & HTTP servers.
Scrapy is a fast high-level web crawling and web scraping framework, used to crawl websites and extract structured data from their pages. It can be used for a wide range of purposes, from data mining to monitoring and automated testing.
Sentry is a service that helps you monitor and fix crashes in realtime. The server is in Python, but it contains a full API for sending events from any language, in any application.
Pipenv is a tool that aims to bring the best of all packaging worlds (bundler, composer, npm, cargo, yarn, etc.) to the Python world.
Python Fire is a library for automatically generating command line interfaces (CLIs) from absolutely any Python object.
Bottle is a fast, simple and lightweight WSGI micro web-framework for Python. It is distributed as a single file module and has no dependencies other than the Python Standard Library.
CherryPy is a minimalist Python object-oriented HTTP web framework.
Sanic is a Python 3.6+ web server and web framework that's written to go fast.
Pyramid is a small and fast open source Python web framework. It makes real-world web application development and deployment more fun and more productive.
TurboGears is a hybrid web framework able to act both as a Full Stack framework or as a Microframework.
Falcon is a reliable, high-performance Python web framework for building large-scale app backends and microservices with support for MongoDB, Pluggable Applications and autogenerated Admin.
Neural Network Intelligence(NNI) is an open source AutoML toolkit for automate machine learning lifecycle, including Feature Engineering, Neural Architecture Search, Model Compression and Hyperparameter Tuning.
Dash is a popular Python framework for building ML & data science web apps for Python, R, Julia, and Jupyter.
Luigi is a Python module that helps you build complex pipelines of batch jobs. It handles dependency resolution, workflow management, visualization etc. It also comes with Hadoop support built-in.
Locust is an easy to use, scriptable and scalable performance testing tool.
spaCy is a library for advanced Natural Language Processing in Python and Cython.
NumPy is the fundamental package needed for scientific computing with Python.
Pillow is a friendly PIL(Python Imaging Library) fork.
IPython is a command shell for interactive computing in multiple programming languages, originally developed for the Python programming language, that offers enhanced introspection, rich media, additional shell syntax, tab completion, and rich history.
GraphLab Create is a Python library, backed by a C++ engine, for quickly building large-scale, high-performance machine learning models.
Pandas is a fast, powerful, and easy to use open source data structrures, data analysis and manipulation tool, built on top of the Python programming language.
PuLP is an Linear Programming modeler written in python. PuLP can generate LP files and call on use highly optimized solvers, GLPK, COIN CLP/CBC, CPLEX, and GUROBI, to solve these linear problems.
Matplotlib is a 2D plotting library for creating static, animated, and interactive visualizations in Python. Matplotlib produces publication-quality figures in a variety of hardcopy formats and interactive environments across platforms.
Scikit-Learn is a simple and efficient tool for data mining and data analysis. It is built on NumPy,SciPy, and mathplotlib.
Back to the Top
Scala is a combination of object-oriented and functional programming in one concise, high-level language. Scala's static types help avoid bugs in complex applications, and its JVM and JavaScript runtimes let you build high-performance systems with easy access to huge ecosystems of libraries.
Scala Style Guide
Databricks Scala Style Guide
Data Science using Scala and Spark on Azure
Creating a Scala Maven application for Apache Spark in HDInsight using IntelliJ
Intro to Spark DataFrames using Scala with Azure Databricks
Using Scala to Program AWS Glue ETL Scripts
Using Flink Scala shell with Amazon EMR clusters
AWS EMR and Spark 2 using Scala from Udemy
Using the Google Cloud Storage connector with Apache Spark
Write and run Spark Scala jobs on Cloud Dataproc for Google Cloud
Scala Courses and Certifications from edX
Scala Courses from Coursera
Top Scala Courses from Udemy
Apache Spark is a unified analytics engine for large-scale data processing. It provides high-level APIs in Scala, Java, Python, and R, and an optimized engine that supports general computation graphs for data analysis. It also supports a rich set of higher-level tools including Spark SQL for SQL and DataFrames, MLlib for machine learning, GraphX for graph processing, and Structured Streaming for stream processing.
Apache Spark Connector for SQL Server and Azure SQL is a high-performance connector that enables you to use transactional data in big data analytics and persists results for ad-hoc queries or reporting. The connector allows you to use any SQL database, on-premises or in the cloud, as an input data source or output data sink for Spark jobs.
Azure Databricks is a fast and collaborative Apache Spark-based big data analytics service designed for data science and data engineering. Azure Databricks, sets up your Apache Spark environment in minutes, autoscale, and collaborate on shared projects in an interactive workspace. Azure Databricks supports Python, Scala, R, Java, and SQL, as well as data science frameworks and libraries including TensorFlow, PyTorch, and scikit-learn.
Apache PredictionIO is an open source machine learning framework for developers, data scientists, and end users. It supports event collection, deployment of algorithms, evaluation, querying predictive results via REST APIs. It is based on scalable open source services like Hadoop, HBase (and other DBs), Elasticsearch, Spark and implements what is called a Lambda Architecture.
Cluster Manager for Apache Kafka(CMAK) is a tool for managing Apache Kafka clusters.
BigDL is a distributed deep learning library for Apache Spark. With BigDL, users can write their deep learning applications as standard Spark programs, which can directly run on top of existing Spark or Hadoop clusters.
Eclipse Deeplearning4J (DL4J) is a set of projects intended to support all the needs of a JVM-based(Scala, Kotlin, Clojure, and Groovy) deep learning application. This means starting with the raw data, loading and preprocessing it from wherever and whatever format it is in to building and tuning a wide variety of simple and complex deep learning networks.
Play Framework is a web framework combines productivity and performance making it easy to build scalable web applications with Java and Scala.
Dotty is a research compiler that will become Scala 3.
AWScala is a tool that enables Scala developers to easily work with Amazon Web Services in the Scala way.
Scala.js is a compiler that converts Scala to JavaScript.
Polynote is an experimental polyglot notebook environment. Currently, it supports Scala and Python (with or without Spark), SQL, and Vega.
Scala Native is an optimizing ahead-of-time compiler and lightweight managed runtime designed specifically for Scala.
Gitbucket is a Git platform powered by Scala with easy installation, high extensibility & GitHub API compatibility.
Finagle is a fault tolerant, protocol-agnostic RPC system
Gatling is a load test tool. It officially supports HTTP, WebSocket, Server-Sent-Events and JMS.
Scalatra is a tiny Scala high-performance, async web framework, inspired by Sinatra.
Back to the Top
R is an open source software environment for statistical computing and graphics. It compiles and runs on a wide variety of platforms such as Windows and MacOS.
An Introduction to R
Google's R Style Guide
R developer's guide to Azure
Running R at Scale on Google Compute Engine
Running R on AWS
RStudio Server Pro for AWS
Learn R by Codecademy
Learn R Programming with Online Courses and Lessons by edX
R Language Courses by Coursera
Learn R For Data Science by Udacity
RStudio is an integrated development environment for R and Python, with a console, syntax-highlighting editor that supports direct code execution, and tools for plotting, history, debugging and workspace management.
Shiny is a newer package from RStudio that makes it incredibly easy to build interactive web applications with R.
Rmarkdown is a package helps you create dynamic analysis documents that combine code, rendered output (such as figures), and prose.
Rplugin is R Language supported plugin for the IntelliJ IDE.
Plotly is an R package for creating interactive web graphics via the open source JavaScript graphing library plotly.js.
Metaflow is a Python/R library that helps scientists and engineers build and manage real-life data science projects. Metaflow was originally developed at Netflix to boost productivity of data scientists who work on a wide variety of projects from classical statistics to state-of-the-art deep learning.
Prophet is a procedure for forecasting time series data based on an additive model where non-linear trends are fit with yearly, weekly, and daily seasonality, plus holiday effects. It works best with time series that have strong seasonal effects and several seasons of historical data.
LightGBM is a gradient boosting framework that uses tree based learning algorithms, used for ranking, classification and many other machine learning tasks.
Dash is a Python framework for building analytical web applications in Python, R, Julia, and Jupyter.
MLR is Machine Learning in R.
ML workspace is an all-in-one web-based IDE specialized for machine learning and data science. It is simple to deploy and gets you started within minutes to productively built ML solutions on your own machines. ML workspace is the ultimate tool for developers preloaded with a variety of popular data science libraries (Tensorflow, PyTorch, Keras, and MXnet) and dev tools (Jupyter, VS Code, and Tensorboard) perfectly configured, optimized, and integrated.
CatBoost is a fast, scalable, high performance Gradient Boosting on Decision Trees library, used for ranking, classification, regression and other machine learning tasks for Python, R, Java, C++. Supports computation on CPU and GPU.
Plumber is a tool that allows you to create a web API by merely decorating your existing R source code with special comments.
Drake is an R-focused pipeline toolkit for reproducibility and high-performance computing.
DiagrammeR is a package you can create, modify, analyze, and visualize network graph diagrams. The output can be incorporated into R Markdown documents, integrated with Shiny web apps, converted to other graph formats, or exported as image files.
Knitr is a general-purpose literate programming engine in R, with lightweight API's designed to give users full control of the output without heavy coding work.
Broom is a tool that converts statistical analysis objects from R into tidy format.
Back to the Top
Julia is a high-level, high-performance dynamic language for technical computing. Julia programs compile to efficient native code for multiple platforms via LLVM.
JuliaHub contains over 4,000 Julia packages for use by the community.
Julia Observer
Julia Manual
JuliaLang Essentials
Julia Style Guide
Julia By Example
JuliaLang Gitter
DataFrames Tutorial using Jupyter Notebooks
Julia Academy
Julia Meetup groups
Julia on Microsoft Azure
JuliaPro is a free and fast way to setup Julia for individual researchers, engineers, scientists, quants, traders, economists, students and others. Julia developers can build better software quicker and easier while benefiting from Julia's unparalleled high performance. It includes 2600+ open source packages or from a curated list of 250+ JuliaPro packages. Curated packages are tested, documented and supported by Julia Computing.
Juno is a powerful, free IDE based on Atom for the Julia language.
Debugger.jl is the Julia debuggin tool.
Profile (Stdlib) is a module provides tools to help developers improve the performance of their code. When used, it takes measurements on running code, and produces output that helps you understand how much time is spent on individual line's.
Revise.jl allows you to modify code and use the changes without restarting Julia. With Revise, you can be in the middle of a session and then update packages, switch git branches, and/or edit the source code in the editor of your choice; any changes will typically be incorporated into the very next command you issue from the REPL. This can save you the overhead of restarting Julia, loading packages, and waiting for code to JIT-compile.
JuliaGPU is a Github organization created to unify the many packages for programming GPUs in Julia. With its high-level syntax and flexible compiler, Julia is well positioned to productively program hardware accelerators like GPUs without sacrificing performance.
IJulia.jl is the Julia kernel for Jupyter.
AWS.jl is a Julia interface for Amazon Web Services.
CUDA.jl is a package for the main programming interface for working with NVIDIA CUDA GPUs using Julia. It features a user-friendly array abstraction, a compiler for writing CUDA kernels in Julia, and wrappers for various CUDA libraries.
XLA.jl is a package for compiling Julia to XLA for Tensor Processing Unit(TPU).
Nanosoldier.jl is a package for running JuliaCI services on MIT's Nanosoldier cluster.
Julia for VSCode is a powerful extension for the Julia language.
JuMP.jl is a domain-specific modeling language for mathematical optimization embedded in Julia.
Optim.jl is a univariate and multivariate optimization in Julia.
RCall.jl is a package that allows you to call R functions from Julia.
JavaCall.jl is a package that allows you to call Java functions from Julia.
PyCall.jl is a package that allows you to call Python functions from Julia.
MXNet.jl is the Apache MXNet Julia package. MXNet.jl brings flexible and efficient GPU computing and state-of-art deep learning to Julia.
Knet is the Koç University deep learning framework implemented in Julia by Deniz Yuret and collaborators. It supports GPU operation and automatic differentiation using dynamic computational graphs for models defined in plain Julia.
Distributions.jl is a Julia package for probability distributions and associated functions.
DataFrames.jl is a tool for working with tabular data in Julia.
Flux.jl is an elegant approach to machine learning. It's a 100% pure-Julia stack, and provides lightweight abstractions on top of Julia's native GPU and AD support.
IRTools.jl is a simple and flexible IR format, expressive enough to work with both lowered and typed Julia code, as well as external IRs.
Cassette.jl is a Julia package that provides a mechanism for dynamically injecting code transformation passes into Julia's just-in-time (JIT) compilation cycle, enabling post hoc analysis and modification of "Cassette-unaware" Julia programs without requiring manual source annotation or refactoring of the target code.
Back to the Top
Distributed under the Creative Commons Attribution 4.0 International (CC BY 4.0) Public License.