Die CUDA-Q-Plattform für hybride quantenklassische Computer ermöglicht die Integration und Programmierung von Quantenverarbeitungseinheiten (QPUs), GPUs und CPUs in einem System. Dieses Repository enthält den Quellcode für alle vom CUDA-Q-Toolkit bereitgestellten C++- und Python-Tools, einschließlich des nvq++
Compilers, der CUDA-Q-Laufzeit sowie einer Auswahl integrierter CPU- und GPU-Backends für schnelle Anwendungsentwicklung und -tests.
Um mehr über die Arbeit mit CUDA-Q zu erfahren, werfen Sie bitte einen Blick auf die CUDA-Q-Dokumentation. Die Seite enthält auch Installationsanweisungen für offiziell veröffentlichte Pakete.
Wenn Sie die neueste in der Entwicklung befindliche Iteration in diesem Repository installieren und/oder Ihre eigenen Änderungen hinzufügen möchten, werfen Sie einen Blick auf die neuesten Pakete, die in der GitHub Container Registry bereitgestellt werden. Weitere Informationen zum Erstellen von CUDA-Q aus dem Quellcode finden Sie in diesen Anweisungen.
Es gibt viele Möglichkeiten, wie Sie sich bei CUDA-Q engagieren können. Wenn Sie daran interessiert sind, Quantenanwendungen mit CUDA-Q zu entwickeln, ist dieses Repository ein großartiger Ausgangspunkt! Weitere Informationen zum Mitwirken an der CUDA-Q-Plattform finden Sie unter Contributing.md.
Der Code in diesem Repository ist unter der Apache-Lizenz 2.0 lizenziert.
Um einen Pull-Request zu diesem Repository beizutragen, müssen Sie die Contributor License Agreement (CLA) akzeptieren, in der Sie erklären, dass Sie das Recht haben, uns die Rechte zur Nutzung Ihres Beitrags zu gewähren, und dies auch tatsächlich tun. Ein CLA-Bot ermittelt automatisch, ob Sie eine CLA bereitstellen müssen und schmückt die PR entsprechend. Folgen Sie einfach den Anweisungen des Bots. Sie müssen dies nur einmal tun.
Bitte teilen Sie uns Ihr Feedback und Ihre Ideen zur CUDA-Q-Plattform auf der Registerkarte „Diskussionen“ dieses Repositorys mit oder reichen Sie ein Problem ein. Um Sicherheitsbedenken oder Verstöße gegen den Verhaltenskodex zu melden, wenden Sie sich bitte an [email protected].