Documentation: DSPY Docs
DSPY est le cadre open source pour les modèles de programmation - plutôt que de suspension . Il vous permet d'itérer rapidement sur la construction de systèmes d'IA modulaires et fournit des algorithmes pour optimiser leurs invites et leurs poids , que vous construisiez des classificateurs simples, des pipelines de chiffon sophistiqués ou des boucles d'agent.
DSPY signifie Python déclaratif déclaratif. Au lieu d'invites fragiles, vous écrivez du code Python de composition et utilisez les outils de DSPY pour enseigner à votre LM à fournir des sorties de haute qualité . Cette conférence est une bonne introduction conceptuelle. Rencontrez la communauté, demandez de l'aide ou commencez à contribuer via notre repo GitHub ici et notre serveur Discord.
Veuillez aller aux documents DSPY à DSPY.ai
pip install dspy
Pour installer le tout dernier de main
:
pip install git+https://github.com/stanfordnlp/dspy.git
[Jun'24] Optimisation des instructions et des démonstrations pour les programmes de modèles linguistiques en plusieurs étapes
[23 octobre] DSPY: Compilation Le modèle de langue déclarative appelle les pipelines auto-améliorées
[JUL'24] Affinage fin et optimisation rapide: deux excellentes étapes qui fonctionnent mieux ensemble
[Jun'24] Invite comme des hyperparamètres de formation auto-optimisés
[Février 24] Aider à écrire des articles de type Wikipedia à partir de zéro avec de grands modèles de langue
[24 janvier] Apprentissage en contexte pour une classification multi-étiquettes extrêmes
[Dec'23] Assertions DSPY: Contraintes de calcul pour les pipelines de modèle de langage auto-raffinant
[Dec'22] Démontrer la recherche de recherche: composer des modèles de récupération et de langue pour la PNL à forte intensité de connaissances
Pour rester à jour ou en savoir plus, suivez @lateInteraction sur Twitter.
Le logo DSPY est conçu par Chuyi Zhang .
Si vous utilisez DSPY ou DSP dans un document de recherche, veuillez citer notre travail comme suit:
@inproceedings{khattab2024dspy,
title={DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines},
author={Khattab, Omar and Singhvi, Arnav and Maheshwari, Paridhi and Zhang, Zhiyuan and Santhanam, Keshav and Vardhamanan, Sri and Haq, Saiful and Sharma, Ashutosh and Joshi, Thomas T. and Moazam, Hanna and Miller, Heather and Zaharia, Matei and Potts, Christopher},
journal={The Twelfth International Conference on Learning Representations},
year={2024}
}
@article{khattab2022demonstrate,
title={Demonstrate-Search-Predict: Composing Retrieval and Language Models for Knowledge-Intensive {NLP}},
author={Khattab, Omar and Santhanam, Keshav and Li, Xiang Lisa and Hall, David and Liang, Percy and Potts, Christopher and Zaharia, Matei},
journal={arXiv preprint arXiv:2212.14024},
year={2022}
}