Dokumentation: DSPY -Dokumente
DSPY ist das Open-Source-Framework für die Programmierung-erfragte-und forderte- . Es ermöglicht Ihnen , modulare KI -Systeme schnell zu bauen, und bietet Algorithmen zur Optimierung ihrer Eingabeaufforderungen und Gewichte , unabhängig davon, ob Sie einfache Klassifizierer, anspruchsvolle Lag -Pipelines oder Agentenschleifen bauen.
DSPY steht für deklarative selbstverbesserte Python. Anstelle von spröden Eingabeaufforderungen schreiben Sie Kompositions- Python-Code und verwenden DSPY-Tools, um Ihr LM zu lehren, um qualitativ hochwertige Ausgänge zu liefern . Dieser Vortrag ist eine gute konzeptionelle Einführung. Treffen Sie die Community, suchen Sie Hilfe oder tragen Sie hier über unser Github Repo und unseren Discord -Server bei.
Bitte gehen Sie zu den DSPY -Dokumenten bei dspy.ai
pip install dspy
So installieren Sie die neuesten von main
:
pip install git+https://github.com/stanfordnlp/dspy.git
[Juni24] Optimierung von Anweisungen und Demonstrationen für mehrstufige Sprachmodellprogramme
[Okt.23] DSPY: Kompilieren des deklarativen Sprachmodells in selbstverschiebende Pipelines
[Jul'24] Feinabstimmung und sofortige Optimierung: Zwei großartige Schritte, die besser zusammenarbeiten
[Jun'24] Aufforderungen als automatisch optimiertes Trainingshyperparameter
[Feb'24] Unterstützung beim Schreiben von Wikipedia-ähnlichen Artikeln von Grund auf neuer Sprachmodelle
[Jan'24] In-Kontext-Lernen für die extreme Multi-Label-Klassifizierung
[Dec'23] DSPY-Behauptungen: Berechnungsbeschränkungen für die selbstringende Sprachmodellpipelines
[22. Dezember] Demonstrate-Such-Vorhersage: Verfassen von Abruf- und Sprachmodellen für wissensintensives NLP
Um auf dem Laufenden zu bleiben oder mehr zu erfahren, folgen Sie @LateInteraction auf Twitter.
Das DSPY -Logo wurde von Chuyi Zhang entworfen.
Wenn Sie DSPY oder DSP in einem Forschungspapier verwenden, geben Sie unsere Arbeit wie folgt an:
@inproceedings{khattab2024dspy,
title={DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines},
author={Khattab, Omar and Singhvi, Arnav and Maheshwari, Paridhi and Zhang, Zhiyuan and Santhanam, Keshav and Vardhamanan, Sri and Haq, Saiful and Sharma, Ashutosh and Joshi, Thomas T. and Moazam, Hanna and Miller, Heather and Zaharia, Matei and Potts, Christopher},
journal={The Twelfth International Conference on Learning Representations},
year={2024}
}
@article{khattab2022demonstrate,
title={Demonstrate-Search-Predict: Composing Retrieval and Language Models for Knowledge-Intensive {NLP}},
author={Khattab, Omar and Santhanam, Keshav and Li, Xiang Lisa and Hall, David and Liang, Percy and Potts, Christopher and Zaharia, Matei},
journal={arXiv preprint arXiv:2212.14024},
year={2022}
}