Documentación: DSPY DOCS
DSPY es el marco de código abierto para la programación, en lugar de lo que solicita, los modelos de lenguaje . Le permite iterar rápido en la construcción de sistemas de IA modulares y proporciona algoritmos para optimizar sus indicaciones y pesos , ya sea que esté construyendo clasificadores simples, tuberías de trapo sofisticadas o bucles de agentes.
DSPY significa Python de operación automática declarativa. En lugar de las indicaciones frágiles, escribe el código de Python composicional y usa las herramientas de DSPY para enseñarle a su LM a ofrecer resultados de alta calidad . Esta conferencia es una buena introducción conceptual. Conozca a la comunidad, busque ayuda o comience a contribuir a través de nuestro repositorio de GitHub aquí y nuestro servidor de Discord.
Vaya a los documentos DSPY en DSPY.AI
pip install dspy
Para instalar lo último desde main
:
pip install git+https://github.com/stanfordnlp/dspy.git
[Jun'24] Optimización de instrucciones y demostraciones para programas de modelos de idiomas de varias etapas
[Oct'23] DSPY: Compilar las llamadas del modelo de lenguaje declarativo a las tuberías de administración automática
[Jul'24] Autorización y optimización rápida: dos grandes pasos que funcionan mejor juntos
[Jun'24] indica como hiperparámetros de entrenamiento auto-optimizado
[Feb'24] Asistir en la escritura de artículos tipo Wikipedia desde cero con modelos de idiomas grandes
[Enero de 24] Aprendizaje en contexto para la clasificación extrema de múltiples etiquetas
[Dic'23] Afirmaciones de DSPY: restricciones computacionales para las tuberías del modelo de lenguaje autorrefinante
[Dic'22] Demostrar predicto de búsqueda: componer modelos de recuperación e idiomas para la PNL intensiva en conocimiento
Para mantenerse al día o obtener más información, siga @LateInteraction en Twitter.
El logotipo de DSPY está diseñado por Chuyi Zhang .
Si usa DSPY o DSP en un trabajo de investigación, cite nuestro trabajo de la siguiente manera:
@inproceedings{khattab2024dspy,
title={DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines},
author={Khattab, Omar and Singhvi, Arnav and Maheshwari, Paridhi and Zhang, Zhiyuan and Santhanam, Keshav and Vardhamanan, Sri and Haq, Saiful and Sharma, Ashutosh and Joshi, Thomas T. and Moazam, Hanna and Miller, Heather and Zaharia, Matei and Potts, Christopher},
journal={The Twelfth International Conference on Learning Representations},
year={2024}
}
@article{khattab2022demonstrate,
title={Demonstrate-Search-Predict: Composing Retrieval and Language Models for Knowledge-Intensive {NLP}},
author={Khattab, Omar and Santhanam, Keshav and Li, Xiang Lisa and Hall, David and Liang, Percy and Potts, Christopher and Zaharia, Matei},
journal={arXiv preprint arXiv:2212.14024},
year={2022}
}