Ce référentiel se concentre sur l'expérimentation de la bibliothèque LangChain pour créer des applications puissantes avec de grands modèles de langage (LLM). En exploitant des modèles de langage de pointe tels que GPT-3.5 Turbo d'OpenAI (et bientôt GPT-4), ce projet montre comment créer une base de données consultable à partir d'une transcription vidéo YouTube, effectuer des requêtes de recherche de similarité à l'aide de la bibliothèque FAISS et répondre aux questions des utilisateurs avec des informations pertinentes et précises.
LangChain est un framework complet conçu pour développer des applications alimentées par des modèles de langage. Cela va au-delà du simple appel d'un LLM via une API, car les applications les plus avancées et différenciées sont également sensibles aux données et agents, permettant aux modèles de langage de se connecter à d'autres sources de données et d'interagir avec leur environnement. Le framework LangChain est spécifiquement conçu pour répondre à ces principes.
La partie spécifique à Python de la documentation de LangChain couvre plusieurs modules principaux, chacun fournissant des exemples, des guides pratiques, des documents de référence et des guides conceptuels. Ces modules comprennent :
Avec LangChain, les développeurs peuvent créer diverses applications, telles que des chatbots de support client, des générateurs de contenu automatisés, des outils d'analyse de données et des moteurs de recherche intelligents. Ces applications peuvent aider les entreprises à rationaliser leurs flux de travail, à réduire le travail manuel et à améliorer l'expérience client.
En vendant des applications basées sur LangChain en tant que service aux entreprises, vous pouvez fournir des solutions sur mesure pour répondre à leurs besoins spécifiques. Par exemple, les entreprises peuvent bénéficier de chatbots personnalisables qui traitent les demandes des clients, d'outils de création de contenu personnalisés pour le marketing ou de systèmes internes d'analyse de données qui exploitent la puissance des LLM pour extraire des informations précieuses. Les possibilités sont vastes et le cadre flexible de LangChain en fait le choix idéal pour développer et déployer des applications de modèle de langage avancées dans divers secteurs.
L'API OpenAI est alimentée par un ensemble diversifié de modèles avec des capacités et des prix différents. Vous pouvez également apporter des personnalisations limitées à nos modèles de base d'origine pour votre cas d'utilisation spécifique avec un réglage fin.
git clone https://github.com/daveebbelaar/langchain-experiments.git
Python 3.6 ou supérieur utilisant venv
ou conda
. En utilisant venv
:
cd langchain-experiments
python3 -m venv env
source env/bin/activate
Utiliser conda
:
cd langchain-experiments
conda create -n langchain-env python=3.8
conda activate langchain-env
pip install -r requirements.txt
Tout d’abord, créez un fichier .env
dans le répertoire racine du projet. Dans le fichier, ajoutez votre clé API OpenAI :
OPENAI_API_KEY ="your_api_key_here"
Enregistrez le fichier et fermez-le. Dans votre script Python ou votre notebook Jupyter, chargez le fichier .env
à l'aide du code suivant :
from dotenv import load_dotenv , find_dotenv
load_dotenv ( find_dotenv ())
En utilisant la bonne convention de dénomination pour la variable d'environnement, vous n'avez pas besoin de stocker manuellement la clé dans une variable distincte et de la transmettre à la fonction. La bibliothèque ou le package qui nécessite la clé API reconnaîtra automatiquement la variable d'environnement OPENAI_API_KEY
et utilisera sa valeur.
Si nécessaire, vous pouvez accéder à OPENAI_API_KEY
en tant que variable d'environnement :
import os
api_key = os . environ [ 'OPENAI_API_KEY' ]
Votre environnement Python est maintenant configuré et vous pouvez procéder à l’exécution des expériences.
Ce document vous est fourni par Datalumina. Nous aidons les analystes de données, les ingénieurs et les scientifiques à lancer et à développer une entreprise indépendante prospère : plus de 100 000 $/an, des projets amusants, des clients satisfaits. Si vous souhaitez en savoir plus sur ce que nous faisons, vous pouvez visiter notre site Web et vous abonner à notre newsletter. N'hésitez pas à partager ce document avec vos amis et collègues data.
Pour des didacticiels vidéo sur l'utilisation de la bibliothèque LangChain et la réalisation d'expériences, visitez la chaîne YouTube : youtube.com/@daveebbelaar