Repositori ini berfokus pada eksperimen dengan perpustakaan LangChain untuk membangun aplikasi yang kuat dengan model bahasa besar (LLM). Dengan memanfaatkan model bahasa canggih seperti GPT-3.5 Turbo OpenAI (dan segera GPT-4), proyek ini menunjukkan cara membuat database yang dapat dicari dari transkrip video YouTube, melakukan kueri pencarian kesamaan menggunakan perpustakaan FAISS, dan menanggapi pertanyaan pengguna dengan informasi yang relevan dan tepat.
LangChain adalah kerangka komprehensif yang dirancang untuk mengembangkan aplikasi yang didukung oleh model bahasa. Ini lebih dari sekadar memanggil LLM melalui API, karena aplikasi paling canggih dan terdiferensiasi juga peka terhadap data dan agen, memungkinkan model bahasa untuk terhubung dengan sumber data lain dan berinteraksi dengan lingkungannya. Kerangka LangChain secara khusus dibangun untuk mengatasi prinsip-prinsip ini.
Bagian khusus Python dari dokumentasi LangChain mencakup beberapa modul utama, masing-masing memberikan contoh, panduan cara, dokumen referensi, dan panduan konseptual. Modul-modul ini meliputi:
Dengan LangChain, pengembang dapat membuat berbagai aplikasi, seperti chatbot dukungan pelanggan, pembuat konten otomatis, alat analisis data, dan mesin pencari cerdas. Aplikasi ini dapat membantu bisnis menyederhanakan alur kerja mereka, mengurangi tenaga kerja manual, dan meningkatkan pengalaman pelanggan.
Dengan menjual aplikasi berbasis LangChain sebagai layanan kepada bisnis, Anda dapat memberikan solusi yang disesuaikan untuk memenuhi kebutuhan spesifik mereka. Misalnya, perusahaan bisa mendapatkan keuntungan dari chatbot yang dapat disesuaikan untuk menangani pertanyaan pelanggan, alat pembuatan konten yang dipersonalisasi untuk pemasaran, atau sistem analisis data internal yang memanfaatkan kekuatan LLM untuk mengekstraksi wawasan berharga. Kemungkinannya sangat besar, dan kerangka kerja LangChain yang fleksibel menjadikannya pilihan ideal untuk mengembangkan dan menerapkan aplikasi model bahasa tingkat lanjut di berbagai industri.
OpenAI API didukung oleh beragam model dengan kemampuan dan harga berbeda. Anda juga dapat membuat penyesuaian terbatas pada model dasar asli kami untuk kasus penggunaan spesifik Anda dengan penyesuaian.
git clone https://github.com/daveebbelaar/langchain-experiments.git
Python 3.6 atau lebih tinggi menggunakan venv
atau conda
. Menggunakan venv
:
cd langchain-experiments
python3 -m venv env
source env/bin/activate
Menggunakan conda
:
cd langchain-experiments
conda create -n langchain-env python=3.8
conda activate langchain-env
pip install -r requirements.txt
Pertama, buat file .env
di direktori root proyek. Di dalam file, tambahkan kunci OpenAI API Anda:
OPENAI_API_KEY ="your_api_key_here"
Simpan file dan tutup. Di skrip Python atau notebook Jupyter Anda, muat file .env
menggunakan kode berikut:
from dotenv import load_dotenv , find_dotenv
load_dotenv ( find_dotenv ())
Dengan menggunakan konvensi penamaan yang tepat untuk variabel lingkungan, Anda tidak perlu menyimpan kunci secara manual dalam variabel terpisah dan meneruskannya ke fungsi. Pustaka atau paket yang memerlukan kunci API akan secara otomatis mengenali variabel lingkungan OPENAI_API_KEY
dan menggunakan nilainya.
Bila diperlukan, Anda dapat mengakses OPENAI_API_KEY
sebagai variabel lingkungan:
import os
api_key = os . environ [ 'OPENAI_API_KEY' ]
Sekarang lingkungan Python Anda sudah siap, dan Anda dapat melanjutkan menjalankan eksperimen.
Dokumen ini disediakan untuk Anda oleh Datalumina. Kami membantu analis data, insinyur, dan ilmuwan meluncurkan dan meningkatkan skala bisnis freelance yang sukses — $100k+ /tahun, proyek menyenangkan, klien bahagia. Jika Anda ingin mempelajari lebih lanjut tentang apa yang kami lakukan, Anda dapat mengunjungi situs web kami dan berlangganan buletin kami. Jangan ragu untuk membagikan dokumen ini kepada teman dan kolega data Anda.
Untuk tutorial video tentang cara menggunakan perpustakaan LangChain dan menjalankan eksperimen, kunjungi saluran YouTube: youtube.com/@daveebbelaar