LLMCheatsheets.jl adalah paket Julia yang memudahkan dan instan mengajarkan model AI tentang paket dan repositori baru dengan membuat lembar contekan dari repositori GitHub. Alat ini menjembatani kesenjangan antara dokumentasi yang dapat dibaca manusia dan representasi pengetahuan yang ramah AI, memungkinkan integrasi yang lancar dengan model bahasa dan asisten AI.
Secara default, kami mengambil subset folder dan file di repositori yang disediakan dan meringkasnya menggunakan LLM ke dalam satu lembar contekan.
Untuk menginstal LLMCheatsheets.jl, gunakan manajer paket Julia dan URL repo (belum terdaftar):
using Pkg
Pkg . add (url = " https://github.com/svilupp/LLMCheatsheets.jl " )
Tip
Jika Anda mengalami batas kecepatan saat mengakses API GitHub, Anda dapat menyiapkan token akses pribadi dan menetapkannya sebagai variabel lingkungan GITHUB_API_KEY
untuk meningkatkan batas permintaan Anda menjadi 5000 per jam.
Berikut adalah contoh dasar cara menggunakan LLMCheatsheets.jl untuk membuat lembar contekan untuk repositori GitHub.
using LLMCheatsheets
repo = GitHubRepo ( " https://github.com/svilupp/PromptingTools.jl " )
create_cheatsheet (repo; save_path = true );
Dengan save_path = true
, cheatsheet akan disimpan ke folder llm-cheatsheets
di direktori kerja saat ini.
Apa yang terjadi di balik layar:
repo.paths
dan repo.file_types
. Untuk antarmuka tingkat rendah untuk menghasilkan file satu per satu dan memprosesnya sendiri, lihat examples/create_for_promptingtools.jl
.
Terkadang Anda mungkin hanya ingin mengunduh file tanpa meringkasnya. Anda dapat melakukannya dengan fungsi collect
.
files_str = collect (repo)
files_str
akan berupa string dengan semua file yang dipindai digabungkan menjadi satu. Untuk menggunakannya di ChatGPT atau Claude.ai, gunakan fungsionalitas clipboard
untuk menyalinnya ke clipboard - files_str|>clipboard
.
Secara default, file yang dipindai dan diunduh masing-masing adalah repo.paths
dan repo.file_types
.
Secara default, repo.paths
menyertakan ["src", "docs/src", "README.md"]
, dan repo.file_types
menyertakan [".jl", ".md"]
. Anda dapat menyesuaikannya saat membuat objek GitHubRepo
:
Misalnya menambahkan examples
folder dan file .txt
untuk menyesuaikan apa yang akan kami rangkum:
repo = GitHubRepo ( " https://github.com/username/repository " ; paths = [ " examples " , " README.md " ], file_types = [ " .jl " , " .md " , " .txt " ])
Anda dapat menggunakan LLM lain dengan meneruskan argumen model
ke fungsi.
create_cheatsheet (repo; save_path = true , model = " gpt4om " )
Anda dapat memberikan instruksi khusus untuk memandu AI dalam membuat lembar contekan:
create_cheatsheet (repo; special_instructions = " Focus on the data structures and their interactions. " )
Anda cukup mengekspor juga fungsi ai* dari PromptingTools.jl untuk menggunakannya dengan LLMCheatsheets.jl.
using LLMCheatsheets
# Re-export aigenerate, pprint from PromptingTools
using LLMCheatsheets : aigenerate, pprint
# Or import PromptingTools directly
# using PromptingTools
repo = GitHubRepo ( " https://github.com/svilupp/PromptingTools.jl " ; paths = [ " docs/src " , " README.md " ])
files_str = collect (repo)
msg = aigenerate ( " Read through these files: $(files_str) nn Answer the question: What is the function for creating prompt templates? " )
pprint (msg)
The function for creating prompt templates in the `PromptingTools.jl` package is `create_template`. This function allows you to define a prompt with placeholders and save it for later use. The syntax is:
```julia
create_template(; user=<user prompt>,
system=<system prompt>, load_as=<template name>)
```
This function generates a vector of messages, which you can use directly in the `ai*` functions. If you provide the `load_as` argument, it will also register the template in the template store,
allowing you to access it later using its name.
Jika tarif Anda dibatasi oleh penyedia LLM, Anda dapat mengurangi jumlah tugas ringkasan serentak di create_cheatsheet
dengan menetapkan angka yang lebih rendah seperti ntasks=5
atau ntasks=2
(tergantung pada tingkat API Anda).
Siapkan token akses pribadi dan atur sebagai ENV["GITHUB_API_KEY"]
. Ini akan secara otomatis dimuat ke dalam variabel LLMCheatsheets.GITHUB_API_KEY
.
Anda dapat menyiapkan token akses pribadi untuk GitHub API dengan mengikuti langkah-langkah berikut:
Kemudian Anda dapat mengaturnya sebagai ENV["GITHUB_API_KEY"]
atau LLMCheatsheets.GITHUB_API_KEY
.
Untuk informasi lebih lanjut tentang penggunaan LLMCheatsheets.jl, silakan merujuk ke dokumentasi.
Jika Anda mengalami masalah atau memiliki pertanyaan, silakan buka masalah di repositori GitHub.