OptimAI python
1.0.0
OptimAI 是一個功能強大的 Python 模組,旨在透過分析程式碼效能並提供可行的建議來優化程式碼。它利用大型語言模型 (LLM),根據程式碼執行期間收集的分析資料為您提供詳細的見解和建議。此模組支援 perfwatch 套件中的各種分析器。
您可以使用 pip 安裝 OptimAI:
pip install optimizeai
若要使用 OptimAI,您需要使用您首選的 LLM 提供者和 API 金鑰對其進行配置。支援的 LLM 提供者包括 Google(Gemini 模型)、OpenAI、Ollama、HuggingFace 和 Anthropic。對於 Ollama,您需要安裝 Ollama,並且還需要事先下載模型工件。
選擇法學碩士提供者:
llm = "google"
llm = "openai"
llm = "huggingface"
llm = "anthropic"
llm = "ollama"
選擇型號:
model = "gpt-4"
、 model = "gemini-1.5-flash"
、 model = "codegemma"
或特定於所選 LLM 提供者的任何其他模型。設定 API 金鑰:
以下是示範如何使用 OptimAI 最佳化函數的基本範例:
from optimizeai . decorators . optimize import optimize
from optimizeai . config import Config
from dotenv import load_dotenv
import time
import os
# Load environment variables
load_dotenv ()
llm = os . getenv ( "LLM" )
key = os . getenv ( "API_KEY" )
model = os . getenv ( "MODEL" )
# Configure LLM
llm_config = Config ( llm = llm , model = model , key = key )
perfwatch_params = [ "line" , "cpu" , "time" ]
# Define a test function to be optimized
@ optimize ( config = llm_config , profiler_types = perfwatch_params )
def test ():
for _ in range ( 10 ):
time . sleep ( 0.1 )
print ( "Hello World!" )
pass
if __name__ == "__main__" :
test ()
您可以在.env
檔案中設定環境變數( LLM
、 API_KEY
、 MODEL
)以方便使用:
LLM=google
API_KEY=your_google_api_key
MODEL=gemini-1.5-flash
我們歡迎為 OptimAI 做出貢獻!如果您對新功能有想法或發現錯誤,請在 GitHub 上提出問題。如果您想貢獻程式碼,請分叉儲存庫並提交拉取請求。
git checkout -b feature-branch
)。git commit -m 'Add new feature'
)。git push origin feature-branch
)。OptimAI 根據 MIT 許可證獲得許可。有關更多詳細信息,請參閱許可證文件。