OptimAI python
1.0.0
OptimAI 是一个功能强大的 Python 模块,旨在通过分析代码性能并提供可行的建议来优化代码。它利用大型语言模型 (LLM),根据代码执行期间收集的分析数据为您提供详细的见解和建议。该模块支持 perfwatch 包中的各种分析器。
您可以使用 pip 安装 OptimAI:
pip install optimizeai
要使用 OptimAI,您需要使用您首选的 LLM 提供商和 API 密钥对其进行配置。支持的 LLM 提供商包括 Google(Gemini 模型)、OpenAI、Ollama、HuggingFace 和 Anthropic。对于 Ollama,您需要安装 Ollama,并且还需要事先下载模型工件。
选择法学硕士提供者:
llm = "google"
llm = "openai"
llm = "huggingface"
llm = "anthropic"
llm = "ollama"
选择型号:
model = "gpt-4"
、 model = "gemini-1.5-flash"
、 model = "codegemma"
或特定于所选 LLM 提供商的任何其他模型。设置 API 密钥:
以下是演示如何使用 OptimAI 优化函数的基本示例:
from optimizeai . decorators . optimize import optimize
from optimizeai . config import Config
from dotenv import load_dotenv
import time
import os
# Load environment variables
load_dotenv ()
llm = os . getenv ( "LLM" )
key = os . getenv ( "API_KEY" )
model = os . getenv ( "MODEL" )
# Configure LLM
llm_config = Config ( llm = llm , model = model , key = key )
perfwatch_params = [ "line" , "cpu" , "time" ]
# Define a test function to be optimized
@ optimize ( config = llm_config , profiler_types = perfwatch_params )
def test ():
for _ in range ( 10 ):
time . sleep ( 0.1 )
print ( "Hello World!" )
pass
if __name__ == "__main__" :
test ()
您可以在.env
文件中设置环境变量( LLM
、 API_KEY
、 MODEL
)以方便使用:
LLM=google
API_KEY=your_google_api_key
MODEL=gemini-1.5-flash
我们欢迎为 OptimAI 做出贡献!如果您对新功能有想法或发现错误,请在 GitHub 上提出问题。如果您想贡献代码,请分叉存储库并提交拉取请求。
git checkout -b feature-branch
)。git commit -m 'Add new feature'
)。git push origin feature-branch
)。OptimAI 根据 MIT 许可证获得许可。有关更多详细信息,请参阅许可证文件。