OptimAI python
1.0.0
OptimAI는 성능을 분석하고 실행 가능한 제안을 제공하여 코드를 최적화하도록 설계된 강력한 Python 모듈입니다. LLM(대형 언어 모델)을 활용하여 코드 실행 중에 수집된 프로파일링 데이터를 기반으로 자세한 통찰력과 권장 사항을 제공합니다. 이 모듈은 perfwatch 패키지의 다양한 종류의 프로파일러를 지원합니다.
pip를 사용하여 OptimAI를 설치할 수 있습니다.
pip install optimizeai
OptimAI를 사용하려면 선호하는 LLM 제공업체 및 API 키로 구성해야 합니다. 지원되는 LLM 제공업체에는 Google(Gemini 모델), OpenAI, Ollama, HuggingFace 및 Anthropic이 포함됩니다. Ollama의 경우 Ollama를 설치해야 하며 모델 아티팩트도 이전에 다운로드해야 합니다.
LLM 제공업체 선택 :
llm = "google"
llm = "openai"
llm = "huggingface"
llm = "anthropic"
llm = "ollama"
모델을 선택하십시오 :
model = "gpt-4"
, model = "gemini-1.5-flash"
, model = "codegemma"
또는 선택한 LLM 제공업체와 관련된 기타 모델.API 키 설정 :
다음은 OptimAI를 사용하여 기능을 최적화하는 방법을 보여주는 기본 예입니다.
from optimizeai . decorators . optimize import optimize
from optimizeai . config import Config
from dotenv import load_dotenv
import time
import os
# Load environment variables
load_dotenv ()
llm = os . getenv ( "LLM" )
key = os . getenv ( "API_KEY" )
model = os . getenv ( "MODEL" )
# Configure LLM
llm_config = Config ( llm = llm , model = model , key = key )
perfwatch_params = [ "line" , "cpu" , "time" ]
# Define a test function to be optimized
@ optimize ( config = llm_config , profiler_types = perfwatch_params )
def test ():
for _ in range ( 10 ):
time . sleep ( 0.1 )
print ( "Hello World!" )
pass
if __name__ == "__main__" :
test ()
사용 편의성을 위해 .env
파일에서 환경 변수( LLM
, API_KEY
, MODEL
)를 설정할 수 있습니다.
LLM=google
API_KEY=your_google_api_key
MODEL=gemini-1.5-flash
OptimAI에 대한 기여를 환영합니다! 새로운 기능에 대한 아이디어가 있거나 버그를 발견한 경우 GitHub에서 문제를 열어주세요. 코드를 제공하려면 저장소를 포크하고 풀 요청을 제출하세요.
git checkout -b feature-branch
).git commit -m 'Add new feature'
).git push origin feature-branch
).OptimAI는 MIT 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 LICENSE 파일을 참조하세요.