一個簡單的 RStudio 插件,可使用 OpenAI 的 GPT 模型立即將蹩腳的英語轉換為工作代碼、視覺化、分析等。啟動後,外掛程式將嘗試用工作代碼取代突出顯示的文字請求。
嘗試提供先前編寫的稍微縮小的程式碼的上下文(目前僅刪除明確註解和空格)。如果程式碼上下文太大,它將被截斷,預設情況下總提示約為 2750 個標記,剩下 4096 個標記(假設為 gpt-3-turbo)用於回應。精確截斷是透過 Open AI 的「tiktoken」庫透過連結的 python 程式碼完成的。為此需要 Python > 3.8。
未來的更新將包括更複雜的上下文壓縮。
在 RStudio 中安裝插件:
remotes::install_github("1223423/statGPT")
然後在RStudio中設定所需的臨時環境變數:
Sys.setenv(OPENAI_API_KEY = "your api key here") # API key
Sys.setenv(OPENAI_MODEL = "gpt-3.5-turbo") # Model (optional; default: gpt-3.5-turbo)
Sys.setenv(OPENAI_TEMPERATURE = 0.25) # Temperature (optional; default 0.25)
Sys.setenv(STATGPT_DEBUG = 0) # Debug logging (optional; default: 0)
Sys.setenv(STATGPT_CTXLIM = 2750) # Input context limit (optional; default ~2750 tokens)
或者,您可以在.Renviron
檔案中設定持久密鑰。
statGPT 需要 Open AI 的tiktoken
,因此需要 Python 3.8 或更高版本。它也使用 R 套件reticulate
、 httr
和jsonlite
。
OPENAI_TEMPERATURE 有什麼作用?溫度範圍為 0-2,控制輸出的隨機性和創造性水平,0 或接近 0 的值幾乎是確定性的。預設值為 0.25。
STATGPT_CTXLIM 有什麼作用?每個 OpenAI 模型都具有輸入和回應之間共享的令牌限制。例如, gpt-3.5-turbo
令牌限制為 4096 個。 CTXLIM 對輸入設定了上限,預設為2750 個令牌,這為回應留下了約1346 個令牌,但是,即使使用OpenAI 的令牌產生器,這也可能會減少一些令牌(請參閱:「 openai-cookbook”)。如果您使用 gpt-4,您需要將此限制設定得更高。
為什麼我得到的程式碼不起作用?不知道嘗試以不同的方式再問一次 lmao