一个简单的 RStudio 插件,可使用 OpenAI 的 GPT 模型立即将蹩脚的英语转换为工作代码、可视化、分析等。激活后,插件将尝试用工作代码替换突出显示的文本请求。
尝试提供先前编写的稍微缩小的代码的上下文(当前仅删除显式注释和空格)。如果代码上下文太大,它将被截断,默认情况下总提示约为 2750 个标记,剩下 4096 个标记(假设为 gpt-3-turbo)用于响应。精确截断是通过 Open AI 的“tiktoken”库通过链接的 python 代码完成的。为此需要 Python > 3.8。
未来的更新将包括更复杂的上下文压缩。
在 RStudio 中安装插件:
remotes::install_github("1223423/statGPT")
然后在RStudio中设置所需的临时环境变量:
Sys.setenv(OPENAI_API_KEY = "your api key here") # API key
Sys.setenv(OPENAI_MODEL = "gpt-3.5-turbo") # Model (optional; default: gpt-3.5-turbo)
Sys.setenv(OPENAI_TEMPERATURE = 0.25) # Temperature (optional; default 0.25)
Sys.setenv(STATGPT_DEBUG = 0) # Debug logging (optional; default: 0)
Sys.setenv(STATGPT_CTXLIM = 2750) # Input context limit (optional; default ~2750 tokens)
或者,您可以在.Renviron
文件中设置持久密钥。
statGPT 需要 Open AI 的tiktoken
,因此需要 Python 3.8 或更高版本。它还使用 R 包reticulate
、 httr
和jsonlite
。
OPENAI_TEMPERATURE 有什么作用?温度范围为 0-2,控制输出的随机性和创造性水平,0 或接近 0 的值几乎是确定性的。默认值为 0.25。
STATGPT_CTXLIM 有什么作用?每个 OpenAI 模型都具有输入和响应之间共享的令牌限制。例如, gpt-3.5-turbo
令牌限制为 4096 个。 CTXLIM 对输入设置了上限,默认为 2750 个令牌,这为响应留下了约 1346 个令牌,但是,即使使用 OpenAI 的令牌生成器,这也可能会减少一些令牌(请参阅:“openai-cookbook”)。如果您使用 gpt-4,您需要将此限制设置得更高。
为什么我得到的代码不起作用?不知道尝试以不同的方式再问一次 lmao