动态提示助手-单代理
Automate repetitive tasks using gen AI.
$0 subscription fee. 100% data privacy.
这个项目展示了我对使用 gen AI 在 Python 中进行即时工程和编码的理解。
它是一种自动化重复任务的工具——最大限度地减少在非增值流程上花费的时间,提高工作效率。
这是我完成deeplearning.ai
的AI Python course
和Prompt Engineering with Llama course
后的一个项目。
从https://ollama.com/download
下载并安装 Ollama
在终端中:
pip install ollama
ollama pull llama3.1:latest
pip install pandas
prompt_var
是您的任务的内容。
将它们分别粘贴到prompt_var
列中的单独行中。
在app.py
的Base prompt
部分下编辑您的提示。使用及时的工程技术来获得所需的结果。
示例用例:
电子邮件文本提取器
prompt = f"""
Given is an email from contains product code and corresponding remarks. Identify the product code and remarks within the original text.
Provide the product code and remark only in csv format, ready to save. Exclude the "```csv" declaration, don't add spaces after the comma, include column headers.
Format:
product_code, remark
product_code_1, remark_1
...
Email:
"""
客户评论文本分类器
prompt = f"""
Respond with "Positve" or "Negative":
the comment is a product reivew, describing an user experience.
Comment:
"""
即时工程资源:
cd DynPrompt-1a
python app.py
responses.csv
保存在同一文件夹中。在 Excel 中打开。
回应很大程度上取决于所使用的法学硕士和及时的工程技术。
可以利用上述资源来完善快速工程技术。
可以使用什么 LLM 模型取决于您的硬件。 LLM 模型越好,RAM 和 VRAM 要求就越高。
特别是在此脚本中,我在 MacBook M3 Pro 18GB RAM
上使用Llama 3.1 8B
。如果您的 VRAM 不足,您可能会遇到错误。
检查终端以查看 Ollama 是否正常运行。或者相应地编辑较小的法学硕士的脚本。
ollama run llama3.1:latest
我感兴趣的是:
Langflow——用于多代理工作流程的低代码工具,允许执行更复杂的任务
n8n——一个跨不同应用程序工作的自动化工作流程工具
如果您有任何反馈或改进建议,或者您知道有关 Langflow 和 n8n 的任何好的教程,请告诉我!让我们联系吧。
我要感谢开源社区和 deeplearning.ai 的讲师。