Assistente de prompt dinâmico - agente único
Automate repetitive tasks using gen AI.
$0 subscription fee. 100% data privacy.
Este projeto demonstra minha compreensão de engenharia e codificação imediata em Python usando gen AI.
É uma ferramenta para automatizar tarefas repetitivas – minimizando o tempo gasto em processos que não agregam valor, aumentando a eficiência do trabalho.
Este é um projeto após minha conclusão do AI Python course
e do Prompt Engineering with Llama course
de deeplearning.ai
.
Baixe e instale o Ollama em https://ollama.com/download
No terminal:
pip install ollama
ollama pull llama3.1:latest
pip install pandas
prompt_var
é o conteúdo da sua tarefa.
Cole cada um deles na coluna prompt_var
em linhas separadas.
Edite seu prompt na seção Base prompt
em app.py
. Use técnicas de engenharia imediatas para obter os resultados desejados.
Exemplos de casos de uso:
Extrator de texto para e-mail
prompt = f"""
Given is an email from contains product code and corresponding remarks. Identify the product code and remarks within the original text.
Provide the product code and remark only in csv format, ready to save. Exclude the "```csv" declaration, don't add spaces after the comma, include column headers.
Format:
product_code, remark
product_code_1, remark_1
...
Email:
"""
Classificador de texto de avaliação do cliente
prompt = f"""
Respond with "Positve" or "Negative":
the comment is a product reivew, describing an user experience.
Comment:
"""
Recursos de engenharia imediata:
cd DynPrompt-1a
python app.py
responses.csv
é salvo na mesma pasta. Abra no Excel.
As respostas dependem em grande parte do LLM em uso e das técnicas de engenharia imediatas.
Técnicas de engenharia imediata podem ser refinadas com os recursos mencionados acima.
O modelo LLM que pode ser usado depende do seu hardware. Quanto melhor for o modelo LLM, maiores serão os requisitos de RAM e VRAM.
Neste script em particular, estou usando Llama 3.1 8B
no MacBook M3 Pro 18GB RAM
. Você pode encontrar erros se sua VRAM for insuficiente.
Verifique no terminal para ver se o Ollama está funcionando corretamente. Ou edite o script para um LLM menor de acordo.
ollama run llama3.1:latest
Estou interessado em:
Langflow – uma ferramenta de baixo código para fluxo de trabalho multiagente permite tarefas mais complexas
n8n – uma ferramenta de fluxo de trabalho de automação que funciona em diferentes aplicativos
Se você tiver algum comentário ou sugestão de melhoria, ou se conhecer algum bom tutorial sobre Langflow e n8n, por favor me avise! Vamos nos conectar.
Gostaria de agradecer à comunidade de código aberto e aos instrutores do deeplearning.ai.