Asistente de avisos dinámicos: agente único
Automate repetitive tasks using gen AI.
$0 subscription fee. 100% data privacy.
Este proyecto demuestra mi comprensión de la ingeniería y codificación rápidas en Python utilizando gen AI.
Es una herramienta para automatizar tareas repetitivas, minimizando el tiempo dedicado a procesos que no agregan valor y aumentando la eficiencia del trabajo.
Este es un proyecto después de completar el AI Python course
y el Prompt Engineering with Llama course
de deeplearning.ai
.
Descargue e instale Ollama desde https://ollama.com/download
En terminales:
pip install ollama
ollama pull llama3.1:latest
pip install pandas
prompt_var
es el contenido de su tarea.
Pegue cada uno de ellos en la columna prompt_var
en filas separadas.
Edite su mensaje en la sección Base prompt
en app.py
Utilice técnicas de ingeniería rápidas para obtener los resultados deseados.
Casos de uso de ejemplo:
Extractor de texto para correo electrónico
prompt = f"""
Given is an email from contains product code and corresponding remarks. Identify the product code and remarks within the original text.
Provide the product code and remark only in csv format, ready to save. Exclude the "```csv" declaration, don't add spaces after the comma, include column headers.
Format:
product_code, remark
product_code_1, remark_1
...
Email:
"""
Clasificador de texto de reseñas de clientes
prompt = f"""
Respond with "Positve" or "Negative":
the comment is a product reivew, describing an user experience.
Comment:
"""
Recursos de ingeniería rápida:
cd DynPrompt-1a
python app.py
responses.csv
se guarda en la misma carpeta. Abrir en Excel.
Las respuestas dependen en gran medida del LLM que se utilice y de las técnicas de ingeniería inmediatas.
Las técnicas de ingeniería rápidas se pueden perfeccionar con los recursos mencionados anteriormente.
El modelo de LLM que se podría utilizar depende de su hardware. Cuanto mejor sea el modelo LLM, mayores serán los requisitos de RAM y VRAM.
En este script en particular, estoy usando Llama 3.1 8B
en MacBook M3 Pro 18GB RAM
. Puede encontrarse con errores si su VRAM es insuficiente.
Verifique en la terminal para ver si Ollama se está ejecutando correctamente. O edite el guión para un LLM más pequeño en consecuencia.
ollama run llama3.1:latest
Estoy interesado en:
Langflow: una herramienta de bajo código para flujos de trabajo de múltiples agentes que permite tareas más complejas
n8n: una herramienta de automatización del flujo de trabajo que funciona en diferentes aplicaciones
Si tiene algún comentario o sugerencia para mejorar, o si conoce algún buen tutorial sobre Langflow y n8n, ¡hágamelo saber! Conectemos.
Me gustaría agradecer a la comunidad de código abierto y a los instructores de deeplearning.ai.