Assistant d'invite dynamique - Agent unique
Automate repetitive tasks using gen AI.
$0 subscription fee. 100% data privacy.
Ce projet démontre ma compréhension de l'ingénierie et du codage rapides en Python à l'aide de la génération AI.
Il s'agit d'un outil permettant d'automatiser les tâches répétitives, en minimisant le temps passé sur des processus sans valeur ajoutée et en augmentant l'efficacité du travail.
Il s'agit d'un projet après avoir terminé le AI Python course
et le Prompt Engineering with Llama course
de deeplearning.ai
.
Téléchargez et installez Ollama depuis https://ollama.com/download
Dans Terminal :
pip install ollama
ollama pull llama3.1:latest
pip install pandas
prompt_var
est le contenu de votre tâche.
Collez chacun d'eux dans la colonne prompt_var
sur des lignes séparées.
Modifiez votre invite sous la section Base prompt
dans app.py
. Utilisez des techniques d’ingénierie rapides pour obtenir les résultats souhaités.
Exemples de cas d'utilisation :
Extracteur de texte pour email
prompt = f"""
Given is an email from contains product code and corresponding remarks. Identify the product code and remarks within the original text.
Provide the product code and remark only in csv format, ready to save. Exclude the "```csv" declaration, don't add spaces after the comma, include column headers.
Format:
product_code, remark
product_code_1, remark_1
...
Email:
"""
Classificateur de texte d'avis client
prompt = f"""
Respond with "Positve" or "Negative":
the comment is a product reivew, describing an user experience.
Comment:
"""
Ressources d'ingénierie rapide :
cd DynPrompt-1a
python app.py
responses.csv
est enregistré dans le même dossier. Ouvrir dans Excel.
Les réponses dépendent en grande partie du LLM utilisé et des techniques d'ingénierie rapides.
Les techniques d'ingénierie rapides peuvent être affinées avec les ressources mentionnées ci-dessus.
Le modèle LLM pouvant être utilisé dépend de votre matériel. Plus le modèle LLM est performant, plus les exigences en matière de RAM et de VRAM sont élevées.
Dans ce script en particulier, j'utilise Llama 3.1 8B
sur MacBook M3 Pro 18GB RAM
. Vous pouvez rencontrer des erreurs si votre VRAM est insuffisante.
Vérifiez dans le terminal pour voir si Ollama fonctionne correctement. Ou modifiez le script pour un LLM plus petit en conséquence.
ollama run llama3.1:latest
Je suis intéressé par :
Langflow – un outil low-code pour le flux de travail multi-agents permet des tâches plus complexes
n8n – un outil de flux de travail d'automatisation qui fonctionne sur différentes applications
Si vous avez des commentaires ou des suggestions d'amélioration, ou si vous connaissez de bons tutoriels sur Langflow et n8n, n'hésitez pas à me le faire savoir ! Connectons-nous.
Je tiens à remercier la communauté open source et les instructeurs de deeplearning.ai.