Dynamischer Prompt-Assistent – Einzelagent
Automate repetitive tasks using gen AI.
$0 subscription fee. 100% data privacy.
Dieses Projekt demonstriert mein Verständnis von Prompt Engineering und Codierung in Python unter Verwendung von Gen AI.
Es handelt sich um ein Tool zur Automatisierung wiederkehrender Aufgaben – wodurch der Zeitaufwand für nicht wertschöpfende Prozesse minimiert und die Arbeitseffizienz gesteigert wird.
Dies ist ein Projekt nach meinem Abschluss des AI Python course
und des Prompt Engineering with Llama course
von deeplearning.ai
.
Laden Sie Ollama von https://ollama.com/download
herunter und installieren Sie es
Im Terminal:
pip install ollama
ollama pull llama3.1:latest
pip install pandas
prompt_var
ist der Inhalt Ihrer Aufgabe.
Fügen Sie sie jeweils in separaten Zeilen in die Spalte prompt_var
ein.
Bearbeiten Sie Ihre Eingabeaufforderung im Abschnitt Base prompt
“ in app.py
Verwenden Sie schnelle technische Techniken, um die gewünschten Ergebnisse zu erzielen.
Beispielhafte Anwendungsfälle:
Textextraktor für E-Mail
prompt = f"""
Given is an email from contains product code and corresponding remarks. Identify the product code and remarks within the original text.
Provide the product code and remark only in csv format, ready to save. Exclude the "```csv" declaration, don't add spaces after the comma, include column headers.
Format:
product_code, remark
product_code_1, remark_1
...
Email:
"""
Textklassifizierer für Kundenrezensionen
prompt = f"""
Respond with "Positve" or "Negative":
the comment is a product reivew, describing an user experience.
Comment:
"""
Ressourcen des Prompt Engineering:
cd DynPrompt-1a
python app.py
responses.csv
wird im selben Ordner gespeichert. In Excel öffnen.
Die Antworten hängen weitgehend vom verwendeten LLM und den entsprechenden technischen Techniken ab.
Prompt-Engineering-Techniken können mit den oben genannten Ressourcen verfeinert werden.
Welches LLM-Modell verwendet werden könnte, hängt von Ihrer Hardware ab. Je besser das LLM-Modell, desto höher die RAM- und VRAM-Anforderungen.
Insbesondere in diesem Skript verwende ich Llama 3.1 8B
auf dem MacBook M3 Pro 18GB RAM
. Wenn Ihr VRAM nicht ausreicht, können Fehler auftreten.
Überprüfen Sie im Terminal, ob Ollama ordnungsgemäß ausgeführt wird. Oder bearbeiten Sie das Skript für ein kleineres LLM entsprechend.
ollama run llama3.1:latest
Ich interessiere mich für:
Langflow – ein Low-Code-Tool für Multi-Agent-Workflows ermöglicht komplexere Aufgaben
n8n – ein Automatisierungs-Workflow-Tool, das in verschiedenen Apps funktioniert
Wenn Sie Feedback oder Verbesserungsvorschläge haben oder gute Tutorials zu Langflow und n8n kennen, lassen Sie es mich bitte wissen! Lassen Sie uns verbinden.
Ich möchte der Open-Source-Community und den Dozenten von deeplearning.ai danken.