Помощник по динамическим подсказкам — один агент
Automate repetitive tasks using gen AI.
$0 subscription fee. 100% data privacy.
Этот проект демонстрирует мое понимание оперативного проектирования и кодирования на Python с использованием искусственного интеллекта.
Это инструмент для автоматизации повторяющихся задач: минимизация затрат времени на процессы, не добавляющие ценности, повышение эффективности работы.
Это проект после моего завершения AI Python course
и Prompt Engineering with Llama course
от deeplearning.ai
.
Загрузите и установите Ollama с https://ollama.com/download
В Терминале:
pip install ollama
ollama pull llama3.1:latest
pip install pandas
prompt_var
— это содержимое вашей задачи.
Вставьте каждый из них в столбец prompt_var
отдельными строками.
Отредактируйте приглашение в разделе Base prompt
в app.py
Используйте быстрые инженерные методы для достижения желаемых результатов.
Примеры использования:
Экстрактор текста для электронной почты
prompt = f"""
Given is an email from contains product code and corresponding remarks. Identify the product code and remarks within the original text.
Provide the product code and remark only in csv format, ready to save. Exclude the "```csv" declaration, don't add spaces after the comma, include column headers.
Format:
product_code, remark
product_code_1, remark_1
...
Email:
"""
Классификатор текстов отзывов клиентов
prompt = f"""
Respond with "Positve" or "Negative":
the comment is a product reivew, describing an user experience.
Comment:
"""
Ресурсы оперативного проектирования:
cd DynPrompt-1a
python app.py
responses.csv
сохраняется в той же папке. Открыть в Excel.
Ответы во многом зависят от используемого LLM и методов оперативного проектирования.
Методы оперативного проектирования можно усовершенствовать с помощью ресурсов, упомянутых выше.
Какую модель LLM можно использовать, зависит от вашего оборудования. Чем лучше модель LLM, тем выше требования к оперативной памяти и видеопамяти.
В частности, в этом сценарии я использую Llama 3.1 8B
на MacBook M3 Pro 18GB RAM
. Вы можете столкнуться с ошибками, если вашей VRAM недостаточно.
Проверьте терминал, чтобы убедиться, что Оллама работает правильно. Или соответственно отредактируйте сценарий для меньшего LLM.
ollama run llama3.1:latest
Меня интересует:
Langflow — простой инструмент для многоагентного рабочего процесса, позволяющий выполнять более сложные задачи.
n8n — инструмент автоматизации рабочего процесса, который работает в разных приложениях.
Если у вас есть отзывы или предложения по улучшению, или если вы знаете хорошие учебные пособия по Langflow и n8n, дайте мне знать! Давайте подключимся.
Я хотел бы поблагодарить сообщество открытого исходного кода и преподавателей из deeplearning.ai.