動的プロンプトアシスタント - 単一エージェント
Automate repetitive tasks using gen AI.
$0 subscription fee. 100% data privacy.
このプロジェクトは、gen AI を使用した Python でのプロンプト エンジニアリングとコーディングについての私の理解を示しています。
これは、反復的なタスクを自動化するためのツールであり、付加価値のないプロセスに費やす時間を最小限に抑え、作業効率を向上させます。
これは、 deeplearning.ai
のAI Python course
とPrompt Engineering with Llama course
を完了した後のプロジェクトです。
https://ollama.com/download
から Ollama をダウンロードしてインストールします。
ターミナルで:
pip install ollama
ollama pull llama3.1:latest
pip install pandas
prompt_var
タスクの内容です。
それぞれを、 prompt_var
列の別の行に貼り付けます。
app.py
のBase prompt
セクションでプロンプトを編集します。望ましい結果を得るには、迅速なエンジニアリング技術を使用してください。
ユースケースの例:
電子メールのテキスト抽出ツール
prompt = f"""
Given is an email from contains product code and corresponding remarks. Identify the product code and remarks within the original text.
Provide the product code and remark only in csv format, ready to save. Exclude the "```csv" declaration, don't add spaces after the comma, include column headers.
Format:
product_code, remark
product_code_1, remark_1
...
Email:
"""
顧客レビューのテキスト分類子
prompt = f"""
Respond with "Positve" or "Negative":
the comment is a product reivew, describing an user experience.
Comment:
"""
プロンプトエンジニアリングのリソース:
cd DynPrompt-1a
python app.py
responses.csv
は同じフォルダーに保存されます。 Excel で開きます。
応答は、使用されている LLM と迅速なエンジニアリング技術に大きく依存します。
上記のリソースを使用すると、迅速なエンジニアリング技術を向上させることができます。
どの LLM モデルを使用できるかは、ハードウェアによって異なります。 LLM モデルが優れているほど、RAM と VRAM の要件も高くなります。
特にこのスクリプトでは、MacBook M3 Pro 18GB RAM
でLlama 3.1 8B
使用しています。 VRAM が不十分な場合、エラーが発生する可能性があります。
ターミナルをチェックインして、Ollama が正しく実行されているかどうかを確認します。または、それに応じて、より小さい LLM のスクリプトを編集します。
ollama run llama3.1:latest
私は次のことに興味があります:
Langflow -- マルチエージェント ワークフロー用のローコード ツールにより、より複雑なタスクが可能になります
n8n -- さまざまなアプリ間で動作する自動ワークフロー ツール
改善のためのフィードバックや提案がある場合、または Langflow と n8n に関する優れたチュートリアルを知っている場合は、お知らせください。繋ぎましょう。
オープンソース コミュニティと deeplearning.ai のインストラクターに感謝します。