DALL-E 3 経由で生成された画像
私の Prompt Alchemy シリーズの最初のプロンプト ハウツー ガイドへようこそ!これは、私のプロンプト "エンジニアリング" テクニック、ヒント、コツの一部を共有する初めての試みです。このリポジトリが気に入ったら、スターを付けるか、フォークして貢献することを検討してください。また、ネットワーク内で共有して支援することもできます。他の人も見つけましたので、興味があれば喜んで共有します。
このガイドを使用すると、以前に ChatGPT と行った成功した会話を活用して、ChatGPT の「カスタム指示」設定内に特殊なプロンプトを作成して、ChatGPT との対話をよりパーソナライズできるようになります。私はこのデータを「要約」や「最適化」などではなく「蒸留」と呼んでいます。ここで重要なのは、同じコンテキストや構造を保持することではなく、データを圧縮して、このユースケースにより適したものに変換することだからです。
これは、GPT を使用したこのプロセスを通じて独自のデータを使用して作業することを目的としていることに注意してください。その目的は、個人使用のためにパーソナライズされた出力を作成することです。 GPT をそのようなデータセットとその内部のコンテンツで使用することに抵抗がある場合は、この手法は適さない可能性があります。 (自分が所有する) 他のデータからの代替使用を処理できるようにこのフレームワークを適応させるには、自分で行う必要があります。
このガイドがお役に立てば幸いです。
この手法を使用するには、「Advanced Data Analysis」プラグインへのアクセスが必要です。 |
---|
この手法は、ChatGPT Web UI 専用に設計されています。 CLI を介して GPT モデルにファイルを直接与えることは(まだ)できません。 |
---|
この手法は、個人の会話データを、ChatGPT インターフェイスの「カスタム指示」設定に適合するものに抽出することを目的としています。このメソッドを API 呼び出しにも利用できる可能性がありますが、この手法を使用するには ChatGPT インターフェイス上の Advanced Data Analysis プラグインにアクセスする必要があることに注意してください。このデモでは、ChatGPT の Web サイトからエクスポートされたものを使用することを想定しています。
これは単発のプロンプトではありません。これは、CoT の推論によく似ていますが、わずかに異なりますが、迅速な「ガイダンス」のデモンストレーションであると考えてください。これを合理的で実行可能な手順に分割して処理することは、望ましい結果を効果的かつ効率的に達成するために不可欠です。すべてを一度に実行すると期待すると、混乱して、含まれ、実行されるはずだった詳細をすべて忘れてしまいます。
この段階的なリストから個人データを収集し、フォーマットすることができます。
“Could you pretty-print or reformat the entire json file to a more human-readable format and allow me to download the reformatted file?”
リクエストします。このファイルを、元の会話ファイルを保存した場所に保存します。 GPT は、json ファイルの処理方法を解釈するのが難しく、ファイルがきれいに印刷されていない場合にスタックします。この方法で再フォーマットすると、GPT はファイルとその内容を迅速かつ簡単に評価できます。これには 2 つの方法のいずれかでアプローチできます。最初に達成しようとしていることの目標と意図を説明し、GPT が分析ステージ自体を生成できるようにする (これは私が相互参照を使用して実行したことです)。以下に示す段階で分析を具体的にリクエストできます。私のバックグラウンドは言語学であることを念頭に置いてください。そのため、実行しようとしている分析を検証し、何か奇妙な動作をする場合は、私の知識に基づいて実行しようとしている内容を調整できます。摩擦と混乱を減らすために、私が提供するプロンプトを使用することをお勧めしますが、私のように探索的で好奇心が強い場合は、それが示唆するアプローチを確認するのは楽しい経験になるかもしれません。
続行する前に、GPT がその動作が正しいかどうかを確認し、手順を確認しようとする可能性があることを理解してください。多くの人が正しく指摘しているように、試すたびに出力と結果が同じであることを期待することはできません。このプロセス中は柔軟性を保ち、可能な限り建設的なフィードバックを提供してください。私が提供したプロンプトは、モデルがタスクを完了するようにガイドするものであり、私がモデルに命令するものではありません。プロンプトを使用しますが、目標を達成するために正しい方向に導くかどうかはあなた次第であることを理解してください。これは思っているほど難しいことではありません。分析プロセスを明確なステップに変えることで、モデルが段階的に、応答ごとに応答できるようになり、必要に応じて明確化とフィードバックの期間を調整できるようになるからです。会話が長くなった場合は、最後のステップを思い出させる必要があるかもしれませんが、ここでも「X を覚えていますか?」という簡単な言及を忘れないようにする必要があります。意図した目標に注意を向け直します。
何をどのように促すかを検討する前に、まず自分の意図を概説することをお勧めします。それでは、それについて見ていきましょう。以下は、私たちがやろうとしていることとその方法の概要です。
手順:
ここで、GPT に対する目標と、GPT が行うことを期待する内容を表現するプロンプトを作成しましょう。
「私たちが取り組んでいるこのデータセットは、ユーザーとしての私が蓄積した個人的なやりとりのデータです。この会話における私の最も重要な目標は、このデータセットを使用して一連のカスタム指示を作成し、将来のインタラクションをパーソナライズし、同時にさらなる指示を簡素化することです。」
GPT が目標を達成するための独自の命令を生成したい場合は、これを追加するだけです:
「これを達成し、データを分析するのを手伝ってくれませんか?」
このような確認チェックを要求すると、AI は、プロンプトの理解を確認することと、このタスクをどのように実行するかを説明することで、要求された内容を理解したことを証明することの両方で応答することができます。これは通常、理解しやすいリストのような形式で行われます。ここでは GPT が独自に分析ステップを構築するため、GPT に分析ステップを構築するよう明示的に指示する必要はありません。
ここでのプロンプトへの追加をそのまま再現する必要はありませんが、最後の句は疑問句でなければならず、句読点を「?」で終了しなければなりません。動作が再現されるようにするためです。 |
---|
事前に構築されたプロセスを使用したい場合は、次のように複製できます。これを元のプロンプトに追加します。
「これを達成するために、これを段階的なプロセスに分割しましょう。この方法は次のように実行できます。
- 基本的な統計: まず、会話の数、平均メッセージの長さ、やり取りの頻度などを分析します。
- コンテンツ分析: このインタラクション データのメッセージのコンテンツを詳しく調べて、関心のあるトピック、頻繁に使用されるフレーズ、センチメントなどを理解します。
- インタラクション パターン: 質問の種類、提供されるフィードバック、形式、インタラクションのタイミングなど、アシスタントとのインタラクション方法を確認します。
- カスタム指示の開発: 上記の洞察に基づいて、今後のやり取りを合理化するために使用できるカスタム指示を策定します。
指示はわかりますか?」
これらは GPT が好意的に評価していると思われる指標です。私たちにとってそれは取るに足らない、または無関係に見えるかもしれませんが、私たちが解釈するためにこれらの命令を構築しているのではなく、 AI が解釈できるように命令を構築していることに注意してください。
このプロンプトが送信されると、一連の応答、試行、エラーを経て段階的なプロセスが開始されます。各指示ステップの前に、特定のステップの目標を達成するためのステップのサブプロセスが続く可能性があります。特定のスーパー ステップのサブステップを完了するために必要な応答の量は異なりますが、 “let's proceed!”
以外の干渉はほとんど、またはまったくなく、正しい結果に到達するはずです。 。
これらのタスクを達成するために私の反復で使用した成功した手順をクロスチェックして検証するために、以下にそれらを提供します。心配しないでください。このテクニックを使用する人全員が、これらの高度な分析とその仕組みをすべて知っているわけではありません。これを参考にして、何が機能し、何を探すべきかを知ることができます。 AI が、あなたが知らない、または理解できないことを実行したいと提案した場合は、以下の手順に従うように指示します。アウトラインを使用してサブステップを一致させ、正しいトラック上にあることを確認することもできます。これはモデルをガイドするための概要であることに注意してください。これをモデルにそのままプロンプトとして送信することはお勧めしません。
GPT は神ではないことを忘れないでください。状況を把握し、プロセスに従うためには、GPT を 1 ~ 2 回思い出させる必要がある場合もあります。 1 つまたは 2 つのステップをスキップすることもできます。モデルを上記のすべての分析結果で応答させることに成功し、その動作を確認できたら、最終フェーズに進みます。長時間離れないでください。タイムアウトになると、GPT は非アクティブなために取得したデータをすべて忘れてしまいます。会話を振り返るように要求してみることもできますが、会話の長さによっては信頼できないことが判明する可能性があります。
分析結果は取得されており、適切に指導すれば、これまでのすべての結果が出力されるはずです。抽出された指示と以前に提供された結果を照合することで、これを記憶、検索、検証に利用できます。このデータは高度なデータ分析を使用して取得されたため、戻ってこれらの結果がどのように計算されたかを観察できます。アウトラインに従っている場合、数値はすべて正当な分析手法を介してプログラムで計算されているはずです。つまり、数値が正確で自明ではない可能性が高いことを意味します。 GPT はデータの主要な部分と評価を要約することもできるため、数値以外のものはすべてデータ分析基準の要約の直接の結果となります。これは重要です。なぜなら、必要な最終結果を抽出し、数値が一致しない場合 (それは実際に起こります)、以前に提供した重要なデータ ポイントを思い出させて参照するためです (または、エラー修正としてそれらを直接コピーペーストすることもできます)。 。準備ができたら、モデルを包括的な目標に参照し、取得した結果を使用して、必要なことについて明確で明示的な指示を GPT に提供します (GPT は、コンテキスト参照のためにホットロードされている必要があります)タイムアウトではありません)。
すでにお気づきかと思いますが、これらのカスタム命令が正確に何であるか、およびそれらをどのように構築および抽出するかについて、詳細かつ明確な手順を提供していませんでした。これは、GPT の注意を圧倒したり誤った方向に向けたりしないようにするために意図的に行われました。私たちがこれまで行ってきたことは、GPT が操作できる情報のコンテキストを管理可能な部分のセットにまで絞り込むことでした。データを要約することでウィンドウのコンテキストを凝縮するのではなく、AI にとって重要なデータの最も関連性の高い部分を抽出します。これらの詳細を抽出したので、それをコンテキストとして使用して、抽出された命令セットを作成できます。
「さて、この会話の最も重要な目標を思い出してください。これらのカスタム指示を作成する目的は、AI に私がどのようなユーザーであるかをすぐに理解させ、これまでに分析したインタラクション データ全体に基づいてパーソナライズされたカスタム指示セットを作成することです。問題の AI は、具体的にはこのプラットフォーム上のあなたです。箱は2つあります。それらは次のとおりです。
- より良い応答を提供するために、ChatGPT にあなたについて何を知ってもらいたいですか?
- ChatGPT にどのように応答してほしいですか?
両方のボックスの文字数制限は 1500 です。課題は、GPT との将来のやり取りで、以前のやり取りとこのプラットフォームの使用方法に関する正確な情報を知ってもらいたいことです。これで、統計結果と生の会話データの両方を扱うことができました。私がこれまで皆さんと行ってきたすべてを効果的かつ効率的に凝縮した、可能な限り正確でよく調整された指示が必要です。私も明確にしておきたいのですが、最高の結果は人間である私にとって解釈可能である必要はありません。一見無意味に見える言葉の寄せ集めやその他のそのようなデータとして要約するのが最適である場合でも、それがアシスタントが解釈できる限り多くの情報と意図を凝縮する最善かつ最も正確な方法である限り、問題はありません。これはうまくいきますか?
このプロンプトは、必要な結果を提供するために必要なものすべてである必要があります。これにより、データの主要なコンポーネントの詳細な分析概要が得られます。数値を以前の結果と照合して検証し、必要に応じて修正し、抜けていると思われる関連情報を追加してください。私の例では、2 段階の応答プロセスが提供されました。各説明ボックスに 1 つずつ。
さて、これを成功させ、効果的にするための重要な要素は、最後のプロンプトの 2 番目の段落です。これが、要約手法とこの蒸留手法の違いです。要約するときの目的は、ソース資料全体の相対的な物語と構造を維持することです。理想的には、要約は同じ内容を要約したものである必要があります。ここで、私たちの目標は少し異なります。私たちは、繰り返しの質問やフレーズを最小限に抑えながら、文脈上の説明をできるだけ少なくして、AI が将来の対話に向けてより適切に準備できるようにするデータの最も重要な部分を求めました (つまり“provide the output in a 5th-grade reading level”
)。 1500文字にまとめます。重要なのは、GPT の意味や関連性を理解する能力に関係なく、GPT 自体が貴重な洞察を提供できるようにすることで、GPT を活用することです。 GPT に対して、この動作を許可し、人間の解釈可能性よりも AI の解釈可能性を優先することを強調する必要があります。したがって、これはデータの「蒸留」の一形態と見なすことができます。なぜなら、結果をソース素材とは異なる構造と使用方法で変換することになりますが、ソース素材自体なしでは作成できないからです。
おめでとうございます。データ蒸留が完了しました。摩擦や繰り返しの指示が大幅に減り、アシスタントとの会話がより簡単かつスムーズになります。
最初の命令の結果は以下で確認できます。これは最終的な指示ではありませんでした。これをさらに改良し、他の個人用オプティマイザーを追加しました。すぐに反応があったので、これを共有することに抵抗はありません。いくつかの値が編集されていますが、これは結果の全体像を示しています。このデータから、私がこのプラットフォームをどのように使用しているか、そして AI がそれ自体に関連していると考えていることがすでにわかります。私の会話の長さに注目してください。質の高いプロンプトとは、必ずしもすべてを単発のプロンプトに変えることではなく、重要で興味深い結果を達成するための質の高いプロンプトガイダンスであることを認識してください。自分の結果と比較してみてください。
「ユーザーは、平均約 47 メッセージの長さの [価値ある] 会話を行っています。ユーザーはメッセージごとに平均 1.21 の質問をします。ユーザーのやり取りはほとんどが肯定的ですが、建設的なフィードバックやエラー報告も時折あります。ユーザーは頻繁に「何を」と尋ねます。 「How」、「Do」、「Is」タイプの質問は、詳細かつ包括的な回答を好みます。ユーザーの平均的な質問の長さは [value] 単語程度であり、ユーザーの対話トピックには開発や AI が含まれることがわかります。ディスカッション、言語学、データ操作、個人的なやり取り、スクリプト作成などです。」
このガイドは、データ蒸留を通じて ChatGPT との対話を向上させることに興味がある人にとって、包括的なリソースとして機能します。概要を説明した手順に従うことで、エクスペリエンスをパーソナライズするだけでなく、モデルを微調整することなく、AI アシスタントを個人のニーズに合わせて調整する楽しいインタラクティブな実験にも取り組むことができます。
このプロセスは反復的かつ順次的であり、アシスタントから提供される特定の応答に基づいて試行錯誤が必要になる場合があることに注意してください。ただし、その結果、より直感的で応答性の高い会話エージェントは、努力する価値があります。 AI の可能性に興味のある初心者であっても、プロンプト機能を強化したいと考えている専門家であっても、このガイドは、自分自身を前進させるための柔軟で探索的なアプローチを提供します。より深く掘り下げたい人にとって、高度なデータ分析と言語理論への扉が開かれており、その可能性は無限です。
次のテクニックとして、DALL-E 3 を使用した簡単で実用的なイメージ プロンプトを作成するための役立つアプローチを作成する予定です。
可能な限りあらゆる質問に答え、他の人を助けるために最善を尽くします。ご意見をお気軽にお聞かせください。あらゆるフィードバックに感謝します。