devils advocate
1.0.0
計画と改良のためのシンプルだが非常に効果的なLLM推論フレームワーク。
2つのLLMモデルには、さまざまな役割が促されます
解決するタスクを考えると、説得者は、質問者に提案する解決策に同意するよう説得するために最善を尽くします。一方、質問者は、説得者の提案で論理的な矛盾と抜け穴を見つけようとし、詳細な質問をします。 Persuaderと質問者の間のチャットは、質問者がPersuaderに「同意する」まで続きます。
その結果、LLMは最終的に、手元のタスクを解決するための非常に詳細な計画を提供します。
リポジトリをクローンします
最新のOpenAIライブラリがインストールされていることを確認してください。 pip install -U openai
devil_advocate.py
コードにOpenAI APIキーを添付します。
task.txt
ファイルをニーズに変更します。現在のtask.txtファイルにはサンプルタスクがあります。
python devil_advocate.py
を使用して実行します
これは、条件付き生成敵対的ネットワークと最先端の自己抵抗パラダイム(Byol、Dinov2など)と共鳴します。これらのパラダイムは、「非対称」モデルに対するヘッドボットを介して最適化することを経験的に発見しました。さらなる調査により、LLMの推論フレームワークが同じ発見をもたらすかどうか疑問に思っています。
このリポジトリがこのアイデアを拡大し、いくつかの超クールな発見をすることができれば幸いです!
これは進行中の多くの作業です。しかし、私はあなたのアイデアとシンプルなコードをすべて試してみたいと思っていました。非常にシンプルですが、驚くほど効果的です。