Простая, но супер эффективная структура вывода LLM для планирования и уточнения.
Две модели LLM вызваны различными ролями
Учитывая задачу для решения, убедитель старается убедить спрашивающего согласиться с предлагающим решением. С другой стороны, спрашивающий пытается найти логические несоответствия и лазейки в предложении убедителя и задает подробные вопросы. Чат между убеждением и спрашиванием продолжается до тех пор, пока спрашивающий "не согласен" с убеждением.
В результате LLM в конечном итоге обеспечивает очень подробный план по решению задачи.
Клонировать репозиторий
Убедитесь, что у вас установлена последняя библиотека Openai. pip install -U openai
Прикрепите свой ключ API OpenAI в коде devil_advocate.py
.
Измените файл task.txt
. Текущий файл задачи.
Запустить с помощью python devil_advocate.py
Это резонирует с условной генеративной состязательной сетью и состоянием парадигм самообытки искусства (BYOL, DINOV2 и т. Д.). Эти парадигмы эмпирически обнаружили, что оптимизация с помощью головы против «асимметричных» моделей обеспечивает более мелкозернистые, надежные контекстные представления. С дальнейшими исследованиями мне интересно, будут ли структуры вывода LLM создавать те же результаты.
Надеемся, что этот репозиторий сможет расширить эту идею и сделать несколько супер крутых открытий!
Это большая часть работы. Но я хотел поделиться своими идеями и простым кодом для всех вас, чтобы попробовать их. Это очень просто, но удивительно эффективно.