Ein einfacher, aber super effektiver LLM -Inferenzrahmen für Planung und Verfeinerung.
Zwei LLM -Modelle werden mit unterschiedlichen Rollen veranlasst
Bei der Lösung einer Aufgabe versucht der Überzeugungser sein Bestes, um den Fragesteller zu überzeugen, seiner vorgeschlagenen Lösung zuzustimmen. Der Fragesteller hingegen versucht logische Inkonsistenzen und Lücken im Vorschlag des Überzeugenden zu finden und stellt detaillierte Fragen. Der Chat zwischen Überredung und Fragesteller setzt sich fort, bis der Fragesteller "mit der Überzeugung übereinstimmt.
Infolgedessen liefert der LLM schließlich einen detaillierten Plan, um die jeweilige Aufgabe zu lösen.
Klonen Sie das Repository
Stellen Sie sicher, dass die neueste OpenAI -Bibliothek installiert ist. pip install -U openai
Fügen Sie Ihre OpenAI -API -Schlüssel im Code devil_advocate.py
hinzu.
Ändern Sie die Datei task.txt
in Ihre Anforderungen. Die aktuelle Task.txt -Datei hat eine Beispielaufgabe.
Mit python devil_advocate.py
ausführen
Dies schwingt mit einem bedingten generativen kontroversen Netzwerk und dem Stand der Technik-Selbstdestillationsparadigmen (BYOL, DINOV2 usw.) mit. Diese Paradigmen haben empirisch festgestellt, dass die Optimierung durch Kopfböden gegen "asymmetrische" Modelle feinkörnigere, robuste Kontextrepräsentationen liefert. Mit weiteren Forschungen frage ich mich, ob LLM -Inferenz -Frameworks die gleichen Ergebnisse aufweisen würden.
Hoffentlich kann dieses Repository diese Idee erweitern und super coole Entdeckungen machen!
Dies ist eine große Arbeit in Arbeit. Aber ich wollte meine Ideen und einfachen Code teilen, damit Sie alle es ausprobieren können. Es ist super einfach, aber überraschend effektiv.