Begrüßen Sie PR & Star, um mehr Menschen mit dem schnellen Wortingenieur informieren zu lassen
Referenzvideokurs: Chatgpt -Eingabeaufforderung für Entwickler
Chinesische Untertitelübertragung: Ein Leitfaden zum Einstieg mit dem schnellen Wortingenieur [Wu Enda] - Qilian AI Open Source -Untertitelgruppe - Willkommen bei PR, um Untertitel zu übersetzen
Implementierungssprachen: Python, Golang, Nodejs
Corpus: Englisch, Chinesisch
Willkommen bei PR!
Material | Materialien |
---|---|
Video unterrichten | Chinese✅, Englisch |
Python | Chinese✅, Englisch |
Nodejs | Chinese✅, Englisch |
Golang | Chinese✅, Englisch |
Untertitel | Chinese✅, Englisch |
LLM ist in zwei grundlegende Kategorien unterteilt: Basis-LlM- und Anweisungsabgeordneter.
Ersteres ist ein grundlegendes Sprachmodell, das das nächste Wort basierend auf vorgeschriebenen Daten vorhersagt. Letztere fein die Anweisungen, um die Wahrscheinlichkeit der Wahrscheinlichkeit zu, dass die Anweisungen der Menschen ausgeführt werden.
In OpenAIS Modell listet InstructGPT -Modelle Modelle auf, die für den Anweisungen optimiert sind. Die Tabelle listet auch verschiedene Anweisungen für Feinabstimmungsmethoden wie SFT, Feedme, PPO usw. auf.
Zu den Richtlinien zum Schreiben von Anweisungen gehören:
Klar und spezifisch, aber nicht unbedingt kurz.
Verwenden Sie Grenzwerte wie "" ",` ``, ---, <>, um die Propt-Injektion zu verhindern und ein verwirrendes Verständnis für LLM zu schaffen.
Verwenden Sie den strukturierten Ausgang, falls erforderlich, um die Ausgabe im HTML- oder JSON -Format auszugeben.
Erforderliche Inspektion: LLM ist erforderlich, um zu prüfen, ob ein bestimmter Zustand erfüllt ist, bevor die Bedingung nicht erfüllt ist.
Zeigen Sie mit wenigen Proben ein gewünschtes Beispiel für LLM.
Geben Sie dem Modell einige Zeit, um darüber nachzudenken, und geben Sie es nicht zu einfachen oder schwierigen Problemen.
Befolgen Sie die Schritte, um zu beantworten, das Trennzeichen. Verwenden Sie beispielsweise "Text: <>", um Text darzustellen.
Lassen Sie das Modell den Prozess selbst ableiten, nicht nur das Ergebnis. Zeigen Sie ein Beispiel mit einem Problemlösungsprozess für LLM.
Vermeiden Sie die Halluzination des Modells: Sagen Sie dem Modell zuerst relevante Informationen und beantworten Sie dann die Fragen anhand der relevanten Informationen. (Es ist jedoch schwierig, die Illusion des Modells zu vermeiden, und es ist auch die Richtung der aktuellen Bemühungen im Bereich der Modellforschung)
Der Prozess des Schreibens der Schreibaufforderung wird ständig iteriert.
Grundschritte:
Aufforderung schreiben
Einen Test durchführen,
Analyse der Gründe
Aufforderung überarbeiten (Ideen klären)
Fahren Sie die obigen Schritte, bis zufriedenstellende Ergebnisse erzielt werden.
Wenn Sie eine E-Commerce-Website ausführen, die eine große Anzahl von Benutzerbewertungen enthält, können Sie Ihre Arbeitsbelastung vereinfachen, indem Sie die Fähigkeit des Sprachmodells "Sassen" und "Extrahieren" verwenden, um Ihre Workload zu vereinfachen.
Mit LLM können Sie eine Reihe von Tests durchführen, z. B. die Begrenzung der Wortzahl, die Begrenzung von Themen, die Konzentration auf die Preise und den Versuch, die Zusammenfassung durch Extrahieren von Informationen zu ersetzen.
Sie können auch eine für Schleife verwenden, um dieselbe Eingabeaufforderung zu verwenden, um verschiedene Inhalte zu stapeln. Wenn Sie dies tun, können Sie eine große Anzahl von Kommentaren effizienter behandeln.
Wenn Sie die Menge an positivem und negativem Feedback in Benutzerkommentaren wissen möchten, benötigen Sie die Möglichkeit, "LLM -Argumentation" zu verwenden.
Zum Beispiel kann LLM über die Benutzerstimmung sprechen, Emotionstypen (wie: zufrieden, zufrieden, dankbar, beeindruckt, Inhalt), Marke- und Produktinformationen extrahieren und im JSON -Format ausgeben und auch mehrere Aufgaben gleichzeitig ausführen können (Zum Beispiel das Extrahieren von Produkten aus Benutzern Kommentaren und Argumentation von Benutzeremotionen), Abschluss von Themen und Entwerfen eines Erinnerungsprogramms auf der Grundlage von abgeleiteten Themen usw.
Daher kann die Möglichkeit, "LLM -Argumentation" in Benutzerkommentaren anzuwenden, Ihnen helfen, genau zu verstehen, was positives und negatives Feedback ist.
Eine Conversion -Anwendung ist eine Anwendung, die eine Sprache in eine andere umwandelt.
Beispielsweise kann durch Konvertierungsanwendungen ein Textabsatz in eine andere Sprache übersetzt werden, die Sprache, die von einem Textabsatz verwendet wird, kann identifiziert werden, und selbst der Text kann gleichzeitig in mehr als zwei Sprachen übersetzt werden. Darüber hinaus können Sie auch angeben, ob der Ton der Konvertierung formell oder informell ist, und Sprachen angeben, die für verschiedene Anlässe geeignet sind, z. B. E -Mails für geschäftliche Anlässe. Conversion -Anwendungen sind nicht auf natürliche Sprachübersetzung beschränkt, können aber auch Programmiersprachenkonvertierung durchführen, z. B. das Konvertieren von JSON in HTML. Gleichzeitig können Sie LLM auch bitten, um Syntaxfehler zu korrigieren.
LLM hat die Möglichkeit, einen kurzen Text zu erweitern und Änderungen hinzuzufügen und bestimmte Sprachstile zu integrieren.
Im folgenden Beispiel fungiert LLM als E -Mail -Antwortassistent. Sie können LLM bitten, eine E -Mail zu schreiben, um einem Kunden zu antworten, und die Details im Kundendriebnot nutzen, um die Echtheit der Antwort zu erhöhen. Zusätzlich können Sie den Temperaturwert einstellen, um die Antwort weniger starr erscheinen zu lassen.
Durch die Nutzung der LLM -Funktion können Sie eine Antwort -E -Mail basierend auf den Details des Buchstabens eines Kunden erhalten und den Ton Ihrer Antwort nach Bedarf flexibel anpassen. Dies macht eine E -Mail -Kommunikation mit Kunden personalisierter und authentischer.
Beim Senden von Nachrichten über die OpenAI -API können die Rollen in der Nachricht drei Rollen enthalten: System, Benutzer und Assistent.
Systemrollen werden verwendet, um globale Stile, Einschränkungen und andere Informationen festzulegen.
Die Benutzerrolle (Benutzer) repräsentiert einen menschlichen Benutzer, dh den wirklichen Benutzer, der die Nachricht gesendet hat.
Assistent bedeutet LLM, dh das Sprachmodell, das die Rolle von Antworten und Interaktionen in Gesprächen spielt.
def get_completion(prompt, model="gpt-3.5-turbo"):
messages = [{"role": "user", "content": prompt}]
response = openai.ChatCompletion.create(
model=model,
messages=messages,
temperature=0, # this is the degree of randomness of the model's output
)
return response.choices[0].message["content"]
def get_completion_from_messages(messages, model="gpt-3.5-turbo", temperature=0):
response = openai.ChatCompletion.create(
model=model,
messages=messages,
temperature=temperature, # this is the degree of randomness of the model's output
)
return response.choices[0].message["content"] # print(str(response.choices[0].message))
messages = [
{'role':'system', 'content':'You are an assistant that speaks like Shakespeare.'},
{'role':'user', 'content':'tell me a joke'},
{'role':'assistant', 'content':'Why did the chicken cross the road'},
{'role':'user', 'content':'I don't know'} ]
response = get_completion_from_messages(messages, temperature=1)
print(response)
In der folgenden Beschreibung werden wir einige Angelegenheiten im Zusammenhang mit Prinzipien und Fähigkeiten besprechen.
1. Prinzipien:
Richtlinien erfordern klare und Spezifität, um sicherzustellen, dass das Modell Ihre Anforderungen eindeutig versteht.
Geben Sie dem Modell einige Zeit zum Nachdenken und Prozess.
2. Die Entwicklungsprozessaufforderungen sind ein Prozess der kontinuierlichen Iteration, das kontinuierliches Debuggen und Verbesserung erfordert.
3. Das Modell verfügt über die folgenden Fähigkeiten: Zusammenfassung, Argumentation, Transformation und Expansion. Diese Funktionen können in verschiedenen Anwendungsszenarien eine Rolle spielen.