Bienvenue PR & Star pour faire en sorte que plus de gens connaissent un ingénieur de mots rapide
Cours vidéo de référence: ChatGpt Inside Engineering pour les développeurs
Transfert de sous-titres chinois: un guide pour démarrer avec l'ingénieur de mots rapides [Wu Enda] - Qilian AI Open Source Subtitle Group - Bienvenue à PR pour traduire les sous-titres
Langages d'implémentation: Python, Golang, Nodejs
Corpus: anglais, chinois
Bienvenue à PR!
matériel | Matériels |
---|---|
Vidéo pédagogique | Chinois✅, anglais✅ |
Python | Chinois✅, anglais✅ |
Nodejs | Chinois✅, anglais✅ |
Golang | Chinois✅, anglais✅ |
sous-titre | Chinois✅, anglais✅ |
LLM est divisé en deux catégories de base: Base-llm et instruction-tund-llm.
Le premier est un modèle de langue de base, qui prédit le mot suivant basé sur des données pré-formées. Ces derniers affichent les instructions pour la rendre plus susceptible de compléter les instructions humaines.
Dans le modèle d'Openai, les modèles InstructGPT répertorient les modèles optimisés pour l'enseignement. Le tableau répertorie également différentes méthodes de formation à réglage fin des instructions, telles que SFT, FeedMe, PPO, etc.
Les lignes directrices pour la rédaction d'instructions comprennent:
Clair et spécifique, mais pas nécessairement court.
Utilisez des délimiteurs tels que "" ",` ``, ---, <>, pour éviter l'injection de propt et créer une compréhension déroutante pour LLM.
Utilisez la sortie structurée, si nécessaire pour sortir au format HTML ou JSON.
Inspection requise: LLM est nécessaire pour vérifier si une certaine condition est remplie avant de la sortir.
En utilisant quelques échantillons pour apprendre, montrez un exemple souhaité à LLM.
Donnez au modèle un peu de temps pour y réfléchir et ne lui donnez pas de problèmes trop simples ou difficiles.
Suivez les étapes pour répondre, définissez le séparateur, par exemple, utilisez "Texte: <>" pour représenter le texte.
Laissez le modèle déduire le processus lui-même, pas seulement le résultat. Montrez un exemple avec un processus de résolution de problèmes à LLM.
Évitez l'hallucination du modèle: Dites au modèle de trouver d'abord des informations pertinentes, puis répondez aux questions en fonction des informations pertinentes. (Mais il est difficile d'éviter l'illusion du modèle, et c'est aussi la direction des efforts actuels dans le domaine de la recherche sur le modèle)
Le processus d'écriture invite est constamment itérant.
Étapes de base:
Invite d'écriture
Effectuer un test,
Analyse des raisons
Réviser une invite (clarifier les idées)
À vélo les étapes ci-dessus jusqu'à ce que des résultats satisfaisants soient obtenus.
Si vous exécutez un site Web de commerce électronique qui contient un grand nombre d'examens des utilisateurs, vous pouvez simplifier votre charge de travail en utilisant la capacité du "résumé" et "extraire" du modèle de langue pour simplifier votre charge de travail.
Avec LLM, vous pouvez effectuer une série de tests, tels que limiter le nombre de mots, limiter des sujets, se concentrer sur les prix et essayer de remplacer le résumé en extrayant des informations.
Vous pouvez également utiliser une boucle pour une boucle pour utiliser le même modèle d'invite pour traiter par lots de contenu différent. Cela peut vous aider à gérer un grand nombre de commentaires plus efficacement.
Si vous souhaitez connaître la quantité de commentaires positifs et négatifs dans les commentaires de l'utilisateur, vous avez besoin de la possibilité d'utiliser le "raisonnement LLM".
Par exemple, LLM peut raisonner sur le sentiment des utilisateurs, identifier les types d'émotions (tels que: heureux, satisfait, reconnaissant, impressionné, contenu), extraire les informations de marque et de produit et la sortir au format JSON, et peut également effectuer plusieurs tâches en même temps (Par exemple, l'extraction des produits des commentaires des utilisateurs et le raisonnement des émotions des utilisateurs), la déduction des sujets et la conception d'un programme de rappel basé sur des sujets déduits, etc.
Par conséquent, la possibilité d'appliquer le "raisonnement LLM" dans les commentaires de l'utilisateur peut vous aider à comprendre exactement ce qu'est une rétroaction positive et négative.
Une application de conversion est une application qui convertit une langue à une autre.
Par exemple, grâce aux applications de conversion, un paragraphe de texte peut être traduit dans une autre langue, la langue utilisée par un paragraphe de texte peut être identifiée, et même le texte peut être traduit en plus de deux langues en même temps. De plus, vous pouvez également spécifier si le ton de la conversion est formel ou informel, et spécifier des langues adaptées à différentes occasions, telles que des e-mails pour les occasions commerciales. Les applications de conversion ne sont pas limitées à la traduction du langage naturel, mais peuvent également effectuer une conversion du langage de programmation, telles que la conversion de JSON en HTML. En même temps, vous pouvez également demander à LLM de vous aider à corriger les erreurs de syntaxe.
LLM a la capacité de se développer et d'ajouter des modifications au texte court et d'incorporer des styles de langue spécifiques.
Dans l'exemple suivant, LLM agit comme un assistant de réponse par e-mail. Vous pouvez demander à LLM d'écrire un e-mail pour répondre à un client et de profiter des détails de la lettre du client pour augmenter l'authenticité de la réponse. De plus, vous pouvez ajuster la valeur de température pour rendre la réponse moins rigide.
En tirant parti de la fonction LLM, vous pouvez recevoir un e-mail de réponse écrit en fonction des détails de la lettre d'un client, et vous pouvez également ajuster le ton de votre réponse de manière flexible au besoin. Cela rend la communication par e-mail avec les clients plus personnalisée et plus authentique.
Lors de l'envoi de messages à l'aide de l'API OpenAI, les rôles du message peuvent inclure trois rôles: système, utilisateur et assistant.
Les rôles système sont utilisés pour définir des styles et des restrictions globaux et d'autres informations.
Le rôle d'utilisateur (utilisateur) représente un utilisateur humain, c'est-à-dire le véritable utilisateur qui a envoyé le message.
Assistant signifie LLM, c'est-à-dire le modèle de langue, qui joue le rôle des réponses et des interactions dans les conversations.
def get_completion(prompt, model="gpt-3.5-turbo"):
messages = [{"role": "user", "content": prompt}]
response = openai.ChatCompletion.create(
model=model,
messages=messages,
temperature=0, # this is the degree of randomness of the model's output
)
return response.choices[0].message["content"]
def get_completion_from_messages(messages, model="gpt-3.5-turbo", temperature=0):
response = openai.ChatCompletion.create(
model=model,
messages=messages,
temperature=temperature, # this is the degree of randomness of the model's output
)
return response.choices[0].message["content"] # print(str(response.choices[0].message))
messages = [
{'role':'system', 'content':'You are an assistant that speaks like Shakespeare.'},
{'role':'user', 'content':'tell me a joke'},
{'role':'assistant', 'content':'Why did the chicken cross the road'},
{'role':'user', 'content':'I don't know'} ]
response = get_completion_from_messages(messages, temperature=1)
print(response)
Dans la description suivante, nous discuterons de certaines questions liées aux principes et capacités.
1. Principes:
Les directives nécessitent clairement et spécificité, garantissant que le modèle comprend clairement vos exigences.
Donnez au modèle un peu de temps pour réfléchir et traiter.
2. Les invites du processus de développement sont un processus d'itération continue, nécessitant un débogage et une amélioration continus.
3. Le modèle a les capacités suivantes: Résumé, raisonnement, transformation et expansion. Ces capacités peuvent jouer un rôle dans différents scénarios d'application.