Bienvenido relaciones públicas y estrella para que más personas conozcan ingenieros de palabras rápidos
Curso de video de referencia: Ingeniería rápida de chatgpt para desarrolladores
Transferencia de subtítulos chino: una guía para comenzar con el ingeniero de palabras indicador [Wu Enda] - Grupo de subtítulos de código abierto Qilian AI - Bienvenido a PR para traducir subtítulos
Idiomas de implementación: Python, Golang, NodeJS
Corpus: inglés, chino
¡Bienvenido a las relaciones públicas!
material | Materiales |
---|---|
Video de enseñanza | Chino✅, inglés✅ |
Pitón | Chino✅, inglés✅ |
Nodejs | Chino✅, inglés✅ |
Golang | Chino✅, inglés✅ |
subtitular | Chino✅, inglés✅ |
LLM se divide en dos categorías básicas: base-llm y instrucciones ajustadas-llm.
El primero es un modelo de lenguaje básico, que predice la siguiente palabra basada en datos previamente capacitados. Este último ajusta las instrucciones para que sea más probable que complete las instrucciones humanas.
En el modelo de OpenAI, los modelos InstructTGPT enumera modelos optimizados para la instrucción. La tabla también enumera diferentes instrucciones métodos de entrenamiento ajustados, como SFT, FeedMe, PPO, etc.
Las pautas para las instrucciones de escritura incluyen:
Claro y específico, pero no necesariamente corto.
Use delimitadores como "" ",` ``, ---, <>, para evitar la inyección de propt y crear una comprensión confusa para LLM.
Use la salida estructurada, si es necesario para emitir en formato HTML o JSON.
Inspección requerida: se requiere LLM para verificar si se cumple una determinada condición antes de emitirla.
Usando pocas muestras para aprender, muestre un ejemplo deseado para LLM.
Déle al modelo algo de tiempo para pensarlo y no le dé problemas demasiado simples o difíciles.
Siga los pasos para responder, establezca el separador, por ejemplo, use "Texto: <>" para representar el texto.
Deje que el modelo deduzca el proceso en sí, no solo el resultado. Muestre un ejemplo con un proceso de resolución de problemas a LLM.
Evite la alucinación del modelo: dígale al modelo que primero encuentre información relevante y luego responda las preguntas basadas en la información relevante. (Pero es difícil evitar la ilusión del modelo, y también es la dirección de los esfuerzos actuales en el campo de la investigación del modelo)
El proceso de envío de escritura está iterando constantemente.
Pasos básicos:
Escribir un aviso
Realizar una prueba,
Análisis de razones
Revisar el aviso (aclarar ideas)
Ciclismo Los pasos anteriores hasta que se logren resultados satisfactorios.
Si ejecuta un sitio web de comercio electrónico que contiene una gran cantidad de revisiones de usuarios, puede simplificar su carga de trabajo utilizando la capacidad de "resumir" y "extraer" del modelo de idioma para simplificar su carga de trabajo.
Con LLM, puede realizar una serie de pruebas, como limitar el recuento de palabras, limitar los temas, centrarse en los precios e intentar reemplazar el resumen extrayendo información.
También puede usar un bucle for para usar la misma plantilla de inmediato para procesar un contenido diferente. Hacer esto puede ayudarlo a manejar una gran cantidad de comentarios de manera más eficiente.
Si desea saber la cantidad de comentarios positivos y negativos en los comentarios de los usuarios, necesita la capacidad de usar "razonamiento LLM".
Por ejemplo, LLM puede razonar sobre el sentimiento del usuario, identificar los tipos de emociones (como: feliz, satisfecho, agradecido, impresionado, contenido), extraer información de marca y producto y generarlo en formato JSON, y también puede realizar múltiples tareas al mismo tiempo (Por ejemplo, extraer productos de los comentarios de los usuarios y el razonamiento de las emociones del usuario), inferir temas y diseñar un programa de recordatorio basado en temas inferidos, etc.
Por lo tanto, la capacidad de aplicar "razonamiento LLM" en los comentarios de los usuarios puede ayudarlo a comprender exactamente qué es la retroalimentación positiva y negativa.
Una aplicación de conversión es una aplicación que convierte un idioma a otro.
Por ejemplo, a través de aplicaciones de conversión, se puede traducir un párrafo de texto a otro idioma, se puede identificar el idioma utilizado por un párrafo de texto, e incluso el texto puede traducirse en más de dos idiomas al mismo tiempo. Además, también puede especificar si el tono de la conversión es formal o informal, y especificar idiomas adecuados para diferentes ocasiones, como correos electrónicos para ocasiones comerciales. Las aplicaciones de conversión no se limitan a la traducción del lenguaje natural, pero también pueden realizar la conversión de lenguaje de programación, como la conversión de JSON a HTML. Al mismo tiempo, también puede pedirle a LLM que lo ayude a corregir los errores de sintaxis.
LLM tiene la capacidad de expandir y agregar modificaciones al texto corto e incorporar estilos de lenguaje específicos.
En el siguiente ejemplo, LLM actúa como asistente de respuesta por correo electrónico. Puede pedirle a LLM que escriba un correo electrónico para responder a un cliente y aproveche los detalles en la carta del cliente para aumentar la autenticidad de la respuesta. Además, puede ajustar el valor de temperatura para que la respuesta parezca menos rígida.
Al aprovechar la función LLM, puede obtener un correo electrónico de respuesta por escrito en función de los detalles de la carta de un cliente, y también puede ajustar de manera flexible el tono de su respuesta según sea necesario. Esto hace que la comunicación por correo electrónico con los clientes sea más personalizada y auténtica.
Al enviar mensajes utilizando la API de OpenAI, los roles en el mensaje pueden incluir tres roles: sistema, usuario y asistente.
Los roles del sistema se utilizan para establecer estilos y restricciones globales y otra información.
El rol de usuario (usuario) representa a un usuario humano, es decir, el verdadero usuario que envió el mensaje.
Asistente significa LLM, es decir, el modelo de idioma, que desempeña el papel de respuestas e interacciones en las conversaciones.
def get_completion(prompt, model="gpt-3.5-turbo"):
messages = [{"role": "user", "content": prompt}]
response = openai.ChatCompletion.create(
model=model,
messages=messages,
temperature=0, # this is the degree of randomness of the model's output
)
return response.choices[0].message["content"]
def get_completion_from_messages(messages, model="gpt-3.5-turbo", temperature=0):
response = openai.ChatCompletion.create(
model=model,
messages=messages,
temperature=temperature, # this is the degree of randomness of the model's output
)
return response.choices[0].message["content"] # print(str(response.choices[0].message))
messages = [
{'role':'system', 'content':'You are an assistant that speaks like Shakespeare.'},
{'role':'user', 'content':'tell me a joke'},
{'role':'assistant', 'content':'Why did the chicken cross the road'},
{'role':'user', 'content':'I don't know'} ]
response = get_completion_from_messages(messages, temperature=1)
print(response)
En la siguiente descripción, discutiremos algunos asuntos relacionados con principios y capacidades.
1. Principios:
Las directivas requieren clara y especificidad, asegurando que el modelo comprenda claramente sus requisitos.
Dale al modelo algo de tiempo para pensar y procesar.
2. Las indicaciones del proceso de desarrollo son un proceso de iteración continua, que requiere depuración continua y mejora.
3. El modelo tiene las siguientes habilidades: resumen, razonamiento, transformación y expansión. Estas capacidades pueden desempeñar un papel en diferentes escenarios de aplicación.