¿El proyecto mágico Prompt?♂️
Este repositorio contiene un recurso de ingeniería Prompt seleccionado manualmente, que se centra en Generative Pretrained Transformer (GPT), ChatGPT, PaLM y más.
Tabla de contenido
- papel
- Herramientas y código
- API
- conjunto de datos
- Modelo
- detector de contenido de IA
- educar
- video
- libros
- comunidad
- Como contribuir
papel
?
Tecnología de ingeniería rápida :
- Método para mejorar el proyecto ChatGPT Prompt utilizando el directorio Prompt Pattern [2023] (Arxiv)
- Optimización discreta basada en gradientes para un rápido ajuste y descubrimiento [2023] (Arxiv). - Consejo general: Demostración de generación de cadenas de pensamiento para modelos de lenguaje grandes [2023] (Arxiv)
- Indicaciones progresivas: aprendizaje continuo de modelos de lenguaje [2023] (Arxiv)
- Consejos para el procesamiento por lotes: inferencia eficiente con LLM API [2023] (Arxiv)
- Indicaciones continuas para resolver problemas complejos [2022] (Arxiv)
- Consejos estructurales: ampliación del aprendizaje contextual a 1000 ejemplos [2022] (Arxiv)
- Los modelos de lenguaje grandes son ingenieros rápidos a nivel humano [2022] (Arxiv)
- Pregúntame cualquier cosa: estrategias simples para generar modelos de lenguaje [2022] (Arxiv)
- Consejos para que GPT-3 sea confiable [2022] (Arxiv)
- Consejos de última hora: enfoques modulares para resolver tareas complejas [2022] (Arxiv)
- PromptChainer: encadenamiento de indicaciones de modelos de lenguaje grandes mediante programación visual [2022] (Arxiv)
- Investigación de la ingeniería de sugerencias en modelos de difusión [2022] (Arxiv)
- Muestre su trabajo: Un borrador de cálculos intermedios utilizando modelos de lenguaje [2021] (Arxiv)
- Consejos didácticos para reinventar GPTk [2021] (Arxiv)
- Señales maravillosamente ordenadas y su descubrimiento: superar la sensibilidad del orden de las señales de muestras pequeñas [2021] (Arxiv)
- El poder de la escala para un ajuste rápido y eficiente de los parámetros [2021] (Arxiv)
- Programación de modelos de lenguaje grandes: más allá del paradigma de pocas tomas [2021] (Arxiv) - Ajuste de prefijos: optimización de sugerencias continuas para la generación [2021] (Arxiv)
Razonamiento y aprendizaje contextual :
- Razonamiento en cadena de pensamiento multimodal en modelos de lenguaje [2023] (Arxiv)
- Pensándolo bien, ¡no tomamos el camino del pensamiento de un solo paso! Sesgo y nocividad en la inferencia de disparo cero [2022] (Arxiv)
- ReAct: sinergia de razonamiento y acción en modelos lingüísticos [2022] (Arxiv)
- Los modelos lingüísticos son razonadores codiciosos: un análisis formal sistemático de cadenas de pensamiento [2022] (Arxiv)
- Progresos en la mejora de los modelos de lenguaje para la inferencia [2022] (Arxiv)
- Los modelos de lenguajes grandes son razonadores de tiro cero [2022] (Arxiv)
- Razonamiento como ejecutor de programas [2022] (Arxiv)
- La autoconsistencia mejora el razonamiento de la cadena de pensamiento en modelos de lenguaje [2022] (Arxiv)
- Repensar el papel de la demostración: ¿Qué hace que el aprendizaje contextual funcione? [2022] (Arxiv)
- Aprenda a explicar: razonamiento multimodal para preguntas y respuestas científicas a través de cadenas de pensamiento [2022] (Arxiv)
- Thought Chain solicita la obtención de inferencias en modelos de lenguaje grandes [2021] (Arxiv)
- Generación de indicaciones de conocimiento para el razonamiento de sentido común [2021] (Arxiv)
- BERTese: Aprenda a comunicarse con BERT [2021] (Acl)
Evaluar y mejorar modelos de lenguaje :
- Los modelos de lenguaje grandes son propensos a sufrir interferencias provenientes de contextos irrelevantes [2023] (Arxiv)
- Rastreo de la base de conocimientos interna de los modelos de lenguaje [2023] (Arxiv) - Métodos para descubrir el comportamiento del modelo de lenguaje: evaluación de la escritura de modelos [2022] (Arxiv) Enlace original
- Calibrar antes de usar: mejorar el rendimiento de pocos disparos de los modelos de lenguaje [2021] (Arxiv) Enlace original
Aplicación del modelo de lenguaje :
- Consejos para clasificar memes maliciosos multimodales [2023] (Arxiv) Enlace original
- Modelo de lenguaje rápido para síntesis de conversaciones sociales [2023] (Arxiv) Enlace original
- Indicaciones basadas en el sentido común para la generación de conversaciones empáticas controladas [2023] (Arxiv) Enlace original
- Modelo de lenguaje asistido por programas [2023] (Arxiv) Enlace original
- Redacción de avisos legales para la predicción de sentencias legales multilingües [2023] (Arxiv) Enlace original
- Investigación sobre ingeniería rápida para resolver problemas de CS1 utilizando lenguaje natural [2022] (Arxiv) Enlace original
- Creación de gráficos utilizando modelos de lenguaje previamente entrenados [2022] (Acl) Enlace original
- AutoPrompt: uso de indicaciones generadas automáticamente para obtener conocimientos a partir de modelos de lenguaje [2020] (Arxiv) Enlace original
Ejemplos de detección de amenazas y contramedidas :
- Inteligencia artificial constitucional: inofensiva a través de comentarios de IA [2022] (Arxiv) Enlace original
- Ignore el consejo anterior: Técnicas de ataque para modelos de lenguaje [2022] (Arxiv) Enlace original
- Texto generado por máquina: un estudio completo de modelos de amenazas y métodos de detección [2022] (Arxiv) Enlace original
- Evaluación de la susceptibilidad de modelos de lenguaje previamente entrenados a través de ejemplos contradictorios hechos a mano [2022] (Arxiv) Enlace original
- Detección de toxicidad mediante sugerencias generadas [2022] (Arxiv) Enlace original. - ¿Cómo sabemos lo que sabe el modelo de lenguaje? [2020] (Mit)
Aprendizaje de pocas posibilidades y optimización del rendimiento :
- Promptagator: recuperación densa de pocos disparos a partir de 8 ejemplos [2022] (Arxiv)
- Indicaciones de Few-Shot para la falta de confiabilidad interpretativa en el razonamiento textual [2022] (Arxiv)
- Cómo mejorar los modelos de lenguaje previamente entrenados para estudiantes de pocas oportunidades [2021] (Acl)
- Los modelos de lenguaje aprenden con pocas oportunidades [2020] (Arxiv)
Generación de texto a imagen :
- Una clasificación de modificador de sugerencias para la generación de texto a imagen [2022] (Arxiv)
- Directrices de diseño para modelos generativos de texto a imagen de ingeniería rápida [2021] (Arxiv)
- Síntesis de imágenes de alta resolución utilizando modelos de difusión latente [2021] (Arxiv)
- DALL·E: Creando imágenes a partir de texto [2021] (Arxiv)
Texto a música/generación de sonido :
- MusicLM: Generando música a partir de texto [2023] (Arxiv)
- ERNIE-Music: Generación de música de texto a onda mediante modelos de difusión [2023] (Arxiv)
- Noise2Music: Generación de música modulada por texto mediante modelos de difusión [2023) (Arxiv)
- AudioLM: un método de generación de audio basado en modelado de lenguaje [2023] (Arxiv)
- Make-An-Audio: generación de texto a audio utilizando modelos de difusión de señales mejorados [2023] (Arxiv)
Generación de texto a video :
- Dreamix: un modelo de difusión de video para un editor de video universal [2023] (Arxiv). - Tuning Video: Ajuste único de modelos de difusión de imágenes para la generación de texto a video [2022] (Arxiv)
- Ruido a música: generación de música condicional a texto basada en un modelo de difusión [2023] (Arxiv)
- Audio LM: un método para la generación de modelos de lenguaje de audio [2023] (Arxiv)
Descripción general :
- Pilotaje de Copilot y Codex: ¿temperatura caliente, indicaciones frías o magia negra [2022] (Arxiv)
Herramientas y código
?
nombre | describir | Enlace |
---|
Índice GPT | GPT Index es un proyecto que consta de un conjunto de estructuras de datos diseñadas para facilitar el trabajo con grandes bases de conocimiento externas con LLM. | [Github] |
Incitar | Utilice LLM para resolver problemas de PNL y utilice Promptify para generar fácilmente diferentes indicaciones de tareas de PNL para modelos generativos populares como GPT y PaLM. | [Github] |
Mejor aviso | Pruebe el conjunto de pruebas antes de enviar las indicaciones de LLM a producción | [Github] |
Explorador de composición interactivox | ICE es un visualizador de seguimiento para bibliotecas de Python y programas de modelos de lenguaje. | [Github] |
LangChainx | Cree aplicaciones utilizando LLM en combinación | [Github] |
Abrir mensaje | Un marco de código abierto para un aprendizaje rápido | [Github] |
Motor rápido | Este repositorio contiene una biblioteca de utilidades de NPM para crear y mantener indicaciones de modelos de lenguaje grandes (LLM). | [Github] |
Indica IA | Lugar de trabajo avanzado para GPT-3 | [Github] |
Fuente inmediata | PromptSource es un conjunto de herramientas para crear, compartir y utilizar indicaciones en lenguaje natural. | [Github] |
Fuente de pensamiento | Un marco para que las máquinas piensen en la ciencia | [Github] |
API
nombre | describir | URL | Pagado o de código abierto |
---|
AbiertoAI | GPT-n para tareas de lenguaje natural, Codex para traducir lenguaje natural a código y DALL·E para crear y editar imágenes sin formato. | [AI abierta] | Pagar |
CohereAI | Cohere brinda acceso a modelos de lenguaje avanzados a gran escala y herramientas de procesamiento de lenguaje natural a través de una API. | [CohereAI] | Pagar |
antrópico | muy pronto | [Antrópico] | Pagar |
FLAN-T5XXL | muy pronto | [Cara abrazada] | Código abierto |
conjunto de datos
?
nombre | describir | URL |
---|
P3 (grupo público de indicaciones) | P3 (Public Pool of Prompts) es una colección de conjuntos de datos en inglés solicitados que contienen varias tareas de PNL. | [Cara abrazada] |
Impresionantes indicaciones de ChatGPT | Este repositorio incluye una curación rápida de ChatGPT para un mejor uso de ChatGPT. | [Github] |
?
nombre | describir | Enlace |
---|
ChatGPT | ChatGPT | [AI abierta] |
Códice | El modelo Codex es descendiente de nuestro modelo GPT-3 y puede comprender y generar código. Sus datos de entrenamiento incluyen lenguaje natural y miles de millones de líneas de código público en GitHub. | [Github] |
Floración | BigScience Modelo de lenguaje multilingüe de acceso abierto de ciencia abierta grande | [Cara abrazada] |
Maestría en Facebook | OPT-175B es un modelo equivalente a GPT-3 meta-entrenado. Es el modelo de lenguaje previamente entrenado más grande disponible actualmente, con 175 mil millones de parámetros. | [Alpa] |
GPT-NeoX | GPT-NeoX-20B, un modelo de lenguaje autorregresivo entrenado con 20 mil millones de parámetros | [Cara abrazada] |
FLAN-T5XXL | Flan-T5 es un modelo sintonizado con comandos, lo que significa que no muestra un comportamiento de disparo cuando se dan comandos como parte de una señal. | [HuggingFace/Google] |
XLM-RoBERTa-XL | El modelo XLM-RoBERTa-XL está previamente entrenado en 2,5 TB de datos filtrados de CommonCrawl, que contienen 100 idiomas. | [Cara abrazada] |
GPT-J | Es un modelo de lenguaje causal similar a GPT-2 entrenado en el conjunto de datos Pile. | [Cara abrazada] |
| Mensajes de escritura | Un gran conjunto de datos de 300.000 historias escritas individualmente y mensajes de escritura extraídos del servidor público de Discord de MidJourney [ HuggingFace ] || rlhf-pytorch | Implementación de RLHF (Aprendizaje por refuerzo con retroalimentación humana) en la arquitectura PaLM. Básicamente ChatGPT, pero con la adición de PaLM | [Github] | GPT-Neo | Una implementación de modelos similares a GPT-2 y GPT-3 que utilizan la biblioteca de tensores de cuadrícula para el paralelismo de modelos. | [Github] | | LaMDA-rlhf-pytorch | Implementación previamente entrenada de código abierto de Google, utilizando PyTorch. Se agregó RLHF similar a ChatGPT. | [Github] | RLHF | Una implementación de aprendizaje reforzado a través de retroalimentación humana [Github] |
detector de contenido de IA
?
nombre | describir | URL |
---|
Clasificador de texto AI | El clasificador de texto AI es un modelo GPT finamente ajustado que puede predecir la probabilidad de que un fragmento de texto sea generado por IA a partir de varias fuentes, como ChatGPT. | [AI abierta] |
Detector de salida GPT-2 | Esta es una demostración en línea de RoBERTa implementada en base a ?/Transformers | [Cara abrazada] |
detector abierto | Clasificador AI para indicar texto escrito por AI (envoltorio OpenAI Detector Python) | [GitHub] |
Tutorial
Introducción al proyecto rápido
- Prompt Engineering 101: Introducción y recursos
- Ingeniería rápida 101". - Guía de ingeniería rápida de SudalaiRajkumar
Una guía para principiantes sobre modelos de lenguaje generativo
- Una guía para principiantes sobre modelos de lenguaje generativo - Guía LaMBDA
- IA generativa basada en Cohere: Parte 1 - Consejos del modelo
Mejores prácticas para una ingeniería rápida
- Mejores prácticas para la ingeniería de avisos API de OpenAI
- Cómo escribir buenas indicaciones
Guía completa de proyectos rápidos
- Una introducción completa al proyecto Prompt del modelo de lenguaje grande
- Guía de ingeniería de indicaciones: cómo diseñar las mejores indicaciones
Rápido Aspectos técnicos de la ingeniería.
- 3 principios principales de la ingeniería rápida GPT-3
- Marco común para proyectos de ChatGPT Prompt
- Método de programación rápida
Recursos rápidos para el proyecto.
- Impresionantes consejos de ChatGPT
- Los mejores 100+ avisos de difusión estable
- LIBROS INMEDIATAMENTE DALLE
- Libro de cocina OpenAI
- El proyecto Prompt de Microsoft
video
?- Versión avanzada del proyecto ChatGPT Prompt
- ChatGPT: 5 consejos de ingeniería rápidos para principiantes
- Procesamiento avanzado del lenguaje natural CMU 2022: indicaciones
- Ingeniería inmediata: ¿una nueva carrera?
- Guía ChatGPT: utilice mejores indicaciones para aumentar sus resultados 10 veces
- Modelos de lenguaje e ingeniería de indicaciones: un estudio sistemático de los métodos de indicaciones en PNL
- Ingeniería de indicaciones 101: indicaciones de autocompletar, muestra cero, muestra única y pocas muestras
Comunidad
?
- Discordia abierta AI
- AvisosLab Discord
- Aprenda las indicaciones
- r/ChatGPT Discordia
- Discordia a mitad del viaje
Como contribuir
¡Agradecemos las contribuciones a esta lista! De hecho, esa es la razón principal por la que lo creé: fomentar las contribuciones y alentar a las personas a suscribirse a los cambios para mantenerse actualizados sobre nuevos y emocionantes desarrollos en el campo de los grandes modelos de lenguaje (LLM) y la ingeniería Prompt.
Antes de contribuir, tómate un momento para revisar nuestras pautas de contribución. Estas pautas ayudarán a garantizar que sus contribuciones sean consistentes con nuestros objetivos y cumplan con nuestros estándares de calidad y relevancia. ¡Gracias por su interés en contribuir a este proyecto!
Fuente de la imagen: docs.cohere.ai