O mágico projeto Prompt?♂️
Este repositório contém um recurso de engenharia Prompt selecionado manualmente, com foco em Generative Pretrained Transformer (GPT), ChatGPT, PaLM e muito mais.
Índice
- papel
- Ferramentas e código
- API
- Conjunto de dados
- Modelo
- Detector de conteúdo de IA
- educar
- vídeo
- livros
- comunidade
- Como contribuir
papel
?
Tecnologia de engenharia imediata :
- Método para aprimorar o projeto ChatGPT Prompt usando o diretório Prompt Pattern [2023] (Arxiv)
- Otimização discreta baseada em gradiente para ajuste fino e descoberta imediatos [2023] (Arxiv). - Dica geral: demonstração de geração de cadeias de pensamento para grandes modelos de linguagem [2023] (Arxiv)
- Prompts progressivos: aprendizagem contínua de modelos de linguagem [2023] (Arxiv)
- Dicas de processamento em lote: inferência eficiente com API LLM [2023] (Arxiv)
- Solicitações contínuas para resolver problemas complexos [2022] (Arxiv)
- Dicas estruturais: dimensionando a aprendizagem contextual para 1.000 exemplos [2022] (Arxiv)
- Grandes modelos de linguagem são engenheiros imediatos de nível humano [2022] (Arxiv)
- Pergunte-me qualquer coisa: estratégias simples para gerar modelos de linguagem [2022] (Arxiv)
- Dicas para que o GPT-3 seja confiável [2022] (Arxiv)
- Dicas de última hora: abordagens modulares para resolver tarefas complexas [2022] (Arxiv)
- PromptChainer: encadeando prompts de modelos de linguagem grandes por meio de programação visual [2022] (Arxiv)
- Investigando engenharia de dicas em modelos de difusão [2022] (Arxiv)
- Mostre seu trabalho: um rascunho de cálculos intermediários usando modelos de linguagem [2021] (Arxiv)
- Dicas de ensino para reimaginar o GPTk [2021] (Arxiv)
- Dicas maravilhosamente ordenadas e sua descoberta: Superando a sensibilidade da ordem de dicas de pequenas amostras [2021] (Arxiv)
- O poder da escala para ajuste rápido e eficiente de parâmetros [2021] (Arxiv)
- Programando modelos de linguagem grande: além do paradigma de poucos disparos [2021] (Arxiv) - Ajuste de prefixo: otimizando dicas contínuas para geração [2021] (Arxiv)
Raciocínio e aprendizagem contextual :
- Raciocínio em cadeia de pensamento multimodal em modelos de linguagem [2023] (Arxiv)
- Pensando bem, não seguimos o caminho do pensamento de uma única etapa! Preconceito e nocividade na inferência zero-shot [2022] (Arxiv)
- ReAct: Sinergia de raciocínio e ação em modelos de linguagem [2022] (Arxiv)
- Os modelos de linguagem são raciocinadores gananciosos: uma análise formal sistemática de cadeias de pensamento [2022] (Arxiv)
- Progresso na melhoria dos modelos de linguagem para inferência [2022] (Arxiv)
- Modelos de linguagem grande são raciocinadores de tiro zero [2022] (Arxiv)
- Raciocinando como um executor de programa [2022] (Arxiv)
- A autoconsistência melhora o raciocínio da cadeia de pensamento em modelos de linguagem [2022] (Arxiv)
- Repensando o papel da demonstração: O que faz a aprendizagem contextual funcionar? [2022] (Arxiv)
- Aprenda a explicar: raciocínio multimodal para perguntas e respostas científicas por meio de cadeias de pensamento [2022] (Arxiv)
- A Cadeia de Pensamento solicita a obtenção de inferência em grandes modelos de linguagem [2021] (Arxiv)
- A geração de conhecimento estimula o raciocínio de bom senso [2021] (Arxiv)
- BERTese: Aprenda a se comunicar com BERT [2021] (Acl)
Avaliar e melhorar modelos de linguagem :
- Grandes modelos de linguagem são propensos a interferências de contextos irrelevantes [2023] (Arxiv)
- Rastreando a base de conhecimento interna de modelos de linguagem [2023] (Arxiv) - Métodos para descobrir o comportamento do modelo de linguagem: Avaliação da escrita do modelo [2022] (Arxiv) Link original
- Calibre antes de usar: Melhorando o desempenho de poucos disparos dos modelos de linguagem [2021] (Arxiv) Link original
Aplicação do modelo de linguagem :
- Dicas para classificar memes maliciosos multimodais [2023] (Arxiv) Link original
- Modelo de linguagem imediata para síntese de conversas sociais [2023] (Arxiv) Link original
- Solicitações de senso comum para geração de conversação empática controlada [2023] (Arxiv) Link original
- Modelo de linguagem assistida por programa [2023] (Arxiv) Link original
- Escrita jurídica para previsão de julgamento legal multilíngue [2023] (Arxiv) Link original
- Pesquisa sobre engenharia imediata para resolução de problemas CS1 usando linguagem natural [2022] (Arxiv) Link original
- Criação de plotagem usando modelos de linguagem pré-treinados [2022] (Acl) Link original
- AutoPrompt: Usando prompts gerados automaticamente para extrair conhecimento de modelos de linguagem [2020] (Arxiv) Link original
Exemplos de detecção de ameaças e contramedidas :
- Inteligência Artificial Constitucional: Inofensiva via Feedback de IA [2022] (Arxiv) Link original
- Ignore a dica anterior: Técnicas de Ataque para Modelos de Linguagem [2022] (Arxiv) Link original
- Texto gerado por máquina: uma pesquisa abrangente de modelos de ameaças e métodos de detecção [2022] (Arxiv) Link original
- Avaliando a suscetibilidade de modelos de linguagem pré-treinados por meio de exemplos adversários artesanais [2022] (Arxiv) Link original
- Detecção de toxicidade usando dicas geradas [2022] (Arxiv) Link original. - Como sabemos o que o modelo de linguagem sabe? [2020] (Mit)
Aprendizado rápido e otimização de desempenho :
- Promptagator: recuperação densa em poucas fotos de 8 exemplos [2022] (Arxiv)
- Few-Shot alerta para falta de confiabilidade interpretativa no raciocínio textual [2022] (Arxiv)
- Tornando modelos de linguagem pré-treinados melhores alunos de poucas tentativas [2021] (Acl)
- Modelos de linguagem são aprendizes rápidos [2020] (Arxiv)
Geração de texto para imagem :
- Uma classificação modificadora de dica para geração de texto para imagem [2022] (Arxiv)
- Diretrizes de design para modelos geradores de texto para imagem de engenharia imediata [2021] (Arxiv)
- Síntese de imagens de alta resolução usando modelos de difusão latente [2021] (Arxiv)
- DALL·E: Criando imagens a partir de texto [2021] (Arxiv)
Geração de texto para música/som :
- MusicLM: Gerando música a partir de texto [2023] (Arxiv)
- ERNIE-Music: geração de música text-to-wave usando modelos de difusão [2023] (Arxiv)
- Noise2Music: geração de música modulada em texto usando modelos de difusão [2023) (Arxiv)
- AudioLM: Um método de geração de áudio baseado em modelagem de linguagem [2023] (Arxiv)
- Make-An-Audio: geração de texto para áudio usando modelos de difusão de sinalização aprimorados [2023] (Arxiv)
Geração de texto para vídeo :
- Dreamix: Um modelo de difusão de vídeo para um editor de vídeo universal [2023] (Arxiv). - Tuning Video: Ajuste único de modelos de difusão de imagem para geração de texto para vídeo [2022] (Arxiv)
- Ruído para música: geração de música condicional em texto baseada no modelo de difusão [2023] (Arxiv)
- Áudio LM: Um método para geração de modelo de linguagem de áudio [2023] (Arxiv)
Visão geral :
- Pilotando Copiloto e Codex: Temperatura Quente, Avisos Frios ou Magia Negra [2022] (Arxiv)
Ferramentas e código
?
nome | descrever | Link |
---|
Índice GPT | Índice GPT é um projeto que consiste em um conjunto de estruturas de dados projetadas para facilitar o trabalho com grandes bases de conhecimento externas com LLM. | [Github] |
Avisar | Use o LLM para resolver problemas de PNL e use o Promptify para gerar facilmente diferentes prompts de tarefas de PNL para modelos generativos populares, como GPT e PaLM. | [Github] |
Melhor prompt | Teste o conjunto de testes antes de enviar prompts do LLM para produção | [Github] |
Composição interativa Explorerx | ICE é um visualizador de rastreamento para bibliotecas Python e programas de modelo de linguagem. | [Github] |
LangChainx | Crie aplicativos usando LLM em combinação | [Github] |
OpenPrompt | Uma estrutura de código aberto para aprendizagem imediata | [Github] |
Mecanismo de alerta | Este repositório contém uma biblioteca de utilitários NPM para criar e manter prompts de modelo de linguagem grande (LLMs). | [Github] |
Solicita IA | Local de trabalho avançado para GPT-3 | [Github] |
Fonte do prompt | PromptSource é um kit de ferramentas para criar, compartilhar e usar prompts em linguagem natural. | [Github] |
Fonte de Pensamento | Uma estrutura para as máquinas pensarem sobre a ciência | [Github] |
API
nome | descrever | URL | Pago ou código aberto |
---|
OpenAI | GPT-n para tarefas de linguagem natural, Codex para traduzir linguagem natural em código e DALL·E para criar e editar imagens brutas. | [OpenAI] | Pagar |
CohereAI | Cohere fornece acesso a modelos avançados de linguagem em grande escala e ferramentas de processamento de linguagem natural por meio de uma API. | [CohereAI] | Pagar |
Antrópico | em breve | [Antrópico] | Pagar |
FLAN-T5XXL | em breve | [HugginFace] | Código aberto |
Conjunto de dados
?
nome | descrever | URL |
---|
P3 (conjunto público de prompts) | P3 (Public Pool of Prompts) é uma coleção de conjuntos de dados solicitados em inglês contendo várias tarefas de PNL. | [Abraçando o rosto] |
Prompts impressionantes do ChatGPT | Este repositório inclui uma curadoria de prompt do ChatGPT para melhor uso do ChatGPT. | [Github] |
?
nome | descrever | Link |
---|
Bate-papoGPT | Bate-papoGPT | [OpenAI] |
Códice | O modelo Codex é descendente do nosso modelo GPT-3 e pode compreender e gerar código. Seus dados de treinamento incluem linguagem natural e bilhões de linhas de código público no GitHub | [Github] |
Florescer | BigScience Grande Modelo de Linguagem Multilíngue de Acesso Aberto de Ciência Aberta | [Abraçando o rosto] |
Facebook LLM | OPT-175B é um modelo equivalente ao GPT-3 meta-treinado. É o maior modelo de linguagem pré-treinado atualmente disponível, com 175 bilhões de parâmetros | [Alpa] |
GPT-NeoX | GPT-NeoX-20B, um modelo de linguagem autorregressiva treinado com 20 bilhões de parâmetros | [Abraçando o rosto] |
FLAN-T5XXL | Flan-T5 é um modelo ajustado por comando, o que significa que exibe comportamento de disparo zero quando comandos são dados como parte de uma sugestão. | [AbraçandoFace/Google] |
XLM-RoBERTa-XL | O modelo XLM-RoBERTa-XL é pré-treinado em 2,5 TB de dados CommonCrawl filtrados, contendo 100 idiomas | [Abraçando o rosto] |
GPT-J | É um modelo de linguagem causal semelhante ao GPT-2 treinado no conjunto de dados Pile | [Abraçando o rosto] |
| Prompts de escrita | Um grande conjunto de dados de 300 mil histórias escritas individualmente e prompts de escrita extraídos de fóruns online (reddit) | [ Kaggle ] | Prompts de texto e URLs de imagens extraídos do servidor Discord público do MidJourney || rlhf-pytorch | Implementação de RLHF (Aprendizagem por Reforço com Feedback Humano) na arquitetura PaLM. Basicamente ChatGPT, mas com a adição de PaLM | [Github] | GPT-Neo | Uma implementação de modelos semelhantes a GPT-2 e GPT-3 usando a biblioteca de tensores de grade para paralelismo de modelo. | [Github] | LaMDA-rlhf-pytorch | Implementação pré-treinada de código aberto do Google, usando PyTorch. Adicionado RLHF semelhante ao ChatGPT. | [Github] | RLHF | Uma implementação de aprendizagem por reforço por meio de feedback humano [Github] |
Detector de conteúdo de IA
?
nome | descrever | URL |
---|
Classificador de texto AI | O AI Text Classifier é um modelo GPT bem ajustado que pode prever a probabilidade de um trecho de texto ser gerado por IA a partir de várias fontes, como ChatGPT. | [OpenAI] |
Detector de saída GPT-2 | Esta é uma demonstração online do RoBERTa implementado com base em ?/Transformers | [Abraçando o rosto] |
Detector Openai | Classificador AI para indicar texto escrito por AI (wrapper OpenAI Detector Python) | [GitHub] |
Tutorial
Introdução ao projeto Prompt
- Prompt Engineering 101 - Introdução e Recursos
- Prompt Engineering 101". - Guia de Engenharia Prompt por SudalaiRajkumar
Guia para iniciantes em modelos de linguagem generativa
- Um guia para iniciantes sobre modelos de linguagem generativa - Guia LaMBDA
- IA generativa baseada em Cohere: Parte 1 - Dicas de modelo
Melhores práticas para engenharia imediata
- Melhores práticas para engenharia de prompt de API OpenAI
- Como escrever bons prompts
Guia completo do projeto imediato
- Uma introdução completa ao projeto Prompt de modelo de linguagem grande
- Guia de engenharia de prompts: como projetar os melhores prompts
Aspectos técnicos imediatos da engenharia
- 3 princípios principais da engenharia de prompt GPT-3
- Estrutura comum para projetos de prompt ChatGPT
- Método de programação rápida
Solicitar recursos do projeto
- Dicas incríveis do ChatGPT
- Melhor prompt de difusão estável 100+
- LIVROS DALLE PROMPT
- Livro de receitas OpenAI
- Projeto Prompt da Microsoft
vídeo
?- Versão avançada do projeto ChatGPT Prompt
- ChatGPT: 5 dicas rápidas de engenharia para iniciantes
- Processamento Avançado de Linguagem Natural CMU 2022: Solicitação
- Prompt Engineering - uma nova carreira?
- Guia ChatGPT: use prompts melhores para aumentar seus resultados em 10x
- Modelos de linguagem e engenharia de prompt: uma pesquisa sistemática de métodos de prompt em PNL
- Prompt Engineering 101: prompts de preenchimento automático, amostra zero, amostra única e poucas amostras
Comunidade
?
- Discordância OpenAI
- PromptsLab Discord
- Aprenda a solicitar
- Discórdia r/ChatGPT
- Discordância no meio da jornada
Como contribuir
Aceitamos contribuições para esta lista! Na verdade, essa é a principal razão pela qual eu o criei - para encorajar contribuições e encorajar as pessoas a assinarem as mudanças para se manterem atualizadas sobre desenvolvimentos novos e interessantes no campo de grandes modelos de linguagem (LLMs) e engenharia Prompt.
Antes de contribuir, reserve um momento para revisar nossas diretrizes de contribuição. Estas diretrizes ajudarão a garantir que suas contribuições sejam consistentes com nossos objetivos e atendam aos nossos padrões de qualidade e relevância. Obrigado pelo seu interesse em contribuir com este projeto!
Fonte da imagem: docs.cohere.ai