Um guia de engenharia de código aberto para aprendizagem imediata no contexto do EgoAlpha Lab.
Artigos | ⚡️ Parque Infantil | ? Engenharia imediata | ? Prompt ChatGPT | ⛳ Guia de uso de LLMs
️ Brilhante ️: São recursos novos e atualizados diariamente para aprendizagem no contexto e engenharia imediata. À medida que a Inteligência Geral Artificial (AGI) se aproxima, vamos agir e nos tornarmos super aprendizes para nos posicionarmos na vanguarda desta era emocionante e lutarmos pela grandeza pessoal e profissional.
Os recursos incluem:
?Documentos? : Os artigos mais recentes sobre aprendizagem em contexto , engenharia imediata , agentes e modelos básicos .
?Parque infantil? : Modelos de linguagem grande (LLMs) que permitem experimentação imediata.
?Engenharia imediata? : Técnicas imediatas para aproveitar grandes modelos de linguagem.
?Aviso ChatGPT? : Exemplos imediatos que podem ser aplicados em nosso trabalho e em nosso dia a dia.
?Guia de uso de LLMs? : o método para começar rapidamente com grandes modelos de linguagem usando LangChain.
No futuro, provavelmente haverá dois tipos de pessoas na Terra (talvez até em Marte, mas isso é uma questão para Musk):
?EgoAlpha: Hello! human?, are you ready?
☄️ EgoAlpha lança o TrustGPT com foco no raciocínio. Confie no GPT com as mais fortes habilidades de raciocínio para obter respostas autênticas e confiáveis. Você pode clicar aqui ou visitar diretamente os Playgrounds para experimentá-lo。
[2024.11.17]
[2024.11.16]
[2024.11.15]
[2024.11.14]
[2024.11.13]
[2024.11.12]
[2024.11.11]
Notícias completas da história?
Você pode clicar diretamente no título para ir para o local do link do PDF correspondente
Movimento encontra atenção: prompts de movimento de vídeo ( 2024.07.03 )
Rumo a um modelo de linguagem ampla de saúde pessoal ( 2024.06.10 )
Husky: um agente de linguagem unificado e de código aberto para raciocínio em várias etapas ( 2024.06.10 )
Rumo à aprendizagem ao longo da vida de grandes modelos de linguagem: uma pesquisa ( 2024.06.10 )
Rumo à equivalência semântica de tokenização em LLM multimodal ( 2024.06.07 )
LLMs atendem à geração e edição multimodal: uma pesquisa ( 2024.05.29 )
Aprendizagem de ferramentas com grandes modelos de linguagem: uma pesquisa ( 2024.05.28 )
Quando os LLMs entram no mundo 3D: uma pesquisa e meta-análise de tarefas 3D por meio de modelos multimodais de grande linguagem ( 2024.05.16 )
Estimativa e quantificação de incerteza para LLMs: uma abordagem simples e supervisionada ( 2024.04.24 )
Uma pesquisa sobre o mecanismo de memória de agentes baseados em modelos de linguagem grande ( 2024.04.21 )
Lista completa de papéis? para "Pesquisa"?
LLaRA: Supercarregando Dados de Aprendizagem de Robôs para Política de Linguagem de Visão ( 2024.06.28 )
Recuperação do tamanho do conjunto de dados dos pesos LoRA ( 2024.06.27 )
Otimização de prompt acelerada de fase dupla ( 2024.06.19 )
De RAGs a parâmetros ricos: investigando como os modelos de linguagem utilizam conhecimento externo sobre informações paramétricas para consultas factuais ( 2024.06.18 )
VoCo-LLaMA: Rumo à compressão de visão com grandes modelos de linguagem ( 2024.06.18 )
LaMDA: Ajuste fino de modelo grande por meio de adaptação de baixa dimensão espectralmente decomposta ( 2024.06.18 )
O impacto da inicialização na dinâmica de ajuste fino do LoRA ( 2024.06.12 )
Um estudo empírico sobre ajuste fino com eficiência de parâmetros para modelos multimodais de grandes linguagens ( 2024.06.07 )
Ataques de backdoor entre contextos contra aprendizado de prompt de gráfico ( 2024.05.28 )
Yuan 2.0-M32: Mistura de especialistas com roteador de atenção ( 2024.05.28 )
Lista completa de papéis? para "Projeto imediato"?
Um estudo empírico sobre ajuste fino com eficiência de parâmetros para modelos multimodais de grandes linguagens ( 2024.06.07 )
Cantor: Inspirando a cadeia de pensamento multimodal do MLLM ( 2024.04.24 )
nicolay-r em SemEval-2024 Tarefa 3: Usando Flan-T5 para raciocinar a causa emocional em conversas com cadeia de pensamento sobre estados emocionais ( 2024.04.04 )
A visualização do pensamento provoca raciocínio espacial em grandes modelos de linguagem ( 2024.04.04 )
Modelos de linguagem pequena podem ajudar modelos de linguagem grande a raciocinar melhor?: Cadeia de pensamento guiada por LM ( 2024.04.04 )
Visual CoT: desencadeando o raciocínio em cadeia de pensamento em modelos de linguagem multimodal ( 2024.03.25 )
Uma abordagem de estímulo à cadeia de pensamentos com LLMs para avaliar as respostas da avaliação formativa dos alunos em ciências ( 2024.03.21 )
NavCoT: Impulsionando a navegação de visão e linguagem baseada em LLM por meio do aprendizado do raciocínio desembaraçado ( 2024.03.12 )
ERA-CoT: Melhorando a cadeia de pensamento por meio da análise de relacionamento entre entidades ( 2024.03.11 )
O treinamento de consistência aumentada por preconceito reduz o raciocínio tendencioso na cadeia de pensamento ( 2024.03.08 )
Lista completa de papéis? para "Cadeia de Pensamento"?
LaMDA: Ajuste fino de modelo grande por meio de adaptação de baixa dimensão espectralmente decomposta ( 2024.06.18 )
O impacto da inicialização na dinâmica de ajuste fino do LoRA ( 2024.06.12 )
Um estudo empírico sobre ajuste fino com eficiência de parâmetros para modelos multimodais de grandes linguagens ( 2024.06.07 )
Aproveitando tokens visuais para contextos de texto estendidos na aprendizagem multimodal ( 2024.06.04 )
Aprendendo a grok: surgimento da aprendizagem no contexto e composição de habilidades em tarefas aritméticas modulares ( 2024.06.04 )
Contexto longo não é nada longo: um prospector de dados de longa dependência para grandes modelos de linguagem ( 2024.05.28 )
Ajuste eficiente de prompt por projeção multiespacial e fusão de prompt ( 2024.05.19 )
MAML-en-LLM: Meta-treinamento agnóstico de modelo de LLMs para aprendizagem aprimorada no contexto ( 2024.05.19 )
Melhorando a diversidade da geração de senso comum por meio de grandes modelos de linguagem por meio da aprendizagem no contexto ( 2024.04.25 )
Linhas de base aleatórias mais fortes para aprendizagem no contexto ( 2024.04.19 )
Lista completa de papéis? para "Aprendizagem em contexto"?
Mistura aumentada de recuperação de especialistas LoRA para aprendizado de máquina carregável ( 2024.06.24 )
Aprimorando Sistemas RAG: Uma Pesquisa de Estratégias de Otimização para Desempenho e Escalabilidade ( 2024.06.04 )
Melhorando a robustez do ruído de modelos de linguagem aumentada de recuperação com treinamento adversário adaptativo ( 2024.05.31 )
Acelerando a inferência de geração aumentada de recuperação por meio da seleção de contexto esparso ( 2024.05.25 )
DocReLM: Dominando a recuperação de documentos com modelo de linguagem ( 2024.05.19 )
UniRAG: Aumento de recuperação universal para modelos multimodais de grandes linguagens ( 2024.05.16 )
ChatHuman: compreensão humana 3D baseada em linguagem com raciocínio de ferramenta aumentada de recuperação ( 2024.05.07 )
RAZÕES: Uma referência para recuperação e citações automatizadas de sentenças científicas usando LLMs públicos e proprietários ( 2024.05.03 )
Solicitação de superposição: melhorando e acelerando a geração aumentada de recuperação ( 2024.04.10 )
Desembaraçar o NÓ: Entrelaçando conhecimentos conflitantes e habilidades de raciocínio em grandes modelos de linguagem ( 2024.04.04 )
Lista completa de papéis? para "Geração Aumentada de Recuperação"?
CELLO: Avaliação causal de grandes modelos de visão-linguagem ( 2024.06.27 )
PrExMe! Exploração imediata em grande escala de LLMs de código aberto para tradução automática e avaliação de resumo ( 2024.06.26 )
Revisitando a avaliação da compreensão de expressões de referência na era dos grandes modelos multimodais ( 2024.06.24 )
OR-Bench: uma referência de recusa excessiva para modelos de linguagem grande ( 2024.05.31 )
TimeChara: Avaliando a alucinação de personagens em um momento específico de modelos de linguagem grande de representação de papéis ( 2024.05.28 )
Vieses sutis precisam de medidas mais sutis: métricas duplas para avaliar preconceitos representativos e de afinidade em modelos de linguagem grande ( 2024.05.23 )
HW-GPT-Bench: benchmark de arquitetura com reconhecimento de hardware para modelos de linguagem ( 2024.05.16 )
LLMs multimodais lutam com análise visual básica de rede: um benchmark VNA ( 2024.05.10 )
Vibe-Eval: Um conjunto de avaliação difícil para medir o progresso de modelos de linguagem multimodais ( 2024.05.03 )
Avaliação causal de modelos de linguagem ( 2024.05.01 )
Lista completa de papéis? para "Avaliação e Confiabilidade"?
Métodos cooperativos de aprendizagem por reforço profundo multiagente para redes de computação móvel de borda auxiliadas por UAV ( 2024.07.03 )
A aprendizagem simbólica permite a autoevolução de agentes ( 2024.06.26 )
Ataques adversários a agentes multimodais ( 2024.06.18 )
DigiRL: Treinamento de agentes de controle de dispositivos in-the-wild com aprendizagem por reforço autônomo ( 2024.06.14 )
Transformando dados vestíveis em insights de saúde usando agentes de modelo de linguagem grande ( 2024.06.10 )
Sonho neuromórfico: um caminho para a aprendizagem eficiente em agentes artificiais ( 2024.05.24 )
Ajuste fino de grandes modelos de linguagem visual como agentes de tomada de decisão por meio de aprendizado por reforço ( 2024.05.16 )
Aprendendo a comunicação multiagente a partir da perspectiva da modelagem de grafos ( 2024.05.14 )
Smurfs: aproveitando vários agentes de proficiência com eficiência de contexto para planejamento de ferramentas ( 2024.05.09 )
Revelando disparidades no tratamento de tarefas da Web entre humanos e agentes da Web ( 2024.05.07 )
Lista completa de papéis? para "Agente"?
InternLM-XComposer-2.5: um modelo versátil de linguagem de visão ampla que suporta entrada e saída contextual longa ( 2024.07.03 )
LLaRA: Supercarregando Dados de Aprendizagem de Robôs para Política de Linguagem de Visão ( 2024.06.28 )
Web2Code: um conjunto de dados de página para código em grande escala e uma estrutura de avaliação para LLMs multimodais ( 2024.06.28 )
LLaVolta: Modelos multimodais eficientes por meio de compressão de contexto visual em estágios ( 2024.06.28 )
Cambrian-1: Uma exploração totalmente aberta e centrada na visão de LLMs multimodais ( 2024.06.24 )
VoCo-LLaMA: Rumo à compressão de visão com grandes modelos de linguagem ( 2024.06.18 )
Além do LLaVA-HD: Mergulhando em Grandes Modelos Multimodais de Alta Resolução ( 2024.06.12 )
Um estudo empírico sobre ajuste fino com eficiência de parâmetros para modelos multimodais de grandes linguagens ( 2024.06.07 )
Aproveitando tokens visuais para contextos de texto estendidos na aprendizagem multimodal ( 2024.06.04 )
DeCo: Desacoplando a compactação de token da abstração semântica em modelos multimodais de grandes linguagens ( 2024.05.31 )
Lista completa de papéis? para "Prompt multimodal"?
IncogniText: anonimato de texto condicional para aumentar a privacidade por meio de randomização de atributos privados baseada em LLM ( 2024.07.03 )
Web2Code: um conjunto de dados de página para código em grande escala e uma estrutura de avaliação para LLMs multimodais ( 2024.06.28 )
OMG-LLaVA: Unindo raciocínio e compreensão em nível de imagem, nível de objeto e nível de pixel ( 2024.06.27 )
Otimização de mecanismo de pesquisa adversário para modelos de linguagem grande ( 2024.06.26 )
VideoLLM-online: modelo de linguagem grande de vídeo online para streaming de vídeo ( 2024.06.17 )
A regularização de estados ocultos permite o aprendizado do modelo de recompensa generalizável para LLMs ( 2024.06.14 )
Modelo autorregressivo supera a difusão: Llama para geração de imagem escalável ( 2024.06.10 )
Modelos de linguagem emulam certos perfis cognitivos: Uma investigação de como as medidas de previsibilidade interagem com as diferenças individuais ( 2024.06.07 )
PaCE: Engenharia de conceito parcimoniosa para modelos de linguagem grande ( 2024.06.06 )
Yuan 2.0-M32: Mistura de especialistas com roteador de atenção ( 2024.05.28 )
Lista completa de papéis? para "Inscrição imediata"?
TheoremLlama: Transformando LLMs de uso geral em especialistas Lean4 ( 2024.07.03 )
Compreensão da forma 3D de pedestres para reidentificação de pessoas por meio de aprendizagem multivisualização ( 2024.07.01 )
Apagamento de token como uma pegada de itens de vocabulário implícitos em LLMs ( 2024.06.28 )
OMG-LLaVA: Unindo raciocínio e compreensão em nível de imagem, nível de objeto e nível de pixel ( 2024.06.27 )
Problemas fundamentais com edição de modelo: como a revisão de crenças racionais deve funcionar em LLMs? ( 2024.06.27 )
Modelos mundiais eficientes com tokenização sensível ao contexto ( 2024.06.27 )
A notável robustez dos LLMs: estágios de inferência? ( 2024.06.27 )
ResumeAtlas: Revisitando a classificação de currículos com conjuntos de dados em grande escala e modelos de linguagem grande ( 2024.06.26 )
AITTI: Token Adaptativo Inclusivo de Aprendizagem para Geração de Texto para Imagem ( 2024.06.18 )
Revelando modelos de linguagem de visão sem codificador ( 2024.06.17 )
Lista completa de papéis? para "Modelos Básicos"?
Os grandes modelos de linguagem (LLMs) estão se tornando uma tecnologia revolucionária que está moldando o desenvolvimento da nossa era. Os desenvolvedores podem criar aplicativos que antes só eram possíveis em nossa imaginação, construindo LLMs. No entanto, o uso desses LLMs geralmente apresenta certas barreiras técnicas e, mesmo na fase introdutória, as pessoas podem ficar intimidadas pela tecnologia de ponta: Você tem alguma dúvida como as seguintes?
Se houvesse um tutorial que pudesse ser acessível a todos os públicos, não apenas aos profissionais de ciência da computação, ele forneceria orientação detalhada e abrangente para começar e operar rapidamente em um curto espaço de tempo, atingindo, em última análise, o objetivo de ser capaz de usar LLMs com flexibilidade e criativamente para construir os programas que imaginam. E agora, só para você: o guia para iniciantes do Langchain mais detalhado e abrangente, proveniente do site oficial do langchain, mas com ajustes adicionais no conteúdo, acompanhado pelos exemplos de código mais detalhados e anotados, ensinando o código linha por linha e frase por frase para todos os públicos.
Clique aqui? para fazer um rápido tour de introdução ao LLM.
Este repositório é mantido pelo EgoAlpha Lab. Perguntas e discussões são bem-vindas via [email protected]
.
Estamos dispostos a participar de discussões com amigos das comunidades acadêmica e industrial e explorar juntos os mais recentes desenvolvimentos em engenharia imediata e aprendizagem contextual.
Agradecimentos aos alunos de doutorado do EgoAlpha Lab e demais trabalhadores que participaram deste repo. Melhoraremos o projeto no período de acompanhamento e manteremos bem esta comunidade. Gostaríamos também de expressar nossa sincera gratidão aos autores dos recursos relevantes. Seus esforços ampliaram nossos horizontes e nos permitiram perceber um mundo mais maravilhoso.