Português
中文(简体)
中文(繁体)
한국어
日本語
English
Português
Español
Русский
العربية
Indonesia
Deutsch
Français
ภาษาไทย
Mapa do site completo
Últimas Atualizações
Página Inicial
Código-fonte
Relacionados a Programação
Recursos de criação de sites
Tutoriais de Design de Páginas Web
Tutoriais de Programação de Rede
Página Inicial
>
Relacionado com a programação
>
Código-Fonte de IA
papernote
Código-Fonte de IA
1.0.0
Baixar
sistema de recomendação
2018.07
Modelo de incorporação de usuário de conteúdo profundo para recomendação de música [arxiv] [nota]
2017.08
Rede profunda e cruzada para previsões de cliques em anúncios [arxiv] [nota]
2017.03
DeepFM: Uma rede neural baseada em máquina de fatoração para previsão de CTR [arxiv] [nota]
2016.09
Redes Neurais Profundas para Recomendações do YouTube [pesquisa] [nota]
2016.06
Aprendizado amplo e profundo para sistemas de recomendação [arxiv] [nota]
2010.12
Máquinas de Fatoração [ieee] [nota]
1998.08
Feedback implícito para sistemas de recomendação [aaai] [nota]
Controle de qualidade e geração de texto
Controle de qualidade: baseado em recuperação (tabela de classificação):
2018.12
O design e implementação do XiaoIce, um chatbot social empático [arxiv] [nota]
2018.06
Modelagem de conversa multivoltas com agregação de expressão profunda [arxiv] [nota]
2017.11
Uma Pesquisa sobre Sistemas de Diálogo: Avanços Recentes e Novas Fronteiras [arxiv] [nota]
2017.05
IRGAN [arxiv] [nota]
2017.02
Correspondência multiperspectiva bilateral para sentenças em linguagem natural [arxiv] [nota]
2016.12
Uma nova arquitetura para seleção de respostas multivoltas em chatbots baseados em recuperação [arxiv] [nota]
2016.11
Um modelo comparador-agregado para correspondência de sequências de texto [arxiv] [nota]
2016.10
Estimativa contrastiva de ruído para seleção de respostas com redes neurais profundas [semanticscholar] [nota]
2016.02
Redes de Pooling Atentas [arxiv] [nota]
2015.11
Modelos de aprendizado profundo baseados em LSTM para seleção de respostas não factóides [arxiv] [nota]
chatbot: baseado em geração:
2018.04
Bate-papo mais: aprofundando e ampliando o tópico do bate-papo por meio de um modelo profundo [artigo] [nota]
2018.01
De Eliza a XiaoIce: desafios e oportunidades com chatbots sociais [arxiv] [tradução]
2017.11
Geração de resposta neural com vocabulários dinâmicos [arxiv] [nota]
2017.11
MOJITALK: Gerando respostas emocionais [arxiv] [nota]
2017.07
AliMe Chat: um mecanismo de chatbot baseado em sequência para sequência e reclassificação [aclweb] [nota]
2017.04
Geração de Conversa Emocional com Memória Interna e Externa [arxiv] [nota]
2017.03
Aprendendo Diversidade em Nível de Discurso para Modelos de Diálogo Neural usando CVAE [arxiv] [nota]
2017.02
Um modelo de conversa neural baseado em conhecimento [arxiv] [nota]
2017.01
Gerando respostas longas e diversas com modelos de conversação neural [arxiv] [nota]
2016.07
Sequência para sequência regressiva e progressiva [arxiv] [nota]
2016.06
Geração de resposta neural com reconhecimento de tópico [arxiv] [nota]
2016.06
Aprendizado por Reforço Profundo para Geração de Diálogo [arxiv] [nota]
2015.03
Máquina de resposta neural para conversas de texto curto [arxiv] [nota]
geração de texto
2018.06
Geração de tópico para ensaio com redes neurais [artigo] [nota]
2016.10
Geração de Poesia Chinesa com Rede Neural Baseada em Planejamento [arxiv] [nota]
2016.03
Incorporando mecanismo de cópia na aprendizagem sequência a sequência [arxiv] [nota]
classificação
2019.05
Como ajustar o BERT para classificação de texto? [arxiv] [nota]
2018.06
SGM: Modelo de geração de sequência para classificação multi-rótulo [arxiv] [nota]
2018.04
ETH-DS3Lab em SemEval-2018 Tarefa 7: ... Classificação e extração de relação [arxiv] [nota]
2017.08
Usando milhões de ocorrências de emoji para aprender representações de qualquer domínio para ... [aclweb] [nota]
2016.xx
LSTM baseado em atenção para classificação de sentimento em nível de aspecto [aclweb] [nota]
2016.07
Conjunto de truques para classificação eficiente de texto (fasttext) [arxiv] [nota]
2016.06
Redes de Atenção Hierárquica para Classificação de Documentos [aclweb] [nota]
2016.03
Classificação sequencial de texto curto com redes neurais recorrentes e convolucionais [arxiv] [nota]
2015.07
Classificando relações por classificação com redes neurais convolucionais [aclweb] [nota]
2014.08
Redes Neurais Convolucionais para Classificação de Frases [aclweb] [nota]
2012.07
Linhas de base e bigrams: simples, bom sentimento e classificação de tópicos [aclweb] [nota]
incorporação
incorporação de palavras:
2018.12
Sobre a dimensionalidade da incorporação de palavras [arxiv] [nota]
2018.09
Descobrindo informações linguísticas divergentes em embeddings de palavras ... [arxiv] [nota]
2018.02
Representações de palavras contextualizadas profundas (ELMo) [arxiv] [nota]
2017.12
Avanços no pré-treinamento de representações de palavras distribuídas [arxiv] [nota]
2017.07
Uma abordagem simples para aprender incorporações de palavras polissêmicas [arxiv] [nota]
2017.07
Mimetizando incorporações de palavras usando RNNs de subpalavras [arxiv] [nota]
2016.07
Enriquecendo vetores de palavras com informações de subpalavras [arxiv] [nota]
2013.01
Regularidades linguísticas em representações de palavras em espaço contínuo [aclweb] [nota]
incorporação de frases:
2018.09
Modelagem de sequência semissupervisionada com treinamento cross-view [arxiv] [nota]
2018.05
A linha de base precisa de mais atenção: em modelos simples baseados em incorporação de palavras e ... [arxiv] [nota]
2018.04
Aprendendo similaridade textual semântica em conversas [arxiv] [nota]
2018.03
Uma estrutura eficiente para representações de frases de aprendizagem [arxiv] [nota]
2017.05
Aprendizagem supervisionada de representações de frases universais a partir de dados NLI [arxiv] [nota]
2016.11
Uma linha de base simples, mas difícil de superar para incorporações de frases [revisão aberta] [nota]
2016.05
Aprendendo inferência de linguagem natural usando modelo LSTM bidirecional e atenção interna [arxiv] [nota]
2016.02
Aprendendo representações distribuídas de sentenças de dados não rotulados [arxiv] [nota]
2015.12
Aprendendo similaridade semântica para textos muito curtos [arxiv] [nota]
2015.11
Incorporações de ordem de imagens e linguagem [arxiv] [nota]
2014.05
Representações Distribuídas de Sentenças e Documentos [arxiv] [nota]
incorporação do usuário:
2017.05
Quantificando a saúde mental nas mídias sociais com incorporações de usuários neurais [arxiv] [nota]
regularização e normalização
2018.08
O abandono é um caso especial da regra delta estocástica: aprendizado profundo mais rápido e preciso [arxiv] [nota]
2018.05
Como a normalização em lote ajuda na otimização? (Não, não se trata de mudança de covariável interna) [arxiv] [nota]
2017.02
Renormalização em lote [arxiv] [nota]
2016.07
Normalização de camada [arxiv] [nota]
2016.05
Métodos de treinamento adversário para classificação de texto semissupervisionado [arxiv] [nota]
2016.03
Normalização de lote recorrente [arxiv] [nota]
2016.02
Normalização de peso [arxiv] [nota]
2015.10
Redes Neurais Recorrentes Normalizadas em Lote [arxiv] [nota]
2015.07
Suavização Distribucional com Treinamento Adversarial Virtual [arxiv] [nota]
2015.02
Normalização em lote [arxiv] [nota]
2014.12
Explicando e aproveitando exemplos adversários [arxiv] [nota]
2013.06
Regularização de redes neurais usando DropConnect [artigo] [nota]
2009.06
Aprendizagem Curricular [collobert] [nota]
rede neural
2019.01
É hora de balançar? Comparando funções de ativação de aprendizado profundo em tarefas de PNL [arxiv] [nota]
2018.03
Abandono direcionado [openreview] [nota]
2017.11
Modelos de Linguagem Atenta [aclweb] [nota]
2017.04
Modelos de linguagem de rede neural recorrente de memória contextual bidirecional longa e de curto prazo [aclweb] [nota]
2017.04
Aprendendo a gerar avaliações e descobrindo sentimentos [arxiv] [nota]
2017.04
Explorando a dispersão em redes neurais recorrentes [arxiv] [nota]
2017.02
Deep Nets não aprendem por meio da memorização [openreview] [nota]
2017.01
Modelagem de linguagem de contexto de diálogo com redes neurais recorrentes [arxiv] [nota]
2016.11
Amarrando vetores de palavras e classificadores de palavras: uma estrutura de perdas para modelagem de linguagem [arxiv] [nota]
2016.11
Compreender o aprendizado profundo requer repensar a generalização [arxiv] [nota]
2016.09
Uma visão geral dos algoritmos de otimização de descida gradiente [arxiv] [nota]
Modelos de mistura Pointer Sentinel
2016.09
[arxiv] [nota]
2016.08
Usando a incorporação de saída para melhorar modelos de linguagem [arxiv] [nota]
2016.03
Desistência recorrente sem perda de memória [arxiv] [nota]
2015.11
Adicionar ruído gradiente melhora o aprendizado para redes muito profundas [arxiv] [nota]
2015.11
Aprendizado de sequência semissupervisionado [arxiv] [nota]
2015.06
Visualizando e compreendendo redes recorrentes [arxiv] [nota]
2015.xx
Cálculo em gráficos computacionais: retropropagação [github] [nota]
2014.12
Avaliação empírica de redes neurais recorrentes controladas em modelagem de sequência [arxiv] [nota]
2014.09
Regularização de rede neural recorrente [arxiv] [nota]
2013.12
Como construir redes neurais recorrentes profundas [arxiv] [nota]
2010.xx
Compreendendo a dificuldade de treinar redes neurais feedforward profundas [imag] [nota]
2010.xx
Autoencoders Stacked Denoising [artigo] [nota]
2008.07
Uma arquitetura unificada para processamento de linguagem natural [collobert] [nota]
transformador
2019.09
ALBERT: Um Lite BERT para aprendizagem autosupervisionada de representações de linguagem [arxiv] [nota]
2019.07
RoBERTa: uma abordagem de pré-treinamento BERT robustamente otimizada [arxiv] [nota]
2019.04
ERNIE: Representação aprimorada por meio da integração do conhecimento [arxiv] [nota]
2018.10
BERT: Pré-treinamento de transformadores bidirecionais profundos para compreensão de linguagem [arxiv] [nota]
2018.06
Melhorando a compreensão da linguagem por meio de pré-treinamento generativo [amazonaws] [nota]
Codificador de frase universal
2018.03
[arxiv] [nota]
2017.06
Atenção é tudo que você precisa [arxiv] [nota]
sequência em sequência
2018.07
Aumento de dados de sequência a sequência para compreensão da linguagem de diálogo [arxiv] [tradução]
2018.07
Aprendizado e inferência para aumento de fluência para correção de erros gramaticais neurais [aclweb] [nota]
2017.04
Vá direto ao ponto: resumo com redes geradoras de ponteiro [arxiv] [nota]
2017.04
Aprendendo a ler rapidamente o texto [arxiv] [nota]
2015.06
Redes de ponteiros [arxiv] [nota]
2015.06
Vetores de pensamento ignorado [arxiv] [nota]
2014.12
Gramática como Língua Estrangeira [arxiv] [nota]
2014.12
Sobre o uso de vocabulário de destino muito grande para tradução automática neural [arxiv] [nota]
2014.09
Tradução automática neural por Jontly Learning to Align and Translate [arxiv] [nota]
2014.09
Aprendizagem sequência a sequência com redes neurais [arxiv] [nota]
multitarefa
2019.01
Redes Neurais Profundas Multitarefas para Compreensão da Linguagem Natural [arxiv] [nota]
2018.08
Modelagem de relacionamentos de tarefas em aprendizagem multitarefa com mistura de especialistas multiportas [acm] [nota]
2016.12
Superando o esquecimento catastrófico em redes neurais [arxiv] [nota]
reconhecimento de entidade de nome
2018.05
NER chinês usando Lattice LSTM [arxiv] [nota]
2018.03
Classificação de tipo de entidade neural refinada com perda de reconhecimento de hierarquia [arxiv] [nota]
2017.04
Aprendizado multitarefa semissupervisionado para rotulagem de sequências [arxiv] [nota]
2016.03
Arquiteturas Neurais para Reconhecimento de Entidades Nomeadas [arxiv] [nota]
2016.xx
Arquiteturas Neurais para Classificação Refinada de Tipo de Entidade [aclweb] [nota]
aprendizagem auto-supervisionada
2020.02
Uma estrutura simples para aprendizagem contrastiva de representações visuais [arxiv] [nota]
outros
2017.06
Um módulo de rede neural simples para raciocínio relacional [arxiv] [nota]
2016.11
Palavra ou caracteres, controle refinado para compreensão de leitura [arxiv] [nota]
2016.08
Tradução automática neural de palavras raras com unidades de subpalavra (BPE) [aclweb] [nota]
2005.08
Personalização da pesquisa por meio de análise automatizada de interesses e atividades [microsoft] [nota]
Expandir
Informações adicionais
Versão
1.0.0
Tipo
Código-Fonte de IA
Data da Última Atualização
2024-12-14
tamanho
3.27MB
Vindo de
Github
Aplicativos Relacionados
node telegram bot api
2024-12-14
typebot.io
2024-12-14
python wechaty getting started
2024-12-14
TranscriberBot
2024-12-14
genal chat
2024-12-14
Facemoji
2024-12-14
Recomendado para você
chat.petals.dev
Outro código-fonte
1.0.0
GPT Prompt Templates
Outro código-fonte
1.0.0
GPTyped
Outro código-fonte
GPTyped 1.0.5
node telegram bot api
Código-Fonte de IA
v0.50.0
typebot.io
Código-Fonte de IA
v3.1.2
python wechaty getting started
Código-Fonte de IA
1.0.0
waymo open dataset
Outro código-fonte
December 2023 Update
termwind
Outras categorias
v2.3.0
wp functions
Outras categorias
1.0.0
Informações Relacionadas
Todos
Método de implementação de Java para alterar a consulta de arquivo
2025-02-02
Upload de arquivo de aplicativo html5
2025-02-02
Use a classe DateFormat na programação multi -thread Java
2025-02-02
Guia se destacar no ASPX
2025-02-01
O método de instalar o Java's OpenJDK no sistema CentOS
2025-02-01
Use PhoneGap para reproduzir o método de implementação de áudio
2025-02-01