中文(简体)
中文(简体)
中文(繁体)
한국어
日本語
English
Português
Español
Русский
العربية
Indonesia
Deutsch
Français
ภาษาไทย
网站地图大全
最新更新
首页
源码下载
编程相关
建站资源
网页设计教程
网络编程教程
首页
>
编程相关
>
Ai源码
papernote
Ai源码
1.0.0
下载
推荐系统
2018.07
用于音乐推荐的深度内容-用户嵌入模型 [arxiv] [note]
2017.08
用于广告点击预测的 Deep & Cross Network [arxiv] [note]
2017.03
DeepFM:基于分解机的神经网络用于 CTR 预测 [arxiv] [note]
2016.09
用于 YouTube 推荐的深度神经网络 [研究] [注]
2016.06
推荐系统的广度和深度学习 [arxiv] [note]
2010.12
因式分解机 [ieee] [注]
1998.08
推荐系统的隐式反馈[aaai][注]
质量检查和文本生成
QA:基于检索(排行榜):
2018.12
同理心社交聊天机器人小冰的设计与实现 [arxiv] [note]
2018.06
利用深度话语聚合建模多轮对话 [arxiv] [note]
2017.11
对话系统综述:最新进展和新领域 [arxiv] [note]
2017.05
IRGAN [arxiv] [注]
2017.02
自然语言句子双边多视角匹配[arxiv][注]
2016.12
基于检索的聊天机器人中多轮响应选择的新架构 [arxiv] [note]
2016.11
用于匹配文本序列的比较聚合模型 [arxiv] [note]
2016.10
使用深度神经网络进行答案选择的噪声对比估计 [semanticscholar] [note]
2016.02
Attention Pooling Networks [arxiv] [note]
2015.11
基于 LSTM 的深度学习模型用于非事实答案选择 [arxiv] [note]
聊天机器人:基于生成:
2018.04
聊天更多:通过深度模型加深和拓宽聊天话题 [论文] [笔记]
2018.01
从 Eliza 到小冰:社交聊天机器人的挑战与机遇 [arxiv] [翻译]
2017.11
使用动态词汇生成神经响应 [arxiv] [note]
2017.11
MOJITALK:产生情绪反应 [arxiv] [note]
2017.07
AliMe Chat:基于序列到序列和重新排序的聊天机器人引擎 [aclweb] [note]
2017.04
利用内部和外部存储器生成情感对话 [arxiv] [note]
2017.03
使用 CVAE 学习神经对话模型的话语层面多样性 [arxiv] [note]
2017.02
基于知识的神经对话模型 [arxiv] [note]
2017.01
使用神经对话模型生成长且多样化的响应 [arxiv] [note]
2016.07
序列到后向和前向序列 [arxiv] [note]
2016.06
主题感知神经响应生成 [arxiv] [note]
2016.06
用于对话生成的深度强化学习 [arxiv] [note]
2015.03
短文本对话的神经响应机 [arxiv] [note]
文本生成
2018.06
用神经网络生成主题到论文 [论文] [笔记]
2016.10
基于规划的神经网络的中文诗歌生成 [arxiv] [note]
2016.03
将复制机制纳入序列到序列学习 [arxiv] [note]
分类
2019.05
如何微调 BERT 进行文本分类? [arxiv] [注]
2018.06
SGM:多标签分类的序列生成模型 [arxiv] [注]
2018.04
ETH-DS3Lab at SemEval-2018 Task 7: ...关系分类和提取 [arxiv] [note]
2017.08
使用数百万个表情符号来学习... [aclweb] [note]
2016.xx
基于注意力的 LSTM,用于方面级别的情感分类 [aclweb] [note]
2016.07
高效文本分类的技巧袋(fasttext) [arxiv] [note]
2016.06
用于文档分类的分层注意力网络 [aclweb] [note]
2016.03
使用循环神经网络和卷积神经网络进行序列短文本分类 [arxiv] [note]
2015.07
用卷积神经网络进行关系排序[aclweb][注]
2014.08
卷积神经网络用于句子分类[aclweb][注]
2012.07
基线和二元组:简单、良好的情绪和主题分类 [aclweb] [note]
嵌入
词嵌入:
2018.12
论词嵌入的维度[arxiv][注]
2018.09
揭示词嵌入中不同的语言信息... [arxiv] [note]
2018.02
深度语境化词表示(ELMo) [arxiv] [note]
2017.12
预训练分布式词表示的进展 [arxiv] [note]
2017.07
学习多义词嵌入的简单方法 [arxiv] [note]
2017.07
使用子词 RNN 模仿词嵌入 [arxiv] [note]
2016.07
用子词信息丰富词向量 [arxiv] [note]
2013.01
连续空间词表示中的语言规律 [aclweb] [note]
句子嵌入:
2018.09
具有交叉视图训练的半监督序列建模 [arxiv] [note]
2018.05
基线需要更多的爱:关于简单的基于词嵌入的模型和...... [arxiv] [note]
2018.04
从对话中学习语义文本相似度 [arxiv] [note]
2018.03
学习句子表示的有效框架 [arxiv] [note]
2017.05
NLI 数据中通用句子表示的监督学习 [arxiv] [note]
2016.11
一个简单但难以超越的句子嵌入基线 [openreview] [note]
2016.05
使用双向 LSTM 模型和 Inner-Attention 学习自然语言推理 [arxiv] [note]
2016.02
从无标签数据中学习句子的分布式表示 [arxiv] [note]
2015.12
学习极短文本的语义相似度 [arxiv] [note]
2015.11
图像和语言的顺序嵌入 [arxiv] [note]
2014.05
句子和文档的分布式表示 [arxiv] [note]
用户嵌入:
2017.05
使用神经用户嵌入量化社交媒体的心理健康 [arxiv] [note]
正则化和标准化
2018.08
Dropout是随机delta规则的特例:更快更准确的深度学习[arxiv][注]
2018.05
批量归一化如何帮助优化? (不,这与内部协变量偏移无关)[arxiv] [note]
2017.02
批量重整化 [arxiv] [注]
2016.07
层归一化 [arxiv] [注]
2016.05
半监督文本分类的对抗训练方法 [arxiv] [note]
2016.03
循环批量归一化 [arxiv] [note]
2016.02
权重归一化 [arxiv] [注]
2015.10
批量归一化循环神经网络 [arxiv] [note]
2015.07
通过虚拟对抗训练进行分布平滑 [arxiv] [note]
2015.02
Batch Normalization [arxiv] [注]
2014.12
解释和利用对抗性例子 [arxiv] [note]
2013.06
使用 DropConnect 的神经网络正则化 [论文] [笔记]
2009.06
课程学习[collobert][注]
神经网络
2019.01
是时候漱口了吗?比较 NLP 任务中的深度学习激活函数 [arxiv] [note]
2018.03
定向辍学 [openreview] [note]
2017.11
注意力语言模型[aclweb][注]
2017.04
上下文双向长短期记忆递归神经网络语言模型[aclweb][注]
2017.04
学习生成评论并发现情绪 [arxiv] [note]
2017.04
探索循环神经网络的稀疏性 [arxiv] [note]
2017.02
深度网络不通过记忆来学习 [openreview] [note]
2017.01
使用循环神经网络的对话上下文语言建模 [arxiv] [note]
2016.11
绑定词向量和词分类器:语言建模的损失框架 [arxiv] [note]
2016.11
理解深度学习需要重新思考泛化 [arxiv] [note]
2016.09
梯度下降优化算法概述[arxiv][注]
2016.09
指针哨兵混合模型 [arxiv] [注]
2016.08
使用输出嵌入改进语言模型 [arxiv] [note]
2016.03
不丧失记忆的经常性辍学 [arxiv] [note]
2015.11
添加梯度噪声改善超深网络的学习 [arxiv] [note]
2015.11
半监督序列学习[arxiv][注]
2015.06
可视化和理解循环网络 [arxiv] [note]
2015.xx
计算图微积分:反向传播 [github] [note]
2014.12
门控循环神经网络在序列建模上的实证评估[arxiv][注]
2014.09
循环神经网络正则化 [arxiv] [note]
2013.12
如何构建深度循环神经网络 [arxiv] [note]
2010.xx
理解训练深度前馈神经网络的难度[imag][注]
2010.xx
堆叠式去噪自动编码器 [论文] [注]
2008.07
自然语言处理的统一架构 [collobert] [note]
变压器
2019.09
ALBERT:用于语言表示自监督学习的 Lite BERT [arxiv] [note]
2019.07
RoBERTa:一种稳健优化的 BERT 预训练方法 [arxiv] [note]
2019.04
ERNIE:通过知识整合增强表征 [arxiv] [note]
2018.10
BERT:用于语言理解的深度双向变压器的预训练 [arxiv] [note]
2018.06
通过生成预训练提高语言理解 [amazonaws] [note]
2018.03
通用句子编码器[arxiv][注]
2017.06
注意力就是你所需要的 [arxiv] [note]
序列到序列
2018.07
用于对话语言理解的序列到序列数据增强 [arxiv] [翻译]
2018.07
神经语法纠错的流利度提升学习和推理 [aclweb] [注]
2017.04
进入正题:用指针生成器网络进行总结 [arxiv] [note]
2017.04
学习浏览文本 [arxiv] [note]
2015.06
指针网络 [arxiv] [注]
2015.06
跳过思维向量 [arxiv] [note]
2014.12
语法作为外语 [arxiv] [注]
2014.12
关于使用非常大的目标词汇表进行神经机器翻译 [arxiv] [note]
2014.09
Jontly Learning to Align and Translate 的神经机器翻译 [arxiv] [note]
2014.09
使用神经网络进行序列到序列学习 [arxiv] [note]
多任务
2019.01
用于自然语言理解的多任务深度神经网络 [arxiv] [note]
2018.08
利用多门混合专家对多任务学习中的任务关系进行建模 [acm] [注]
2016.12
克服神经网络中的灾难性遗忘 [arxiv] [note]
名称实体识别
2018.05
使用Lattice LSTM的中文NER [arxiv] [注]
2018.03
具有层次感知损失的神经细粒度实体类型分类 [arxiv] [note]
2017.04
序列标记的半监督多任务学习 [arxiv] [note]
2016.03
命名实体识别的神经架构 [arxiv] [note]
2016.xx
用于细粒度实体类型分类的神经架构 [aclweb] [注]
自我监督学习
2020.02
视觉表征对比学习的简单框架 [arxiv] [note]
其他的
2017.06
一个简单的关系推理神经网络模块 [arxiv] [note]
2016.11
单词或字符,阅读理解的细粒度门控 [arxiv] [note]
2016.08
带子词单元的稀有词神经机器翻译(BPE) [aclweb] [注]
2005.08
通过兴趣和活动自动分析实现个性化搜索 [microsoft] [note]
展开
附加信息
版本
1.0.0
类型
Ai源码
更新时间
2024-12-14
大小
3.27MB
来自于
Github
相关应用
node telegram bot api
2024-12-14
typebot.io
2024-12-14
python wechaty getting started
2024-12-14
TranscriberBot
2024-12-14
genal chat
2024-12-14
Facemoji
2024-12-14
为您推荐
chat.petals.dev
其他源码
1.0.0
GPT Prompt Templates
其他源码
1.0.0
GPTyped
其他源码
GPTyped 1.0.5
node telegram bot api
Ai源码
v0.50.0
typebot.io
Ai源码
v3.1.2
python wechaty getting started
Ai源码
1.0.0
waymo open dataset
其他源码
December 2023 Update
termwind
其他类别
v2.3.0
wp functions
其他类别
1.0.0
相关资讯
全部
java实现变更文件查询的方法
2025-02-02
HTML5应用之文件上传
2025-02-02
Java多线程编程中使用DateFormat类
2025-02-02
Aspx中导Excel
2025-02-01
在CentOS系统上安装Java的openjdk的方法
2025-02-01
使用phonegap播放音频的实现方法
2025-02-01