中文(繁体)
中文(简体)
中文(繁体)
한국어
日本語
English
Português
Español
Русский
العربية
Indonesia
Deutsch
Français
ภาษาไทย
網站地圖大全
最新更新
首頁
源碼下載
編程相關
建站資源
網頁設計教程
網絡編程教程
首頁
>
編程相關
>
Ai源碼
papernote
Ai源碼
1.0.0
下載
推薦系統
2018.07
用於音樂推薦的深度內容-使用者嵌入模型 [arxiv] [note]
2017.08
廣告點擊預測的 Deep & Cross Network [arxiv] [note]
2017.03
DeepFM:基於分解機的神經網路用於 CTR 預測 [arxiv] [note]
2016.09
用於 YouTube 推薦的深度神經網路 [研究] [註]
2016.06
推薦系統的廣度與深度學習 [arxiv] [note]
2010.12
因式分解機 [ieee] [註]
1998.08
推薦系統的隱性回饋[aaai][註]
品質檢查和文字生成
QA:基於檢索(排行榜):
2018.12
同理心社交聊天機器人小冰的設計與實現 [arxiv] [note]
2018.06
利用深度話語聚合建模多輪對話 [arxiv] [note]
2017.11
對話系統綜述:最新進展與新領域 [arxiv] [note]
2017.05
IRGAN [arxiv] [註]
2017.02
自然語言句子雙邊多視角配對[arxiv][註]
2016.12
基於檢索的聊天機器人中多輪響應選擇的新架構 [arxiv] [note]
2016.11
用於匹配文本序列的比較聚合模型 [arxiv] [note]
2016.10
使用深度神經網路進行答案選擇的噪音對比估計 [semanticscholar] [note]
2016.02
Attention Pooling Networks [arxiv] [註]
2015.11
基於 LSTM 的非事實答案選擇深度學習模型 [arxiv] [note]
聊天機器人:基於生成:
2018.04
聊天更多:透過深度模型加深和拓寬聊天主題 [論文] [筆記]
2018.01
從 Eliza 到小冰:社交聊天機器人的挑戰與機會 [arxiv] [翻譯]
2017.11
使用動態詞彙產生神經響應 [arxiv] [note]
2017.11
MOJITALK:產生情緒反應 [arxiv] [note]
2017.07
AliMe Chat:基於序列到序列和重新排序的聊天機器人引擎 [aclweb] [note]
2017.04
利用內部和外部記憶體產生情緒對話 [arxiv] [note]
2017.03
使用 CVAE 學習神經對話模型的話語層面多樣性 [arxiv] [note]
2017.02
基於知識的神經對話模型 [arxiv] [note]
2017.01
使用神經對話模型產生長且多樣化的反應 [arxiv] [note]
2016.07
序列到後向和前向序列 [arxiv] [note]
2016.06
主題感知神經反應生成 [arxiv] [note]
2016.06
用於對話產生的深度強化學習 [arxiv] [note]
2015.03
短文本對話的神經響應機 [arxiv] [note]
文字生成
2018.06
用神經網路生成主題到論文 [論文] [筆記]
2016.10
基於規劃的神經網路的中文詩歌生成 [arxiv] [note]
2016.03
將複製機制納入序列到序列學習 [arxiv] [note]
分類
2019.05
如何微調 BERT 進行文字分類? [arxiv] [註]
2018.06
SGM:多重標籤分類的序列產生模型 [arxiv] [註]
2018.04
ETH-DS3Lab at SemEval-2018 Task 7: ...關係分類與擷取 [arxiv] [note]
2017.08
使用數百萬個表情符號來學習... [aclweb] [note]
2016.xx
基於注意力的 LSTM,用於面向層級的情緒分類 [aclweb] [note]
2016.07
高效率文字分類的技巧袋(fasttext) [arxiv] [note]
2016.06
用於文件分類的分層注意力網絡 [aclweb] [note]
2016.03
使用循環神經網路和卷積神經網路進行序列短文本分類 [arxiv] [note]
2015.07
用卷積神經網路進行關係排序[aclweb][註]
2014.08
卷積神經網路用於句子分類[aclweb][註]
2012.07
基線和二元組:簡單、良好的情緒和主題分類 [aclweb] [note]
嵌入
詞嵌入:
2018.12
論詞嵌入的向度[arxiv][註]
2018.09
揭示詞嵌入中不同的語言訊息... [arxiv] [note]
2018.02
深度語境化詞表示(ELMo) [arxiv] [note]
2017.12
預訓練分佈式字詞表示的進展 [arxiv] [note]
2017.07
學習多義詞嵌入的簡單方法 [arxiv] [note]
2017.07
使用子詞 RNN 模仿詞嵌入 [arxiv] [note]
2016.07
用子詞資訊豐富詞向量 [arxiv] [note]
2013.01
連續空間詞表示中的語言規律 [aclweb] [note]
句子嵌入:
2018.09
具有交叉視圖訓練的半監督序列建模 [arxiv] [note]
2018.05
基準需要更多的愛:關於簡單的基於字嵌入的模型和... [arxiv] [note]
2018.04
從對話中學習語意文本相似度 [arxiv] [note]
2018.03
學習句子表示的有效框架 [arxiv] [note]
2017.05
NLI 資料中通用句子表示的監督學習 [arxiv] [note]
2016.11
一個簡單但難以超越的句子嵌入基線 [openreview] [note]
2016.05
使用雙向 LSTM 模型和 Inner-Attention 學習自然語言推理 [arxiv] [note]
2016.02
從無標籤資料學習句子的分散式表示 [arxiv] [note]
2015.12
學習極短文本的語意相似度 [arxiv] [note]
2015.11
影像和語言的順序嵌入 [arxiv] [note]
2014.05
句子和文件的分散式表示 [arxiv] [note]
用戶嵌入:
2017.05
使用神經使用者嵌入量化社群媒體的心理健康 [arxiv] [note]
正則化和標準化
2018.08
Dropout是隨機delta規則的特殊情況:更快更準確的深度學習[arxiv][註]
2018.05
批量歸一化如何幫助最佳化? (不,這與內部協變數偏移無關)[arxiv] [note]
2017.02
批量重整化 [arxiv] [註]
2016.07
層歸一化 [arxiv] [註]
2016.05
半監督文本分類的對抗訓練方法 [arxiv] [註]
2016.03
循環批量歸一化 [arxiv] [note]
2016.02
權重歸一化 [arxiv] [註]
2015.10
批量歸一化循環神經網路 [arxiv] [note]
2015.07
透過虛擬對抗訓練進行分佈平滑 [arxiv] [note]
2015.02
Batch Normalization [arxiv] [註]
2014.12
解釋並利用對抗性例子 [arxiv] [註]
2013.06
使用 DropConnect 的神經網路正規化 [論文] [筆記]
2009.06
課程學習[collobert][註]
神經網路
2019.01
是時候漱口了嗎?比較 NLP 任務中的深度學習活化函數 [arxiv] [note]
2018.03
定向輟學 [openreview] [note]
2017.11
注意力語言模型[aclweb][註]
2017.04
情境雙向長短期記憶遞歸神經網路語言模型[aclweb][註]
2017.04
學習產生評論並發現情緒 [arxiv] [note]
2017.04
探討循環神經網路的稀疏性 [arxiv] [note]
2017.02
深度網路不透過記憶來學習 [openreview] [note]
2017.01
使用循環神經網路的對話上下文語言建模 [arxiv] [note]
2016.11
綁定詞向量和詞分類器:語言建模的損失框架 [arxiv] [note]
2016.11
理解深度學習需要重新思考泛化 [arxiv] [note]
2016.09
梯度下降最佳化演算法概述[arxiv][註]
2016.09
指針哨兵混合模型 [arxiv] [註]
2016.08
使用輸出嵌入改進語言模型 [arxiv] [note]
2016.03
不喪失記憶的經常性輟學 [arxiv] [note]
2015.11
加入梯度雜訊改善超深網路的學習 [arxiv] [note]
2015.11
半監督序列學習[arxiv][註]
2015.06
可視化和理解循環網絡 [arxiv] [note]
2015.xx
計算圖微積分:反向傳播 [github] [note]
2014.12
門控循環神經網路在序列建模上的實證評估[arxiv][註]
2014.09
循環神經網路正規化 [arxiv] [note]
2013.12
如何建構深度循環神經網路 [arxiv] [note]
2010.xx
理解訓練深度前饋神經網路的難度[imag][註]
2010.xx
堆疊式去噪自動編碼器 [論文] [註]
2008.07
自然語言處理的統一架構 [collobert] [note]
變壓器
2019.09
ALBERT:用於語言表示自我監督學習的 Lite BERT [arxiv] [note]
2019.07
RoBERTa:一種穩健最佳化的 BERT 預訓練方法 [arxiv] [note]
2019.04
ERNIE:透過知識整合增強表徵 [arxiv] [note]
2018.10
BERT:用於語言理解的深度雙向變壓器的預訓練 [arxiv] [note]
2018.06
透過產生預訓練提高語言理解 [amazonaws] [note]
2018.03
通用句子編碼器[arxiv][註]
2017.06
注意力就是你所需要的 [arxiv] [note]
序列到序列
2018.07
用於對話語言理解的序列到序列資料增強 [arxiv] [翻譯]
2018.07
神經語法糾錯的流利度提升學習與推理 [aclweb] [註]
2017.04
進入正題:以指標產生器網路進行總結 [arxiv] [note]
2017.04
學習瀏覽文本 [arxiv] [note]
2015.06
指針網路 [arxiv] [註]
2015.06
跳過思考向量 [arxiv] [note]
2014.12
文法作為外語 [arxiv] [註]
2014.12
關於使用非常大的目標詞彙表進行神經機器翻譯 [arxiv] [note]
2014.09
Jontly Learning to Align and Translate 的神經機器翻譯 [arxiv] [note]
2014.09
使用神經網路進行序列到序列學習 [arxiv] [note]
多任務
2019.01
用於自然語言理解的多任務深度神經網路 [arxiv] [note]
2018.08
利用多門混合專家對多任務學習中的任務關係進行建模 [acm] [註]
2016.12
克服神經網路中災難性的遺忘 [arxiv] [note]
名稱實體識別
2018.05
使用Lattice LSTM的中文NER [arxiv] [註]
2018.03
具有層次感知損失的神經細粒度實體類型分類 [arxiv] [note]
2017.04
序列標記的半監督多任務學習 [arxiv] [note]
2016.03
命名實體辨識的神經架構 [arxiv] [note]
2016.xx
用於細粒度實體類型分類的神經架構 [aclweb] [註]
自我監督學習
2020.02
視覺表徵對比學習的簡單框架 [arxiv] [note]
其他的
2017.06
一個簡單的關係推理神經網路模組 [arxiv] [note]
2016.11
單字或字符,閱讀理解的細粒度門控 [arxiv] [note]
2016.08
帶子詞單元的稀有詞神經機器翻譯(BPE) [aclweb] [註]
2005.08
透過興趣和活動自動分析實現個人化搜尋 [microsoft] [note]
展開
附加信息
版本
1.0.0
類型
Ai源碼
更新時間
2024-12-14
大小
3.27MB
來自於
Github
相關應用
node telegram bot api
2024-12-14
typebot.io
2024-12-14
python wechaty getting started
2024-12-14
TranscriberBot
2024-12-14
genal chat
2024-12-14
Facemoji
2024-12-14
爲您推薦
chat.petals.dev
其他源碼
1.0.0
GPT Prompt Templates
其他源碼
1.0.0
GPTyped
其他源碼
GPTyped 1.0.5
node telegram bot api
Ai源碼
v0.50.0
typebot.io
Ai源碼
v3.1.2
python wechaty getting started
Ai源碼
1.0.0
waymo open dataset
其他源碼
December 2023 Update
termwind
其他類別
v2.3.0
wp functions
其他類別
1.0.0
相關資訊
全部
java實現變更文件查詢的方法
2025-02-02
HTML5應用之文件上傳
2025-02-02
Java多線程編程中使用DateFormat類
2025-02-02
Aspx中導Excel
2025-02-01
在CentOS系統上安裝Java的openjdk的方法
2025-02-01
使用phonegap播放音頻的實現方法
2025-02-01