한국어
中文(简体)
中文(繁体)
한국어
日本語
English
Português
Español
Русский
العربية
Indonesia
Deutsch
Français
ภาษาไทย
전체 사이트 맵
최신 업데이트
홈페이지
소스 다운로드
프로그래밍 관련
웹사이트 자원
웹 디자인 튜토리얼
네트워크 프로그래밍 튜토리얼
홈페이지
>
프로그래밍 관련
>
AI 소스 코드
papernote
AI 소스 코드
1.0.0
다운로드
추천 시스템
2018.07
음악 추천을 위한 Deep Content-User Embedding 모델 [arxiv] [참고]
2017.08
광고 클릭 예측을 위한 Deep & Cross Network [arxiv] [참고]
2017.03
DeepFM: CTR 예측을 위한 Factorization-Machine 기반 신경망 [arxiv] [note]
2016.09
YouTube 추천을 위한 심층신경망 [연구] [참고]
2016.06
추천 시스템을 위한 Wide & Deep Learning [arxiv] [참고]
2010.12
Factorization Machines [ieee] [참고]
1998.08
추천 시스템에 대한 암시적 피드백 [aaai] [참고]
QA 및 텍스트 생성
QA: 검색 기반(리더보드):
2018.12
공감형 소셜 챗봇 XiaoIce의 설계 및 구현 [arxiv] [참고]
2018.06
Deep Utterance Aggregation을 이용한 다단계 대화 모델링 [arxiv] [note]
2017.11
대화 시스템에 관한 조사: 최근 발전과 새로운 개척 [arxiv] [참고]
2017.05
IRGAN [arxiv] [참고]
2017.02
자연어 문장에 대한 양측 다관점 매칭 [arxiv] [참고]
2016.12
검색 기반 챗봇의 다중 턴 응답 선택을 위한 새로운 아키텍처 [arxiv] [참고]
2016.11
텍스트 시퀀스 일치를 위한 비교 집계 모델 [arxiv] [참고]
2016.10
심층신경망을 이용한 답변 선택을 위한 잡음 대비 추정 [semanticscholar] [참고]
2016.02
Attentive Pooling Networks [arxiv] [참고]
2015.11
논팩토이드 답 선택을 위한 LSTM 기반 딥러닝 모델 [arxiv] [참고]
챗봇: 세대 기반:
2018.04
Chat More: 심층 모델을 통한 채팅 주제 심화 및 확대 [논문] [참고]
2018.01
Eliza에서 XiaoIce까지: 소셜 챗봇의 과제와 기회 [arxiv] [번역]
2017.11
동적 어휘를 이용한 신경 반응 생성 [arxiv] [참고]
2017.11
MOJITALK: 감정적 반응 생성 [arxiv] [note]
2017.07
AliMe Chat: A Sequence to Sequence and Rerank 기반 챗봇 엔진 [aclweb] [참고]
2017.04
내부기억과 외부기억을 통한 감성대화 생성 [arxiv] [note]
2017.03
CVAE를 이용한 신경 대화 모델의 담화 수준 다양성 학습 [arxiv] [참고]
2017.02
지식 기반 신경 대화 모델 [arxiv] [참고]
2017.01
신경 대화 모델을 사용하여 길고 다양한 응답 생성 [arxiv] [참고]
2016.07
순방향 및 역방향 순서 [arxiv] [참고]
2016.06
주제 인식 신경 반응 생성 [arxiv] [참고]
2016.06
대화 생성을 위한 심층 강화 학습 [arxiv] [참고]
2015.03
단문 대화를 위한 신경 반응 기계 [arxiv] [참고]
텍스트 생성
2018.06
신경망을 이용한 Topic-to-Essay 생성 [논문] [참고]
2016.10
기획 기반 신경망을 이용한 중국 시 세대 [arxiv] [참고]
2016.03
Sequence-to-Sequence 학습에 복사 메커니즘 통합 [arxiv] [note]
분류
2019.05
텍스트 분류를 위해 BERT를 미세 조정하는 방법은 무엇입니까? [arxiv] [참고]
2018.06
SGM: 다중 라벨 분류를 위한 시퀀스 생성 모델 [arxiv] [참고]
2018.04
SemEval-2018의 ETH-DS3Lab 작업 7: ... 관계 분류 및 추출 [arxiv] [참고]
2017.08
수백만 개의 이모티콘을 사용하여 모든 도메인 표현 학습 ... [aclweb] [참고]
2016.xx
측면 수준 감정 분류를 위한 주의 기반 LSTM [aclweb] [참고]
2016.07
효율적인 텍스트 분류를 위한 Bag of Tricks(fasttext) [arxiv] [note]
2016.06
문서 분류를 위한 계층적 주의 네트워크 [aclweb] [참고]
2016.03
순환 신경망과 합성곱 신경망을 이용한 순차적 단문 텍스트 분류 [arxiv] [참고]
2015.07
컨볼루셔널 신경망을 이용한 순위별 관계 분류 [aclweb] [참고]
2014.08
문장 분류를 위한 합성곱 신경망 [aclweb] [참고]
2012.07
베이스라인과 바이그램: 단순하고 좋은 감성과 주제 분류 [aclweb] [참고]
삽입
단어 삽입:
2018.12
단어 임베딩의 차원성에 대하여 [arxiv] [note]
2018.09
단어 임베딩에서 다양한 언어 정보 발견 ... [arxiv] [참고]
2018.02
심층 상황별 단어 표현(ELMo) [arxiv] [참고]
2017.12
사전 훈련 분산 단어 표현의 발전 [arxiv] [참고]
2017.07
다의어 단어 임베딩을 학습하는 간단한 접근 방식 [arxiv] [note]
2017.07
하위 단어 RNN을 사용하여 단어 임베딩 모방 [arxiv] [참고]
2016.07
하위 단어 정보로 단어 벡터 강화 [arxiv] [note]
2013.01
연속공간 단어표현의 언어적 규칙성 [aclweb] [참고]
문장 임베딩:
2018.09
Cross-View 훈련을 이용한 준지도 시퀀스 모델링 [arxiv] [note]
2018.05
Baseline Needs More Love: On Simple Word-Embedding-Based Models and ... [arxiv] [노트]
2018.04
대화로부터 의미론적 텍스트 유사성 학습 [arxiv] [note]
2018.03
효율적인 문장 표현 학습 프레임워크 [arxiv] [note]
2017.05
NLI 데이터로부터 보편적 문장 표현의 지도 학습 [arxiv] [참고]
2016.11
간단하지만 문장 임베딩을 위한 기준선을 깨기 힘든 [openreview] [참고]
2016.05
양방향 LSTM 모델과 Inner-Attention을 이용한 자연어 추론 학습 [arxiv] [note]
2016.02
레이블이 없는 데이터로부터 문장의 분산 표현 학습 [arxiv] [note]
2015.12
매우 짧은 텍스트에 대한 의미 유사성 학습 [arxiv] [note]
2015.11
이미지와 언어의 순서-임베딩 [arxiv] [참고]
2014.05
문장과 문서의 분산 표현 [arxiv] [참고]
사용자 삽입:
2017.05
신경 사용자 임베딩을 이용한 소셜 미디어의 정신 건강 정량화 [arxiv] [참고]
정규화 및 정규화
2018.08
드롭아웃은 확률적 델타 규칙의 특별한 경우입니다: 더 빠르고 정확한 딥러닝 [arxiv] [참고]
2018.05
배치 정규화가 최적화에 어떻게 도움이 되나요? (아니요, 내부 공변량 이동에 관한 것이 아닙니다.) [arxiv] [참고]
2017.02
일괄 재정규화 [arxiv] [참고]
2016.07
레이어 정규화 [arxiv] [참고]
2016.05
반지도 텍스트 분류를 위한 적대적 훈련 방법 [arxiv] [참고]
2016.03
반복 배치 정규화 [arxiv] [참고]
2016.02
가중치 정규화 [arxiv] [참고]
2015.10
배치 정규화된 순환 신경망 [arxiv] [참고]
2015.07
가상 적대 훈련을 통한 분포 평활화 [arxiv] [참고]
2015.02
배치 정규화 [arxiv] [참고]
2014.12
적대적 예를 설명하고 활용하기 [arxiv] [note]
2013.06
DropConnect를 이용한 신경망의 정규화 [논문] [참고]
2009.06
교육과정 학습 [collobert] [note]
신경망
2019.01
이제 Swish할 시간인가요? NLP 작업 전반에 걸친 딥 러닝 활성화 기능 비교 [arxiv] [참고]
2018.03
Targeted Dropout [오픈리뷰] [참고]
2017.11
Attentive Language Models [aclweb] [참고]
2017.04
상황별 양방향 장단기 기억 순환 신경망 언어 모델 [aclweb] [참고]
2017.04
리뷰 생성 학습 및 감성 발견 [arxiv] [참고]
2017.04
순환 신경망의 희소성 탐색 [arxiv] [참고]
2017.02
딥넷은 암기로 학습하지 않는다 [오픈리뷰] [참고]
2017.01
순환신경망을 이용한 대화문맥 언어 모델링 [arxiv] [note]
2016.11
단어 벡터 및 단어 분류자 결합: 언어 모델링을 위한 손실 프레임워크 [arxiv] [참고]
2016.11
딥러닝을 이해하려면 일반화에 대한 재고가 필요함 [arxiv] [note]
2016.09
경사하강법 최적화 알고리즘 개요 [arxiv] [참고]
2016.09
포인터 센티넬 혼합 모델 [arxiv] [참고]
2016.08
출력 임베딩을 사용하여 언어 모델 개선 [arxiv] [참고]
2016.03
기억상실 없이 반복적인 중퇴 [arxiv] [note]
2015.11
그래디언트 노이즈를 추가하면 매우 깊은 네트워크에 대한 학습이 향상됩니다. [arxiv] [참고]
2015.11
준지도 시퀀스 학습 [arxiv] [참고]
2015.06
순환 네트워크 시각화 및 이해 [arxiv] [참고]
2015.xx
계산 그래프의 미적분학: 역전파 [github] [참고]
2014.12
시퀀스 모델링에 대한 Gated Recurrent Neural Networks의 실증적 평가 [arxiv] [note]
2014.09
순환 신경망 정규화 [arxiv] [참고]
2013.12
Deep Recurrent Neural Networks 구축 방법 [arxiv] [note]
2010.xx
심층 피드포워드 신경망 훈련의 어려움 이해 [imag] [참고]
2010.xx
스택형 노이즈 제거 자동 인코더 [논문] [참고]
2008.07
자연어 처리를 위한 통합 아키텍처 [collobert] [note]
변신 로봇
2019.09
ALBERT: 언어 표현의 자기 지도 학습을 위한 Lite BERT [arxiv] [참고]
2019.07
RoBERTa: 강력하게 최적화된 BERT 사전 학습 접근 방식 [arxiv] [참고]
2019.04
ERNIE: 지식 통합을 통한 표현 강화 [arxiv] [참고]
2018.10
BERT: 언어 이해를 위한 심층 양방향 변환기 사전 훈련 [arxiv] [참고]
2018.06
Generative Pre-Training을 통한 언어 이해 향상 [amazonaws] [note]
2018.03
Universal Sentence Encoder [arxiv] [참고]
2017.06
관심이 필요한 전부이다 [arxiv] [note]
순서대로
2018.07
대화 언어 이해를 위한 Sequence-to-Sequence 데이터 증강 [arxiv] [번역]
2018.07
신경 문법 오류 교정을 위한 Fluency Boost 학습 및 추론 [aclweb] [참고]
2017.04
요점 파악: 포인터 생성기 네트워크 요약 [arxiv] [참고]
2017.04
텍스트 훑어보기 학습 [arxiv] [참고]
2015.06
포인터 네트워크 [arxiv] [참고]
2015.06
Skip-Thought 벡터 [arxiv] [참고]
2014.12
외국어로서의 문법 [arxiv] [참고]
2014.12
신경 기계 번역을 위한 매우 큰 대상 어휘 사용에 관하여 [arxiv] [note]
2014.09
Jontly Learning to Align and Translate의 신경 기계 번역 [arxiv] [note]
2014.09
신경망을 이용한 Sequence to Sequence Learning [arxiv] [참고]
다중 작업
2019.01
자연어 이해를 위한 다중 작업 심층 신경망 [arxiv] [참고]
2018.08
다중 게이트 전문가 혼합을 통한 다중 작업 학습의 작업 관계 모델링 [acm] [참고]
2016.12
신경망의 치명적인 망각 극복 [arxiv] [note]
이름 엔터티 인식
2018.05
Lattice LSTM을 이용한 중국 NER [arxiv] [참고]
2018.03
계층 인식 손실을 통한 신경 세분화 엔터티 유형 분류 [arxiv] [참고]
2017.04
시퀀스 라벨링을 위한 준지도 다중 작업 학습 [arxiv] [참고]
2016.03
명명된 엔터티 인식을 위한 신경 아키텍처 [arxiv] [참고]
2016.xx
세분화된 엔터티 유형 분류를 위한 신경 아키텍처 [aclweb] [참고]
자기 지도 학습
2020.02
시각적 표현의 대조 학습을 위한 간단한 프레임워크 [arxiv] [참고]
다른 사람
2017.06
관계 추론을 위한 간단한 신경망 모듈 [arxiv] [참고]
2016.11
단어나 문자, 독해를 위한 세밀한 게이팅 [arxiv] [note]
2016.08
하위 단어 단위를 사용한 희귀 단어의 신경 기계 번역(BPE) [aclweb] [참고]
2005.08
관심분야 및 활동자동분석을 통한 검색 개인화 [microsoft] [note]
확장하다
추가 정보
버전
1.0.0
유형
AI 소스 코드
업데이트 시간
2024-12-14
크기
3.27MB
출처
Github
관련 애플리케이션
node telegram bot api
2024-12-14
typebot.io
2024-12-14
python wechaty getting started
2024-12-14
TranscriberBot
2024-12-14
genal chat
2024-12-14
Facemoji
2024-12-14
추천
chat.petals.dev
기타 소스코드
1.0.0
GPT Prompt Templates
기타 소스코드
1.0.0
GPTyped
기타 소스코드
GPTyped 1.0.5
node telegram bot api
AI 소스 코드
v0.50.0
typebot.io
AI 소스 코드
v3.1.2
python wechaty getting started
AI 소스 코드
1.0.0
waymo open dataset
기타 소스코드
December 2023 Update
termwind
기타 카테고리
v2.3.0
wp functions
기타 카테고리
1.0.0
관련 정보
전체
파일 쿼리를 변경하는 Java 구현 방법
2025-02-02
HTML5 응용 프로그램 파일 업로드
2025-02-02
Java Multi -Streaded 프로그래밍에서 DateFormat 클래스를 사용하십시오
2025-02-02
ASPX의 가이드 Excel
2025-02-01
CentOS 시스템에 Java의 OpenJDK 설치 방법
2025-02-01
PhoneGap을 사용하여 오디오 구현 방법을 재생하십시오
2025-02-01