Русский
中文(简体)
中文(繁体)
한국어
日本語
English
Português
Español
Русский
العربية
Indonesia
Deutsch
Français
ภาษาไทย
Полная карта сайта
Последние обновления
Главная страница
Исходный код
Связанные с программированием
Ресурсы для создания сайтов
Учебник по веб-дизайну
Учебник по сетевому программированию
Главная страница
>
Связанные с программированием
>
AI Исходный код
papernote
AI Исходный код
1.0.0
Скачать
рекомендательная система
2018.07
Модель глубокого внедрения контента пользователем для музыкальных рекомендаций [arxiv] [примечание]
2017.08
Глубокая и перекрестная сеть для прогнозирования кликов по рекламе [arxiv] [примечание]
2017.03
DeepFM: нейронная сеть на основе факторизации для прогнозирования CTR [arxiv] [примечание]
2016.09
Глубокие нейронные сети для рекомендаций YouTube [исследование] [примечание]
2016.06
Широкое и глубокое обучение для рекомендательных систем [arxiv] [примечание]
2010.12
Машины факторизации [ieee] [примечание]
1998.08
Неявная обратная связь для рекомендательных систем [aaai] [примечание]
Контроль качества и генерация текста
QA: на основе поиска (таблица лидеров):
2018.12
Проектирование и реализация XiaoIce, чуткого социального чат-бота [arxiv] [примечание]
2018.06
Моделирование многоходового разговора с глубокой агрегацией высказываний [arxiv] [примечание]
2017.11
Исследование диалоговых систем: последние достижения и новые рубежи [arxiv] [примечание]
2017.05
ИРГАН [архив] [примечание]
2017.02
Двустороннее многоперспективное сопоставление предложений на естественном языке [arxiv] [примечание]
2016.12
Новая архитектура для многоходового выбора ответа в чат-ботах на основе поиска [arxiv] [примечание]
2016.11
Модель сравнения-агрегирования для сопоставления текстовых последовательностей [arxiv] [примечание]
2016.10
Оценка контрастности шума для выбора ответа с помощью глубоких нейронных сетей [ученый-семантик] [примечание]
2016.02
Сети внимательного пула [arxiv] [примечание]
2015.11
Модели глубокого обучения на основе LSTM для нефактоидного выбора ответа [arxiv] [примечание]
чат-бот: на основе поколения:
2018.04
Больше чата: углубление и расширение темы чата с помощью глубокой модели [документ] [примечание]
2018.01
От Элизы до XiaoIce: проблемы и возможности социальных чат-ботов [arxiv] [перевод]
2017.11
Генерация нейронных ответов с помощью динамических словарей [arxiv] [примечание]
2017.11
MOJITALK: Генерирование эмоциональных реакций [arxiv] [примечание]
2017.07
AliMe Chat: механизм чат-бота на основе последовательности и переранжирования [aclweb] [примечание]
2017.04
Генерация эмоционального разговора с помощью внутренней и внешней памяти [arxiv] [примечание]
2017.03
Изучение разнообразия на уровне дискурса для моделей нейронного диалога с использованием CVAE [arxiv] [примечание]
2017.02
Модель нейронного диалога, основанная на знаниях [arxiv] [примечание]
2017.01
Генерация длинных и разнообразных ответов с помощью моделей нейронного диалога [arxiv] [примечание]
2016.07
Последовательность для обратной и прямой последовательности [arxiv] [примечание]
2016.06
Генерация нейронных ответов с учетом темы [arxiv] [примечание]
2016.06
Глубокое обучение с подкреплением для генерации диалога [arxiv] [примечание]
2015.03
Нейронная машина для короткого текстового разговора [arxiv] [примечание]
генерация текста
2018.06
Создание тем для эссе с помощью нейронных сетей [документ] [примечание]
2016.10
Генерация китайской поэзии с помощью нейронной сети на основе планирования [arxiv] [примечание]
2016.03
Включение механизма копирования в последовательное обучение [arxiv] [примечание]
классификация
2019.05
Как точно настроить BERT для классификации текста? [архив] [примечание]
2018.06
SGM: Модель генерации последовательностей для классификации по нескольким меткам [arxiv] [примечание]
2018.04
ETH-DS3Lab на SemEval-2018, задача 7: ... Классификация и извлечение отношений [arxiv] [примечание]
2017.08
Использование миллионов экземпляров эмодзи для изучения представлений в любой области для ... [aclweb] [примечание]
2016.xx
LSTM на основе внимания для классификации тональности на уровне аспектов [aclweb] [примечание]
2016.07
Набор трюков для эффективной классификации текста (fasttext) [arxiv] [примечание]
2016.06
Иерархические сети внимания для классификации документов [aclweb] [примечание]
2016.03
Последовательная классификация коротких текстов с помощью рекуррентных и сверточных нейронных сетей [arxiv] [примечание]
2015.07
Классификация отношений путем ранжирования с помощью сверточных нейронных сетей [aclweb] [примечание]
2014.08
Сверточные нейронные сети для классификации предложений [aclweb] [примечание]
2012.07
Базовые показатели и биграммы: простая, хорошая оценка и классификация тем [aclweb] [примечание]
встраивание
встраивание слов:
2018.12
О размерности встраивания слов [arxiv] [примечание]
2018.09
Обнаружение расходящейся лингвистической информации в вложениях слов ... [arxiv] [примечание]
2018.02
Глубокие контекстуализированные представления слов (ELMo) [arxiv] [примечание]
2017.12
Достижения в предварительном обучении распределенных представлений слов [arxiv] [примечание]
2017.07
Простой подход к изучению встраивания многозначных слов [arxiv] [примечание]
2017.07
Имитирование встраивания слов с использованием RNN подслов [arxiv] [примечание]
2016.07
Обогащение векторов слов информацией о подсловах [arxiv] [примечание]
2013.01
Лингвистические закономерности в репрезентациях слов с непрерывным пространством [aclweb] [примечание]
вложение предложения:
2018.09
Полуконтролируемое моделирование последовательностей с перекрестным обучением [arxiv] [примечание]
Базовый уровень
2018.05
требует большей любви: простые модели на основе встраивания слов и... [arxiv] [примечание]
2018.04
Изучение семантического текстового сходства из разговоров [arxiv] [примечание]
2018.03
Эффективная основа для изучения представлений предложений [arxiv] [примечание]
2017.05
Обучение с учителем универсальных представлений предложений на основе данных NLI [arxiv] [примечание]
2016.11
Простой, но трудно превзойденный базовый уровень для встраивания предложений [открытый обзор] [примечание]
2016.05
Изучение вывода естественного языка с использованием двунаправленной модели LSTM и внутреннего внимания [arxiv] [примечание]
2016.02
Изучение распределенных представлений предложений на основе немаркированных данных [arxiv] [примечание]
2015.12
Изучение семантического сходства для очень коротких текстов [arxiv] [примечание]
2015.11
Порядковые вложения изображений и языка [arxiv] [примечание]
2014.05
Распределенные представления предложений и документов [arxiv] [примечание]
пользовательское встраивание:
2017.05
Количественная оценка психического здоровья в социальных сетях с помощью нейронных пользовательских встраиваний [arxiv] [примечание]
регуляризация и нормализация
2018.08
Dropout — это частный случай правила стохастической дельты: более быстрое и точное глубокое обучение [arxiv] [примечание]
2018.05
Как пакетная нормализация помогает оптимизации? (Нет, речь идет не о внутреннем сдвиге ковариат) [arxiv] [примечание]
2017.02
Пакетная перенормировка [arxiv] [примечание]
2016.07
Нормализация слоев [arxiv] [примечание]
2016.05
Методы состязательного обучения для полуконтролируемой классификации текста [arxiv] [примечание]
2016.03
Нормализация повторяющихся пакетов [arxiv] [примечание]
2016.02
Нормализация веса [arxiv] [примечание]
2015.10
Пакетно-нормализованные рекуррентные нейронные сети [arxiv] [примечание]
2015.07
Распределительное сглаживание с помощью виртуального состязательного обучения [arxiv] [примечание]
2015.02
Пакетная нормализация [arxiv] [примечание]
2014.12
Объяснение и использование состязательных примеров [arxiv] [примечание]
2013.06
Регуляризация нейронных сетей с помощью DropConnect [бумага] [примечание]
2009.06
Учебная программа [коллоберт] [примечание]
нейронная сеть
2019.01
Пришло время размахиваться? Сравнение функций активации глубокого обучения в задачах НЛП [arxiv] [примечание]
2018.03
Целевое отсев [открытый обзор] [примечание]
2017.11
Внимательные языковые модели [aclweb] [примечание]
2017.04
Языковые модели рекуррентных нейронных сетей контекстной двунаправленной долговременной краткосрочной памяти [aclweb] [примечание]
2017.04
Учимся создавать обзоры и определять настроения [arxiv] [примечание]
2017.04
Исследование разреженности в рекуррентных нейронных сетях [arxiv] [примечание]
2017.02
Глубокие сети не обучаются посредством запоминания [открытый обзор] [примечание]
2017.01
Языковое моделирование диалогового контекста с помощью рекуррентных нейронных сетей [arxiv] [примечание]
2016.11
Связывание векторов слов и классификаторов слов: структура потерь для языкового моделирования [arxiv] [примечание]
2016.11
Понимание глубокого обучения требует переосмысления обобщений [arxiv] [примечание]
2016.09
Обзор алгоритмов оптимизации градиентного спуска [arxiv] [примечание]
2016.09
Модели смеси Pointer Sentinel [arxiv] [примечание]
2016.08
Использование встраивания вывода для улучшения языковых моделей [arxiv] [примечание]
2016.03
Периодическое отключение без потери памяти [arxiv] [примечание]
2015.11
Добавление градиентного шума улучшает обучение очень глубоких сетей [arxiv] [примечание]
2015.11
Полуконтролируемое последовательное обучение [arxiv] [примечание]
2015.06
Визуализация и понимание рекуррентных сетей [arxiv] [примечание]
2015.xx
Исчисление на вычислительных графах: обратное распространение ошибки [github] [примечание]
2014.12
Эмпирическая оценка вентильных рекуррентных нейронных сетей при моделировании последовательностей [arxiv] [примечание]
2014.09
Рекуррентная регуляризация нейронной сети [arxiv] [примечание]
2013.12
Как построить глубокие рекуррентные нейронные сети [arxiv] [примечание]
2010.xx
Понимание сложности обучения нейронных сетей глубокого прямого распространения [изображение] [примечание]
2010.xx
Автоэнкодеры со штабелированным шумоподавлением [бумага] [примечание]
2008.07
Унифицированная архитектура обработки естественного языка [коллоберт] [примечание]
трансформатор
2019.09
ALBERT: Lite BERT для самостоятельного изучения языковых представлений [arxiv] [примечание]
2019.07
RoBERTa: надежно оптимизированный подход к предварительному обучению BERT [arxiv] [примечание]
2019.04
ERNIE: Расширенное представление посредством интеграции знаний [arxiv] [примечание]
2018.10
BERT: Предварительное обучение глубоких двунаправленных преобразователей для понимания языка [arxiv] [примечание]
2018.06
Улучшение понимания языка с помощью генеративной предварительной подготовки [amazonaws] [примечание]
2018.03
Универсальный кодировщик предложений [arxiv] [примечание]
2017.06
Внимание — это все, что вам нужно [arxiv] [примечание]
последовательность за последовательностью
2018.07
Пошаговое увеличение данных для понимания языка диалога [arxiv] [перевод]
2018.07
Повышение беглости обучения и вывод для нейронной коррекции грамматических ошибок [aclweb] [примечание]
2017.04
Переходим к делу: суммирование с помощью сетей-генераторов указателей [arxiv] [примечание]
2017.04
Учимся просматривать текст [arxiv] [примечание]
2015.06
Сети указателей [arxiv] [примечание]
2015.06
Векторы пропуска мыслей [arxiv] [примечание]
2014.12
Грамматика как иностранный язык [arxiv] [примечание]
2014.12
Об использовании очень большого целевого словаря для нейронного машинного перевода [arxiv] [примечание]
2014.09
Нейронный машинный перевод от Jontly Learning to Align and Translate [arxiv] [примечание]
2014.09
Последовательное обучение с помощью нейронных сетей [arxiv] [примечание]
многозадачность
2019.01
Многозадачные глубокие нейронные сети для понимания естественного языка [arxiv] [примечание]
2018.08
Моделирование взаимосвязей между задачами в многозадачном обучении с помощью многоуровневой смеси экспертов [acm] [примечание]
2016.12
Преодоление катастрофического забывания в нейронных сетях [arxiv] [примечание]
распознавание сущности имени
2018.05
Китайский NER с использованием решетки LSTM [arxiv] [примечание]
2018.03
Нейронная мелкозернистая классификация типов объектов с потерями с учетом иерархии [arxiv] [примечание]
2017.04
Многозадачное обучение с частичным контролем для маркировки последовательностей [arxiv] [примечание]
2016.03
Нейронные архитектуры для распознавания именованных объектов [arxiv] [примечание]
2016.xx
Нейронные архитектуры для детальной классификации типов объектов [aclweb] [примечание]
самостоятельное обучение
2020.02
Простая основа для контрастного изучения визуальных представлений [arxiv] [примечание]
другие
2017.06
Простой модуль нейронной сети для реляционных рассуждений [arxiv] [примечание]
2016.11
Слово или символы, детальная фильтрация для понимания прочитанного [arxiv] [примечание]
2016.08
Нейронный машинный перевод редких слов с единицами подслов (BPE) [aclweb] [примечание]
2005.08
Персонализация поиска посредством автоматического анализа интересов и действий [microsoft] [примечание]
Расширять
Дополнительная информация
Версия
1.0.0
Тип
AI Исходный код
Время обновления
2024-12-14
размер
3.27MB
От
Github
Связанные приложения
node telegram bot api
2024-12-14
typebot.io
2024-12-14
python wechaty getting started
2024-12-14
TranscriberBot
2024-12-14
genal chat
2024-12-14
Facemoji
2024-12-14
Рекомендуем вам
chat.petals.dev
Другой исходный код
1.0.0
GPT Prompt Templates
Другой исходный код
1.0.0
GPTyped
Другой исходный код
GPTyped 1.0.5
node telegram bot api
AI Исходный код
v0.50.0
typebot.io
AI Исходный код
v3.1.2
python wechaty getting started
AI Исходный код
1.0.0
waymo open dataset
Другой исходный код
December 2023 Update
termwind
Другие категории
v2.3.0
wp functions
Другие категории
1.0.0
Связанные новости
Все
Метод реализации Java для изменения файла запроса
2025-02-02
Загрузка файла приложения HTML5
2025-02-02
Используйте класс DateFormat в многопоточном программировании Java
2025-02-02
Руководство Excel в ASPX
2025-02-01
Метод установки Java's OpenJDK в системе CentOS
2025-02-01
Используйте PhoneGap для воспроизведения метода реализации аудио
2025-02-01