документы-я-читаю
Я пробую новую инициативу — газету в неделю. В этом хранилище будут храниться все эти документы, а также соответствующие резюме и заметки.
Список документов
- Toolformer - Языковые модели могут научить себя использовать инструменты
- Советы по проектированию компьютерных систем
- Синтезированные политики переноса и адаптации между задачами и средами
- Глубокие нейронные сети для рекомендаций YouTube
- Хвост в масштабе
- Практические уроки прогнозирования кликов по рекламе в Facebook
- Прогнозирование кликов по рекламе: взгляд со стороны
- Анатомия катастрофического забывания: скрытые представления и семантика задач
- Когда учебные программы работают?
- Постоянное обучение с помощью гиперсетей
- Обучение с нулевым выстрелом путем создания адаптеров для конкретных задач
- Гиперсети
- Энергоориентированные модели для непрерывного обучения
- GPipe — простое масштабирование с помощью микропараллелизма конвейеров
- Композиционные объяснения нейронов
- Шаблоны проектирования для распределенных систем на основе контейнеров
- Cassandra — децентрализованная структурированная система хранения данных
- CAP двенадцать лет спустя – Как изменились правила
- Компромиссы согласованности при проектировании современных систем распределенных баз данных
- Изучение простого сиамского представления
- Управление данными для системы единого входа в масштабе Интернета
- Поиск долга: опыт управления техническим долгом в Google
- Одно решение — это еще не все, что вам нужно: экстраполяция нескольких шагов с помощью структурированного MaxEnt RL
- Объяснения обучения, которые трудно изменить
- Запоминание по правильным причинам: объяснения уменьшают катастрофическое забывание
- Многоуровневый взгляд на трансферное обучение
- Урожай, урожайность и масштабируемые толерантные системы
- MONet — неконтролируемое разложение и представление сцены
- Возвращаясь к основам воспроизведения опыта
- Глубокое обучение с подкреплением и смертельная триада
- Alpha Net: адаптация с композицией в пространстве классификаторов
- Невероятно большие нейронные сети: разреженная смесь экспертов
- Градиентная хирургия для многозадачного обучения
- GradNorm: нормализация градиента для адаптивной балансировки потерь в глубоких многозадачных сетях
- TaskNorm: переосмысление пакетной нормализации для метаобучения
- Усреднение весов приводит к более широкому оптимуму и лучшему обобщению
- Децентрализованное обучение с подкреплением: глобальное принятие решений посредством местных экономических транзакций
- Когда использовать параметрические модели в обучении с подкреплением?
- Сетевая рандомизация — простой метод обобщения в глубоком обучении с подкреплением
- О сложности обучения нейронных сетей с горячим запуском
- Контролируемое контрастное обучение
- CURL — контрастные представления без учителя для обучения с подкреплением
- Конкурсное обучение смесей независимых глубоких генеративных моделей
- О чем нам говорит классификация более 10 000 категорий изображений?
- mixup - за пределами минимизации эмпирического риска
- ELECTRA — Предварительное обучение кодировщиков текста как дискриминаторов, а не генераторов
- Выборка на основе градиента для непрерывного онлайн-обучения
- Ваш классификатор тайно является моделью, основанной на энергии, и вы должны относиться к ней как к таковой.
- Массовый многоязычный нейронный машинный перевод в дикой природе: выводы и проблемы
- Наблюдательное переоснащение в обучении с подкреплением
- Быстрое обучение или повторное использование функций? На пути к пониманию эффективности MAML
- Точные, большие мини-пакеты SGD — обучение ImageNet за 1 час
- Суперпозиция многих моделей в одну.
- На пути к единой теории абстракции состояний для MDP
- ALBERT - Lite BERT для самостоятельного изучения языковых представлений
- Освоение Atari, Go, Chess и Shogi путем планирования с помощью изученной модели
- Контрастное изучение структурированных моделей мира
- Архитектуры «Актор-Обучающийся», основанные на сплетнях, для Deep RL
- Как тренировать свой MAML
- PHYRE — новый эталон физического мышления
- Большие уровни памяти с ключами продуктов
- Абдуктивное рассуждение здравого смысла
- Глубокое обучение с подкреплением в нескольких испытаниях с использованием моделей вероятностной динамики
- Оценка обобщения в глубоком обучении с подкреплением
- Количественная оценка обобщения в обучении с подкреплением
- Set Transformer: основа для нейронных сетей, основанных на внимании и инвариантных к перестановкам
- Измерение абстрактных рассуждений в нейронных сетях
- Гамильтоновы нейронные сети
- Экстраполяция за пределы неоптимальных демонстраций посредством обучения с обратным подкреплением на основе наблюдений
- Мета-подкрепление обучения стратегиям структурированных исследований
- Реляционное обучение с подкреплением
- Достаточно хорошее композиционное увеличение данных
- Множественное обучение с подкреплением на основе моделей
- На пути к естественному ориентиру для непрерывного обучения
- Правила обновления метаобучения для обучения представлению без учителя
- GNN Объяснитель — инструмент для апостериорного объяснения графовых нейронных сетей
- Настраивать или не настраивать? Адаптация предварительно обученных представлений к различным задачам
- Модель Примитивное Иерархическое Обучение с Подкреплением на протяжении всей жизни
- TuckER — Тензорная факторизация для завершения графа знаний
- Лингвистические знания как память для рекуррентных нейронных сетей
- Разнообразие – это все, что вам нужно: навыки обучения без функции вознаграждения
- Модульное метаобучение
- Иерархическое RL с использованием ансамбля проприоцептивных периодических политик
- Эффективное непрерывное обучение с A-GEM
- Предварительное обучение графовых нейронных сетей с ядрами
- Функции плавных потерь для глубокой классификации Top-k
- Повтор опыта ретроспективного анализа
- Компромиссы представления для гиперболических вложений
- Изученные оптимизаторы, которые масштабируют и обобщают
- Однократное обучение с помощью нейронных сетей с расширенной памятью
- BabyAI - Первые шаги к основательному изучению языка с участием человека
- Вложения Пуанкаре для изучения иерархических представлений
- Когда повторяющиеся модели не обязательно должны быть повторяющимися
- HoME – бытовая мультимодальная среда
- Появление обоснованного композиционного языка в мультиагентных популяциях
- Функция семантических потерь для глубокого обучения с использованием символических знаний
- Обучение представлению иерархических графов с помощью дифференцируемого пула
- Агенты с расширенным воображением для глубокого обучения с подкреплением
- Рекуррентные единицы Кронекера
- Изучение независимых причинных механизмов
- Адаптация параметров на основе памяти
- Рожденные заново нейронные сети
- Net2Net – ускорение обучения посредством передачи знаний
- Учимся считать объекты на естественных изображениях для визуального ответа на вопросы
- Нейронная передача сообщений для квантовой химии
- Обучение без учителя путем прогнозирования шума
- Гипотеза о лотерейном билете — обучение обрезанных нейронных сетей
- Циклическая скорость обучения для обучения нейронных сетей
- Улучшение извлечения информации за счет получения внешних данных с помощью обучения с подкреплением
- Эмпирическое исследование катастрофического забывания в градиентных нейронных сетях
- Изучение решателя SAT на основе однобитового наблюдения
- Нейронно-реляционный вывод для взаимодействующих систем
- Стилистический перенос в системах генерации естественного языка с использованием рекуррентных нейронных сетей
- Перейдем к делу: суммирование с помощью сетей-генераторов указателей
- StarSpace — встраивайте всё!
- Машина для эмоционального чата - генерация эмоционального разговора с внутренней и внешней памятью
- Изучение моделей и данных для ответов на вопросы по изображениям
- Насколько переносимы функции в глубоких нейронных сетях
- Дистилляция знаний в нейронной сети
- Возвращение к полуконтролируемому обучению с внедрением графов
- Сети двухэтапного синтеза для трансферного обучения в машинном понимании
- Организация более высокого порядка сложных сетей
- Сетевые мотивы — простые строительные блоки сложных сетей
- Представления слов посредством гауссовского вложения
- HARP — обучение иерархическому представлению для сетей
- Swish — функция автоматической активации
- Чтение Википедии для ответа на вопросы открытого типа
- Переформулировка задачно-ориентированного запроса с обучением с подкреплением
- Уточнение представлений источников с помощью реляционных сетей для нейронного машинного перевода
- Сети указателей
- Учимся вычислять вложения слов на лету
- R-NET — понимание машинного чтения с помощью самосогласующихся сетей
- ReasoNet — учимся перестать читать в машинном понимании
- Принципиальное обнаружение примеров вне распределения в нейронных сетях
- Спросите меня о чем угодно: сети динамической памяти для обработки естественного языка
- Одна модель, чтобы изучить их все
- Две/слишком простые адаптации Word2Vec для решения синтаксических проблем
- Разложимая модель внимания для вывода на естественном языке
- Быстрый и точный анализатор зависимостей с использованием нейронных сетей
- Сети нейронных модулей
- Делаем V в VQA важным: повышение роли понимания изображений при визуальном ответе на вопросы
- Сети условного подобия
- Простая основа для визуального ответа на вопросы
- VQA: визуальный ответ на вопрос
- Учимся создавать обзоры и выявлять настроения
- Увидеть Стрелу Времени
- Комплексная оптимизация целенаправленных и визуально обоснованных диалоговых систем
- Угадай, что?! Визуальное обнаружение объектов посредством мультимодального диалога
- Семантический анализ посредством перефразирования
- Обход графов знаний в векторном пространстве
- PPDB: база данных перефразирования
- NewsQA: набор данных машинного понимания
- Модель нейронного диалога, основанная на личности
- «Почему я должен доверять тебе?» Объяснение предсказаний любого классификатора
- Условные генеративно-состязательные сети
- Решение проблемы редких слов в нейронном машинном переводе
- Достижение открытого словарного запаса нейронного машинного перевода с помощью гибридных моделей слов и символов
- Рекурсивные глубокие модели семантической композиционности в древовидном банке настроений
- Улучшение представления слов с помощью глобального контекста и нескольких прототипов слов
- Изучение представлений фраз с использованием кодера-декодера RNN для статистического машинного перевода
- Векторы пропуска мыслей
- Глубокие сверточные генеративно-состязательные сети
- Генеративно-состязательные сети
- Дорожная карта по направлению к машинному интеллекту
- Умный ответ: предложение автоматического ответа по электронной почте
- Сверточная нейронная сеть для классификации предложений
- Генерация условного изображения с помощью декодеров PixelCNN
- Пиксельные рекуррентные нейронные сети
- Глубоко внутри сверточных сетей: визуализация моделей классификации изображений и карт значимости
- Набор хитростей для эффективной классификации текста
- GloVe: глобальные векторы для представления слов
- SimRank: мера структурно-контекстного сходства
- Как НЕ оценивать вашу диалоговую систему: эмпирическое исследование показателей неконтролируемой оценки для генерации диалоговых ответов
- Нейронная генерация регулярных выражений на основе естественного языка с минимальным знанием предметной области
- WikiReading: новая масштабная задача по пониманию языка в Википедии
- WikiQA: набор данных для ответов на открытые вопросы
- Обучение машин чтению и пониманию
- Оценка необходимых качеств для изучения сквозных диалоговых систем
- Рекуррентная регуляризация нейронной сети
- Глубокая математика: модели глубокой последовательности для выбора предпосылок
- Нейронная диалоговая модель
- Сети памяти «ключ-значение» для прямого чтения документов
- Достижения в оптимизации рекуррентных сетей
- Сети регрессии запросов для машинного понимания
- Последовательное обучение с помощью нейронных сетей
- Сложность обучения глубоким архитектурам и эффект неконтролируемого предварительного обучения
- Ответы на вопросы с помощью вложений подграфов
- На пути к полному ответу на вопросы с помощью искусственного интеллекта: набор обязательных игрушечных задач
- Визуализация крупномасштабных и многомерных данных
- Визуализация данных с использованием t-SNE
- Учебная программа обучения
- Сквозные сети памяти
- Сети памяти
- Учимся выполнять
- Распределенный GraphLab: платформа для машинного обучения и интеллектуального анализа данных в облаке
- Крупномасштабные распределенные глубокие сети
- Эффективная оценка представлений слов в векторном пространстве
- Регуляризация и выбор переменных с помощью эластичной сети
- Дробное максимальное объединение
- TAO: распределенное хранилище данных Facebook для социального графа
- Пакетная нормализация: ускорение глубокого обучения сети за счет уменьшения внутреннего ковариатного сдвига
- Унифицированная инфраструктура журналирования для анализа данных в Twitter
- Несколько полезных вещей, которые нужно знать о машинном обучении
- Hive — хранилище данных петабайтного масштаба с использованием Hadoop
- Kafka: распределенная система обмена сообщениями для обработки журналов
- Степенные распределения в эмпирических данных
- Pregel: система для крупномасштабной обработки графов
- GraphX: объединение параллельной аналитики данных и графиков
- Свиная латынь: не такой уж иностранный язык для обработки данных
- Устойчивые распределенные наборы данных: отказоустойчивая абстракция для кластерных вычислений в памяти
- MapReduce: упрощенная обработка данных в больших кластерах
- BigTable: распределенная система хранения структурированных данных
- Spark SQL: реляционная обработка данных в Spark
- Spark: кластерные вычисления с рабочими наборами
- Быстрые данные в эпоху больших данных: архитектура предложения связанных запросов Twitter в режиме реального времени
- Масштабирование Memcache в Facebook
- Dynamo: высокодоступный магазин Amazon по принципу «ключ-значение»
- f4: система хранения BLOB-объектов Facebook Warm
- Руководство для теоретиков по экспериментальному анализу алгоритмов
- Кукушка Хеширование
- Бесконечное обучение