Дополнительные материалы к книге Себастьяна Рашки «Машинное обучение Q и AI».
Пожалуйста, используйте Обсуждения по любым вопросам о книге!
Если вы изучили основы машинного обучения и искусственного интеллекта и хотите найти интересный способ восполнить сохраняющиеся пробелы в знаниях, эта книга для вас. В этой быстрой серии коротких глав рассматриваются 30 важнейших вопросов в этой области, которые помогут вам быть в курсе новейших технологий, которые вы можете применить в своей работе.
В каждой главе «Машинное обучение Q и AI» задается центральный вопрос и отвечает на него с диаграммами, объясняющими новые концепции, и большим количеством ссылок для дальнейшего чтения.
Эта книга представляет собой полностью отредактированную и переработанную версию книги «Машинное обучение Q и искусственный интеллект», доступной на Leanpub.
«Вряд ли можно желать лучшего гида, чем Себастьян, который, без преувеличения, является лучшим преподавателем машинного обучения в настоящее время в этой области. На каждой странице Себастьян не только делится своими обширными знаниями, но также делится страстью и любопытством, которые характеризуют настоящий профессионализм».
-- Крис Албон, директор по машинному обучению, Фонд Викимедиа
Заголовок | URL-ссылка | Дополнительный кодекс |
---|---|---|
1 | Вложения, представления и скрытое пространство | |
2 | Самоконтролируемое обучение | |
3 | Обучение в несколько этапов | |
4 | Гипотеза о лотерейном билете | |
5 | Уменьшение переоснащения данными | |
6 | Уменьшение переоснащения за счет модификаций модели | |
7 | Парадигмы обучения с несколькими графическими процессорами | |
8 | Ключи к успеху трансформеров | |
9 | Генеративные модели искусственного интеллекта | |
10 | Источники случайности | данные-sampling.ipynb dropout.ipynb случайные веса.ipynb |
ЧАСТЬ II: КОМПЬЮТЕРНОЕ ЗРЕНИЕ | ||
11 | Вычисление количества параметров | conv-size.ipynb |
12 | Эквивалентность полносвязных и сверточных слоев | fc-cnn-equivalence.ipynb |
13 | Большие тренировочные наборы для преобразователей зрения | |
ЧАСТЬ III: ОБРАБОТКА ЕСТЕСТВЕННОГО ЯЗЫКА | ||
14 | Гипотеза распределения | |
15 | Увеличение данных для текста | backtranslation.ipynb шум-инъекция.ipynb порядок-перестановка предложений.ipynb синоним-замена.ipynb синтетические-data.ipynb слово-deletion.ipynb замена позиции слова.ipynb |
16 | «Я»-Внимание | |
17 | Трансформаторы типа кодировщика и декодера | |
18 | Использование и точная настройка предварительно обученных трансформаторов | |
19 | Оценка генеративных моделей большого языка | BERTScore.ipynb bleu.ipynb perplexity.ipynb румяна.ipynb |
ЧАСТЬ IV: ПРОИЗВОДСТВО И ВНЕДРЕНИЕ | ||
20 | Обучение без сохранения и сохранения состояния | |
21 | Ориентированный на данные ИИ | |
22 | Ускорение вывода | |
23 | Изменения в распределении данных | |
ЧАСТЬ V: ПРОГНОЗИРОВАНИЕ ЭФФЕКТИВНОСТИ И ОЦЕНКА МОДЕЛИ | ||
24 | Пуассон и порядковая регрессия | |
25 | Доверительные интервалы | четыре метода.ipynb четыре метода против истинного значения.ipynb |
26 | Доверительные интервалы и конформные прогнозы | conformal_prediction.ipynb |
27 | Правильные метрики | |
28 | K в перекрестной проверке K-фолда | |
29 | Несоответствие обучающего и тестового наборов | |
30 | Ограниченные маркированные данные |