Списки всех учебных материалов и практических инструментов, связанных с ИИ, для начала работы с приложениями ИИ.
Лаборатории для самостоятельного обучения
Лабораторные занятия AWS для самостоятельного обучения предоставляют практическую практику в реальной среде AWS с сервисами AWS и реальными облачными сценариями. Следуйте пошаговым инструкциям, чтобы изучить услугу, попрактиковаться в ее использовании или подготовиться к сертификации AWS.
Вводная лаборатория
Лекс
Полли
Признание
Машинное обучение
Машинное обучение
Сессия 1. Расширение возможностей разработчиков для создания интеллектуальных приложений
Сессия 2. Прогнозирование оттока клиентов с помощью машинного обучения Amazon
AWS Machine Learning — комплексный управляемый сервис для создания и тестирования моделей машинного обучения, а затем внедрения этих моделей в производство.
Документация
AWS Deep Learning AMI — Amazon Machine Image (AMI), оптимизированный для глубокого обучения
Рекомендуемые дополнительные ресурсы
Поднимите свои навыки на новый уровень с помощью лабораторий фундаментального, продвинутого и экспертного уровня.
Ниже приведен учебный материал, который поможет вам изучить Google Cloud.
Сеть
Codelab предоставляет общие возможности облачных разработчиков следующим образом:
Разработка решений для Google Cloud Platform – 8 часов
Инфраструктура
Данные
ИИ, большие данные и машинное обучение
Дополнительные материалы по ИИ
(Необязательно) Глубокое обучение и тензорный поток
Дополнительный справочный материал
(Вклады приветствуются в этом пространстве)
Визуальная Студия
Наборы данных UCI
Навыки
Пути обучения
Если у вас есть вышеуказанные обязательные навыки, выберите путь повышения квалификации или путь обучения для новичков.
Предварительные руководства
Настройка среды
Когнитивные службы (определение интеллекта)
Bot Framework (создание чат-ботов)
Настройка среды
Когнитивные службы (определение интеллекта)
Bot Framework (создание чат-ботов)
Когнитивные службы (Определение интеллекта) – Лаборатории
Bot Framework (создание чат-ботов) – Лаборатории
Источник Беркли
Название лекции | Преподаватель | Семестр | |
Лекция 1 | Введение | Дэн Кляйн | Осень 2012 г. |
Лекция 2 | Неинформированный поиск | Дэн Кляйн | Осень 2012 г. |
Лекция 3 | Информированный поиск | Дэн Кляйн | Осень 2012 г. |
Лекция 4 | Проблемы удовлетворения ограничений I | Дэн Кляйн | Осень 2012 г. |
Лекция 5 | Проблемы удовлетворения ограничений II | Дэн Кляйн | Осень 2012 г. |
Лекция 6 | Состязательный поиск | Дэн Кляйн | Осень 2012 г. |
Лекция 7 | Expectimax и утилиты | Дэн Кляйн | Осень 2012 г. |
Лекция 8 | Марковские процессы принятия решений I | Дэн Кляйн | Осень 2012 г. |
Лекция 9 | Марковские процессы принятия решений II | Дэн Кляйн | Осень 2012 г. |
Лекция 10 | Обучение с подкреплением I | Дэн Кляйн | Осень 2012 г. |
Лекция 11 | Обучение с подкреплением II | Дэн Кляйн | Осень 2012 г. |
Лекция 12 | Вероятность | Питер Аббель | Весна 2014 г. |
Лекция 13 | Марковские модели | Питер Аббель | Весна 2014 г. |
Лекция 14 | Скрытые марковские модели | Дэн Кляйн | Осень 2013 г. |
Лекция 15 | Применение HMM/Речь | Питер Аббель | Весна 2014 г. |
Лекция 16 | Сети Байеса: представление | Питер Аббель | Весна 2014 г. |
Лекция 17 | Сети Байеса: независимость | Питер Аббель | Весна 2014 г. |
Лекция 18 | Сети Байеса: вывод | Питер Аббель | Весна 2014 г. |
Лекция 19 | Сети Байеса: выборка | Питер Аббель | Осень 2013 г. |
Лекция 20 | Диаграммы принятия решений / Ценность совершенной информации | Питер Аббель | Весна 2014 г. |
Лекция 21 | Машинное обучение: наивный Байес | Николас Хэй | Весна 2014 г. |
Лекция 22 | Машинное обучение: перцептроны | Питер Аббель | Весна 2014 г. |
Лекция 23 | Машинное обучение: ядра и кластеризация | Питер Аббель | Весна 2014 г. |
Лекция 24 | Продвинутые приложения: НЛП, игры и роботизированные автомобили. | Питер Аббель | Весна 2014 г. |
Лекция 25 | Передовые приложения: компьютерное зрение и робототехника | Питер Аббель | Весна 2014 г. |
Кроме того, к материалам лекции есть дополнительные пошаговые видеоролики. Эти видео перечислены ниже:
Название лекции | Преподаватель | Примечания | |
СБС-1 | ДФС и БФС | Питер Аббель | Лек: Неосведомленный поиск |
СБС-2 | А* Поиск | Питер Аббель | Лек: Информированный поиск |
СБС-3 | Альфа-бета обрезка | Питер Аббель | Лек: Состязательный поиск |
СБС-4 | D-разделение | Питер Аббель | Лек: Сети Байеса: Независимость |
СБС-5 | Устранение одной переменной | Питер Аббель | Лек: Сети Байеса: вывод |
СБС-6 | Удаление переменных | Питер Аббель | Лек: Сети Байеса: вывод |
СБС-7 | Выборка | Питер Аббель | Лек: Сети Байеса: выборка |
СБС-8 | Максимальная вероятность | Питер Аббель | Лек: Машинное обучение: наивный Байес |
СБС-9 | Сглаживание по Лапласу | Питер Аббель | Лек: Машинное обучение: наивный Байес |
СБС-10 | Персептроны | Питер Аббель | Лек: Машинное обучение: персептроны. |
Видеолекции из последних предложений размещены ниже.
Видео лекций весны 2014 г.
Видео лекций осени 2013 г.
Видео лекций весны 2013 г.
Видео лекций осени 2012 г.
Название лекции | Преподаватель | Примечания | |
Лекция 1 | Введение | Питер Аббель | |
Лекция 2 | Неинформированный поиск | Питер Аббель | |
Лекция 3 | Информированный поиск | Питер Аббель | |
Лекция 4 | Проблемы удовлетворения ограничений I | Питер Аббель | Запись немного нестабильна, альтернативу см. в 4-й лекции осени 2013 г. |
Лекция 5 | Проблемы удовлетворения ограничений II | Питер Аббель | |
Лекция 6 | Состязательный поиск | Питер Аббель | |
Лекция 7 | Expectimax и утилиты | Питер Аббель | |
Лекция 8 | Марковские процессы принятия решений I | Питер Аббель | |
Лекция 9 | Марковские процессы принятия решений II | Питер Аббель | |
Лекция 10 | Обучение с подкреплением I | Питер Аббель | |
Лекция 11 | Обучение с подкреплением II | Питер Аббель | |
Лекция 12 | Вероятность | Питер Аббель | |
Лекция 13 | Марковские модели | Питер Аббель | |
Лекция 14 | Скрытые марковские модели | Питер Аббель | Запись немного нестабильна, альтернативу можно найти в лекции 18 осени 2013 г. |
Лекция 15 | Применение HMM/Речь | Питер Аббель | |
Лекция 16 | Сети Байеса: представление | Питер Аббель | |
Лекция 17 | Сети Байеса: независимость | Питер Аббель | |
Лекция 18 | Сети Байеса: вывод | Питер Аббель | |
Лекция 19 | Сети Байеса: выборка | Питер Аббель | Незаписано, см. лекцию 16, осень 2013 г. |
Лекция 20 | Диаграммы принятия решений / Ценность совершенной информации | Питер Аббель | |
Лекция 21 | Машинное обучение: наивный Байес | Николас Хэй | |
Лекция 22 | Машинное обучение: перцептроны | Питер Аббель | |
Лекция 23 | Машинное обучение: ядра и кластеризация | Питер Аббель | |
Лекция 24 | Продвинутые приложения: НЛП, игры и роботизированные автомобили. | Питер Аббель | |
Лекция 25 | Передовые приложения: компьютерное зрение и робототехника | Питер Аббель | |
Лекция 26 | Заключение | Питер Аббель | Незаписанный |
Название лекции | Преподаватель | Примечания | |
Лекция 1 | Введение | Дэн Кляйн | |
Лекция 2 | Неинформированный поиск | Дэн Кляйн | |
Лекция 3 | Информированный поиск | Дэн Кляйн | |
Лекция 4 | Проблемы удовлетворения ограничений I | Дэн Кляйн | |
Лекция 5 | Проблемы удовлетворения ограничений II | Дэн Кляйн | |
Лекция 6 | Состязательный поиск | Дэн Кляйн | |
Лекция 7 | Expectimax и утилиты | Дэн Кляйн | |
Лекция 8 | Марковские процессы принятия решений I | Дэн Кляйн | |
Лекция 9 | Марковские процессы принятия решений II | Дэн Кляйн | |
Лекция 10 | Обучение с подкреплением I | Дэн Кляйн | |
Лекция 11 | Обучение с подкреплением II | Дэн Кляйн | |
Лекция 12 | Вероятность | Питер Аббель | |
Лекция 13 | Сети Байеса: представление | Питер Аббель | |
Лекция 14 | Сети Байеса: независимость | Дэн Кляйн | |
Лекция 15 | Сети Байеса: вывод | Питер Аббель | |
Лекция 16 | Сети Байеса: выборка | Питер Аббель | |
Лекция 17 | Диаграммы принятия решений / Ценность совершенной информации | Питер Аббель | |
Лекция 18 | Скрытые марковские модели | Дэн Кляйн | |
Лекция 19 | Применение HMM/Речь | Дэн Кляйн | |
Лекция 20 | Машинное обучение: наивный Байес | Дэн Кляйн | |
Лекция 21 | Машинное обучение: перцептроны | Дэн Кляйн | |
Лекция 22 | Машинное обучение: ядра и кластеризация | Питер Аббель | |
Лекция 23 | Машинное обучение: деревья решений и нейронные сети | Питер Аббель | |
Лекция 24 | Продвинутые приложения: НЛП и роботизированные автомобили | Дэн Кляйн | Незаписано, см. лекцию 24, весна 2013 г. |
Лекция 25 | Передовые приложения: компьютерное зрение и робототехника | Питер Аббель | |
Лекция 26 | Заключение | Дэн Кляйн, Питер Аббель | Незаписанный |
Название лекции | Преподаватель | Примечания | |
Лекция 1 | Введение | Питер Аббель | Видео вниз |
Лекция 2 | Неинформированный поиск | Питер Аббель | |
Лекция 3 | Информированный поиск | Питер Аббель | |
Лекция 4 | Проблемы удовлетворения ограничений I | Питер Аббель | |
Лекция 5 | Проблемы удовлетворения ограничений II | Питер Аббель | Незаписано, см. лекцию 5, осень 2012 г. |
Лекция 6 | Состязательный поиск | Питер Аббель | |
Лекция 7 | Expectimax и утилиты | Питер Аббель | |
Лекция 8 | Марковские процессы принятия решений I | Питер Аббель | |
Лекция 9 | Марковские процессы принятия решений II | Питер Аббель | |
Лекция 10 | Обучение с подкреплением I | Питер Аббель | |
Лекция 11 | Обучение с подкреплением II | Питер Аббель | |
Лекция 12 | Вероятность | Питер Аббель | |
Лекция 13 | Сети Байеса: представление | Питер Аббель | |
Лекция 14 | Сети Байеса: независимость | Питер Аббель | |
Лекция 15 | Сети Байеса: вывод | Питер Аббель | |
Лекция 16 | Сети Байеса: выборка | Питер Аббель | |
Лекция 17 | Диаграммы принятия решений / Ценность совершенной информации | Питер Аббель | |
Лекция 18 | Скрытые марковские модели | Питер Аббель | |
Лекция 19 | Применение HMM/Речь | Питер Аббель | |
Лекция 20 | Машинное обучение: наивный Байес | Питер Аббель | |
Лекция 21 | Машинное обучение: персептроны I | Николас Хэй | |
Лекция 22 | Машинное обучение: персептроны II | Питер Аббель | |
Лекция 23 | Машинное обучение: ядра и кластеризация | Питер Аббель | |
Лекция 24 | Продвинутые приложения: НЛП и роботизированные автомобили | Питер Аббель | |
Лекция 25 | Передовые приложения: компьютерное зрение и робототехника | Питер Аббель | |
Лекция 26 | Заключение | Питер Аббель | Незаписанный |
Название лекции | Преподаватель | Примечания | |
Лекция 1 | Введение | Дэн Кляйн | |
Лекция 2 | Неинформированный поиск | Дэн Кляйн | |
Лекция 3 | Информированный поиск | Дэн Кляйн | |
Лекция 4 | Проблемы удовлетворения ограничений I | Дэн Кляйн | |
Лекция 5 | Проблемы удовлетворения ограничений II | Дэн Кляйн | |
Лекция 6 | Состязательный поиск | Дэн Кляйн | |
Лекция 7 | Expectimax и утилиты | Дэн Кляйн | |
Лекция 8 | Марковские процессы принятия решений I | Дэн Кляйн | |
Лекция 9 | Марковские процессы принятия решений II | Дэн Кляйн | |
Лекция 10 | Обучение с подкреплением I | Дэн Кляйн | |
Лекция 11 | Обучение с подкреплением II | Дэн Кляйн | |
Лекция 12 | Вероятность | Питер Аббель | |
Лекция 13 | Сети Байеса: представление | Питер Аббель | |
Лекция 14 | Сети Байеса: независимость | Питер Аббель | |
Лекция 15 | Сети Байеса: вывод | Питер Аббель | |
Лекция 16 | Сети Байеса: выборка | Питер Аббель | |
Лекция 17 | Диаграммы принятия решений / Ценность совершенной информации | Питер Аббель | |
Лекция 18 | Скрытые марковские модели | Питер Аббель | |
Лекция 19 | Применение HMM/Речь | Дэн Кляйн | |
Лекция 20 | Машинное обучение: наивный Байес | Дэн Кляйн | |
Лекция 21 | Машинное обучение: перцептроны | Дэн Кляйн | |
Лекция 22 | Машинное обучение: ядра и кластеризация | Дэн Кляйн | |
Лекция 23 | Машинное обучение: деревья решений и нейронные сети | Питер Аббель | |
Лекция 24 | Передовые приложения: компьютерное зрение и робототехника | Питер Аббель | |
Лекция 25 | Продвинутые приложения: НЛП и роботизированные автомобили | Дэн Кляйн, Питер Аббель | Незаписанный |
Лекция 26 | Заключение | Дэн Кляйн, Питер Аббель | Незаписанный |
Вот полный набор слайдов лекций, включая видео и видео демонстраций, представленных в лекции: Слайды [~3 ГБ].
В списке ниже представлены все слайды лекций в PowerPoint:
Исходные файлы для всех демонстраций лекций готовятся к выпуску в Berkeley AI.
Последние поданные документы в формате arxiv на AI
Питер Норвиг – Научитесь программированию за десять лет
Как проводить исследования в лаборатории искусственного интеллекта Массачусетского технологического института
Дорожная карта по направлению к машинному интеллекту
Совместная фильтрация с помощью рекуррентных нейронных сетей (2016)
Широкое и глубокое обучение для рекомендательных систем (2016 г.)
Глубокая совместная фильтрация с помощью автокодировщика с маргинальным шумоподавлением (2015)
Непараметрическая байесовская многозадачная совместная фильтрация (2013)
Tensorflow: крупномасштабное машинное обучение в гетерогенных распределенных системах
https://infoscience.epfl.ch/record/82802/files/rr02-46.pdf
Theano: компилятор математических выражений для процессоров и графических процессоров.
Caffe: сверточная архитектура для быстрого внедрения функций.
Chainer: мощная, гибкая и интуитивно понятная среда нейронных сетей.
Крупномасштабные распределенные глубокие сети
Крупномасштабная классификация видео с помощью сверточных нейронных сетей
Эффективная оценка представлений слов в векторном пространстве
Грамматика как иностранный язык
Углубляемся со свертками
О ВЫПРАВЛЯЕМЫХ ЛИНЕЙНЫХ ЕДИНИЦАХ ОБРАБОТКИ РЕЧИ
Глубокие нейронные сети для акустического моделирования в распознавании речи: общие взгляды четырех исследовательских групп.
Распознавание многозначных чисел на изображениях Street View с использованием глубоких сверточных нейронных сетей
Google передает свой прибыльный веб-поиск машинам с искусственным интеллектом
Стэнфордская программа CS 20SI: Тензорный поток для исследований в области глубокого обучения
Сравнительное исследование программных инфраструктур глубокого обучения
** Reddit_ML – Что вы читаете**
Источник: https://medium.com/intuitionmachine/infographic-best-practices-in-training-deep-learning-networks-b8a3df1db53.
Источник: https://medium.com/intuitionmachine/the-deep-learning-roadmap-f0b4cac7009a
Источник: https://medium.com/intuitionmachine/infographic-best-practices-in-training-deep-learning-networks-b8a3df1db53.
Источник: http://www.asimovinstitute.org/neural-network-zoo/
Источник: https://docs.microsoft.com/en-us/azure/machine-learning/machine-learning-algorithm-cheat-sheet.
Источник: http://blogs.sas.com/content/subciousmusings/2017/04/12/machine-learning-algorithm-use/
Источник: http://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/.
Источник: https://www.analyticsvidhya.com/blog/2015/09/full-cheatsheet-machine-learning-algorithms/
Источник: http://datasciencefree.com/python.pdf.
Источник: https://www.datacamp.com/community/tutorials/python-data-science-cheat-sheet-basics#gs.0x1rxEA
Источник: https://www.dataquest.io/blog/numpy-cheat-sheet/
Источник: http://datasciencefree.com/numpy.pdf.
Источник: https://www.datacamp.com/community/blog/python-numpy-cheat-sheet#gs.Nw3V6CE.
Источник: https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/numpy/numpy.ipynb
Источник: http://datasciencefree.com/pandas.pdf.
Источник: https://www.datacamp.com/community/blog/python-pandas-cheat-sheet#gs.S4P4T=U.
Источник: https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/pandas/pandas.ipynb
Источник: https://www.datacamp.com/community/blog/python-matplotlib-cheat-sheet.
Источник: https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/matplotlib/matplotlib.ipynb
Источник: https://www.datacamp.com/community/blog/scikit-learn-cheat-sheet#gs.fZ2A1Jk.
Источник: http://peekaboo-vision.blogspot.de/2013/01/machine-learning-cheat-sheet-for-scikit.html.
Источник: https://github.com/rcompton/ml_cheat_sheet/blob/master/supervised_learning.ipynb.
Источник: https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/1_Introduction/basic_operations.ipynb
Источник: https://github.com/bfortuner/pytorch-cheatsheet.
Источник: http://www.wzchen.com/s/probability_cheatsheet.pdf.
Источник: https://minireference.com/static/tutorials/linear_algebra_in_4_pages.pdf.
Источник: http://web.mit.edu/~csvoss/Public/usabo/stats_handout.pdf.
Источник: http://tutorial.math.lamar.edu/getfile.aspx?file=B,41,N