所有AI相關學習資料和AI應用入門實用工具列表
自訂進度實驗室
AWS 自訂進度實驗室透過 AWS 服務和真實雲端場景在即時 AWS 環境中提供實務練習。請依照逐步說明學習服務、練習使用案例或準備 AWS 認證。
介紹實驗室
萊克斯
波莉
重新認知
機器學習
機器學習
第 1 場會議 – 賦能開發人員建立智慧應用程式
第 2 節 - 使用 Amazon 機器學習預測客戶流失
AWS 機器學習 – 端對端託管服務,用於建立和測試 ML 模型,然後將這些模型部署到生產中
文件
AWS Deep Learning AMI – 針對深度學習工作進行最佳化的亞馬遜機器映像 (AMI)
推薦的額外資源
透過基礎、高級和專家級實驗室將您的技能提升到新的水平。
以下學習材料將幫助您了解 Google Cloud。
網路
Codelab提供常見的雲端開發者體驗如下:
為 Google Cloud Platform 開發解決方案 – 8 小時
基礎設施
數據
人工智慧、大數據和機器學習
其他人工智慧材料
(可選)深度學習和 Tensorflow
附加參考資料
(歡迎在此空間做出貢獻)
視覺工作室
UCI 資料集
技能先決條件
訓練路徑
如果您具備上述先決技能,請選擇進階訓練路徑,否則選擇新手訓練路徑。
先決條件教程
環境建構
認知服務(定義智力)
機器人框架(建構聊天機器人)
環境建構
認知服務(定義智力)
機器人框架(建構聊天機器人)
認知服務(定義智力)- 實驗室
Bot 框架(建構聊天機器人)- 實驗室
來源伯克利
講座標題 | 講師 | 學期 | |
第一講 | 介紹 | 丹·克萊因 | 2012 年秋季 |
第二講 | 不知情的搜尋 | 丹·克萊因 | 2012 年秋季 |
第三講 | 知情搜尋 | 丹·克萊因 | 2012 年秋季 |
第四講 | 約束滿足問題 I | 丹·克萊因 | 2012 年秋季 |
第五講 | 約束滿足問題II | 丹·克萊因 | 2012 年秋季 |
第六講 | 對抗性搜索 | 丹·克萊因 | 2012 年秋季 |
第7講 | Expectimax 和實用程式 | 丹·克萊因 | 2012 年秋季 |
第8講 | 馬可夫決策過程 I | 丹·克萊因 | 2012 年秋季 |
第9講 | 馬可夫決策過程 II | 丹·克萊因 | 2012 年秋季 |
第10講 | 強化學習一 | 丹·克萊因 | 2012 年秋季 |
第11講 | 強化學習二 | 丹·克萊因 | 2012 年秋季 |
第12講 | 可能性 | 彼得·阿貝爾 | 2014年春季 |
第13講 | 馬可夫模型 | 彼得·阿貝爾 | 2014年春季 |
第14講 | 隱馬可夫模型 | 丹·克萊因 | 2013 年秋季 |
第15講 | HMM/語音的應用 | 彼得·阿貝爾 | 2014年春季 |
第16講 | 貝葉斯網路:表示 | 彼得·阿貝爾 | 2014年春季 |
第17講 | 貝葉斯網路:獨立性 | 彼得·阿貝爾 | 2014年春季 |
第18講 | 貝葉斯網路:推理 | 彼得·阿貝爾 | 2014年春季 |
第19講 | 貝葉斯網路:採樣 | 彼得·阿貝爾 | 2013 年秋季 |
第20講 | 決策圖/完美資訊的價值 | 彼得·阿貝爾 | 2014年春季 |
第21講 | 機器學習:樸素貝葉斯 | 尼可拉斯海伊 | 2014年春季 |
第22講 | 機器學習:感知器 | 彼得·阿貝爾 | 2014年春季 |
第23講 | 機器學習:內核與聚類 | 彼得·阿貝爾 | 2014年春季 |
第24講 | 進階應用:NLP、遊戲和機器人汽車 | 彼得·阿貝爾 | 2014年春季 |
第25講 | 進階應用:電腦視覺與機器人技術 | 彼得·阿貝爾 | 2014年春季 |
此外,還有額外的逐步影片作為講座材料的補充。這些影片如下:
講座標題 | 講師 | 筆記 | |
SBS-1 | 深度優先搜尋和廣度優先搜索 | 彼得·阿貝爾 | Lec:不知情的搜索 |
SBS-2 | A* 搜尋 | 彼得·阿貝爾 | Lec:知情搜索 |
SBS-3 | Alpha-Beta 修剪 | 彼得·阿貝爾 | Lec:對抗性搜索 |
SBS-4 | D-分離 | 彼得·阿貝爾 | Lec:貝葉斯網:獨立 |
SBS-5 | 消除一個變數 | 彼得·阿貝爾 | Lec:貝葉斯網絡:推理 |
SBS-6 | 變數消除 | 彼得·阿貝爾 | Lec:貝葉斯網絡:推理 |
SBS-7 | 取樣 | 彼得·阿貝爾 | Lec:貝葉斯網路:採樣 |
SBS-8 | 最大似然法 | 彼得·阿貝爾 | 講座:機器學習:樸素貝葉斯 |
SBS-9 | 拉普拉斯平滑 | 彼得·阿貝爾 | 講座:機器學習:樸素貝葉斯 |
SBS-10 | 感知器 | 彼得·阿貝爾 | Lec:機器學習:感知器 |
最新課程的講座影片發佈如下。
2014年春季講座影片
2013年秋季講座影片
2013年春季講座影片
2012 年秋季講座影片
講座標題 | 講師 | 筆記 | |
第一講 | 介紹 | 彼得·阿貝爾 | |
第二講 | 不知情的搜尋 | 彼得·阿貝爾 | |
第三講 | 知情搜尋 | 彼得·阿貝爾 | |
第四講 | 約束滿足問題 I | 彼得·阿貝爾 | 錄音有點不穩定,請參閱 2013 年秋季講座 4 以了解替代方案 |
第五講 | 約束滿足問題II | 彼得·阿貝爾 | |
第六講 | 對抗性搜索 | 彼得·阿貝爾 | |
第7講 | Expectimax 和實用程式 | 彼得·阿貝爾 | |
第8講 | 馬可夫決策過程 I | 彼得·阿貝爾 | |
第9講 | 馬可夫決策過程 II | 彼得·阿貝爾 | |
第10講 | 強化學習一 | 彼得·阿貝爾 | |
第11講 | 強化學習二 | 彼得·阿貝爾 | |
第12講 | 可能性 | 彼得·阿貝爾 | |
第13講 | 馬可夫模型 | 彼得·阿貝爾 | |
第14講 | 隱馬可夫模型 | 彼得·阿貝爾 | 錄音有點不穩定,請參閱 2013 年秋季講座 18 以了解替代方法 |
第15講 | HMM/語音的應用 | 彼得·阿貝爾 | |
第16講 | 貝葉斯網路:表示 | 彼得·阿貝爾 | |
第17講 | 貝葉斯網路:獨立性 | 彼得·阿貝爾 | |
第18講 | 貝葉斯網路:推理 | 彼得·阿貝爾 | |
第19講 | 貝葉斯網路:採樣 | 彼得·阿貝爾 | 未錄製,請參閱 2013 年秋季講座 16 |
第20講 | 決策圖/完美資訊的價值 | 彼得·阿貝爾 | |
第21講 | 機器學習:樸素貝葉斯 | 尼可拉斯海伊 | |
第22講 | 機器學習:感知器 | 彼得·阿貝爾 | |
第23講 | 機器學習:內核與聚類 | 彼得·阿貝爾 | |
第24講 | 進階應用:NLP、遊戲和機器人汽車 | 彼得·阿貝爾 | |
第25講 | 進階應用:電腦視覺與機器人技術 | 彼得·阿貝爾 | |
第26講 | 結論 | 彼得·阿貝爾 | 未記錄 |
講座標題 | 講師 | 筆記 | |
第一講 | 介紹 | 丹·克萊因 | |
第二講 | 不知情的搜尋 | 丹·克萊因 | |
第三講 | 知情搜尋 | 丹·克萊因 | |
第四講 | 約束滿足問題 I | 丹·克萊因 | |
第五講 | 約束滿足問題II | 丹·克萊因 | |
第六講 | 對抗性搜索 | 丹·克萊因 | |
第7講 | Expectimax 和實用程式 | 丹·克萊因 | |
第8講 | 馬可夫決策過程 I | 丹·克萊因 | |
第9講 | 馬可夫決策過程 II | 丹·克萊因 | |
第10講 | 強化學習一 | 丹·克萊因 | |
第11講 | 強化學習二 | 丹·克萊因 | |
第12講 | 可能性 | 彼得·阿貝爾 | |
第13講 | 貝葉斯網路:表示 | 彼得·阿貝爾 | |
第14講 | 貝葉斯網路:獨立性 | 丹·克萊因 | |
第15講 | 貝葉斯網路:推理 | 彼得·阿貝爾 | |
第16講 | 貝葉斯網路:採樣 | 彼得·阿貝爾 | |
第17講 | 決策圖/完美資訊的價值 | 彼得·阿貝爾 | |
第18講 | 隱馬可夫模型 | 丹·克萊因 | |
第19講 | HMM/語音的應用 | 丹·克萊因 | |
第20講 | 機器學習:樸素貝葉斯 | 丹·克萊因 | |
第21講 | 機器學習:感知器 | 丹·克萊因 | |
第22講 | 機器學習:內核與聚類 | 彼得·阿貝爾 | |
第23講 | 機器學習:決策樹與神經網絡 | 彼得·阿貝爾 | |
第24講 | 進階應用:NLP 和機器人汽車 | 丹·克萊因 | 未錄製,請參閱 2013 年春季講座 24 |
第25講 | 進階應用:電腦視覺與機器人技術 | 彼得·阿貝爾 | |
第26講 | 結論 | 丹克萊因, 彼得·阿貝爾 | 未記錄 |
講座標題 | 講師 | 筆記 | |
第一講 | 介紹 | 彼得·阿貝爾 | 影片下載 |
第二講 | 不知情的搜尋 | 彼得·阿貝爾 | |
第三講 | 知情搜尋 | 彼得·阿貝爾 | |
第四講 | 約束滿足問題 I | 彼得·阿貝爾 | |
第五講 | 約束滿足問題II | 彼得·阿貝爾 | 未錄製,請參閱 2012 年秋季講座 5 |
第六講 | 對抗性搜索 | 彼得·阿貝爾 | |
第7講 | Expectimax 和實用程式 | 彼得·阿貝爾 | |
第8講 | 馬可夫決策過程 I | 彼得·阿貝爾 | |
第9講 | 馬可夫決策過程 II | 彼得·阿貝爾 | |
第10講 | 強化學習一 | 彼得·阿貝爾 | |
第11講 | 強化學習二 | 彼得·阿貝爾 | |
第12講 | 可能性 | 彼得·阿貝爾 | |
第13講 | 貝葉斯網路:表示 | 彼得·阿貝爾 | |
第14講 | 貝葉斯網路:獨立性 | 彼得·阿貝爾 | |
第15講 | 貝葉斯網路:推理 | 彼得·阿貝爾 | |
第16講 | 貝葉斯網路:採樣 | 彼得·阿貝爾 | |
第17講 | 決策圖/完美資訊的價值 | 彼得·阿貝爾 | |
第18講 | 隱馬可夫模型 | 彼得·阿貝爾 | |
第19講 | HMM/語音的應用 | 彼得·阿貝爾 | |
第20講 | 機器學習:樸素貝葉斯 | 彼得·阿貝爾 | |
第21講 | 機器學習:感知器 I | 尼可拉斯海伊 | |
第22講 | 機器學習:感知器 II | 彼得·阿貝爾 | |
第23講 | 機器學習:內核與聚類 | 彼得·阿貝爾 | |
第24講 | 進階應用:NLP 和機器人汽車 | 彼得·阿貝爾 | |
第25講 | 進階應用:電腦視覺與機器人技術 | 彼得·阿貝爾 | |
第26講 | 結論 | 彼得·阿貝爾 | 未記錄 |
講座標題 | 講師 | 筆記 | |
第一講 | 介紹 | 丹·克萊因 | |
第二講 | 不知情的搜尋 | 丹·克萊因 | |
第三講 | 知情搜尋 | 丹·克萊因 | |
第四講 | 約束滿足問題 I | 丹·克萊因 | |
第五講 | 約束滿足問題II | 丹·克萊因 | |
第六講 | 對抗性搜索 | 丹·克萊因 | |
第7講 | Expectimax 和實用程式 | 丹·克萊因 | |
第8講 | 馬可夫決策過程 I | 丹·克萊因 | |
第9講 | 馬可夫決策過程 II | 丹·克萊因 | |
第10講 | 強化學習一 | 丹·克萊因 | |
第11講 | 強化學習二 | 丹·克萊因 | |
第12講 | 可能性 | 彼得·阿貝爾 | |
第13講 | 貝葉斯網路:表示 | 彼得·阿貝爾 | |
第14講 | 貝葉斯網路:獨立性 | 彼得·阿貝爾 | |
第15講 | 貝葉斯網路:推理 | 彼得·阿貝爾 | |
第16講 | 貝葉斯網路:採樣 | 彼得·阿貝爾 | |
第17講 | 決策圖/完美資訊的價值 | 彼得·阿貝爾 | |
第18講 | 隱馬可夫模型 | 彼得·阿貝爾 | |
第19講 | HMM/語音的應用 | 丹·克萊因 | |
第20講 | 機器學習:樸素貝葉斯 | 丹·克萊因 | |
第21講 | 機器學習:感知器 | 丹·克萊因 | |
第22講 | 機器學習:內核與聚類 | 丹·克萊因 | |
第23講 | 機器學習:決策樹與神經網絡 | 彼得·阿貝爾 | |
第24講 | 進階應用:電腦視覺與機器人技術 | 彼得·阿貝爾 | |
第25講 | 進階應用:NLP 和機器人汽車 | 丹克萊因, 彼得·阿貝爾 | 未記錄 |
第26講 | 結論 | 丹克萊因, 彼得·阿貝爾 | 未記錄 |
這是完整的講座幻燈片集,包括影片和講座中運行的簡報影片:幻燈片 [~3 GB]。
以下的清單包含所有講座的 Powerpoint 投影片:
Berkeley AI 正在準備所有現場講座演示的來源文件以供發布
AI 最新 arxiv 論文提交
Peter Norvig-十年自學編程
如何在麻省理工學院人工智慧實驗室進行研究
機器智慧路線圖
使用遞歸神經網路進行協同過濾 (2016)
推薦系統的廣泛和深度學習 (2016)
透過邊緣化去噪自動編碼器進行深度協同過濾 (2015)
非參數貝葉斯多任務協同過濾 (2013)
Tensorflow:異質分散式系統上的大規模機器學習
https://infoscience.epfl.ch/record/82802/files/rr02-46.pdf
Theano:CPU 與 GPU 數學運算式編譯器。
Caffe:用於快速特徵嵌入的捲積架構
Chainer:強大、靈活且直覺的神經網路框架
大規模分散式深度網絡
使用卷積神經網路進行大規模視訊分類
向量空間中詞表示的有效估計
作為外語的語法
深入研究卷積
用於語音處理的整流線性單元
用於語音識別中聲學建模的深度神經網路:四個研究小組的共同觀點。
使用深度卷積神經網路從街景影像中辨識多位數字
谷歌將其利潤豐厚的網路搜尋交給人工智慧機器
史丹佛大學教學大綱 CS 20SI:用於深度學習研究的 Tensorflow
深度學習軟體架構的比較研究
** Reddit_ML-你在讀什麼**
資料來源:https://medium.com/intuitionmachine/infographic-best-practices-in-training-deep-learning-networks-b8a3df1db53
來源:https://medium.com/intuitionmachine/the-deep-learning-roadmap-f0b4cac7009a
資料來源:https://medium.com/intuitionmachine/infographic-best-practices-in-training-deep-learning-networks-b8a3df1db53
資料來源:http://www.asimovinstitute.org/neural-network-zoo/
來源:https://docs.microsoft.com/en-us/azure/machine-learning/machine-learning-algorithm-cheat-sheet
資料來源:http://blogs.sas.com/content/subthoughtmusings/2017/04/12/machine-learning-algorithm-use/
資料來源:http://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/
資料來源:https://www.analyticsvidhya.com/blog/2015/09/full-cheatsheet-machine-learning-algorithms/
資料來源:http://datasciencefree.com/python.pdf
資料來源:https://www.datacamp.com/community/tutorials/python-data-science-cheat-sheet-basics#gs.0x1rxEA
來源:https://www.dataquest.io/blog/numpy-cheat-sheet/
資料來源:http://datasciencefree.com/numpy.pdf
資料來源:https://www.datacamp.com/community/blog/python-numpy-cheat-sheet#gs.Nw3V6CE
來源:https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/numpy/numpy.ipynb
資料來源:http://datasciencefree.com/pandas.pdf
資料來源:https://www.datacamp.com/community/blog/python-pandas-cheat-sheet#gs.S4P4T=U
資料來源:https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/pandas/pandas.ipynb
來源:https://www.datacamp.com/community/blog/python-matplotlib-cheat-sheet
資料來源:https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/matplotlib/matplotlib.ipynb
資料來源:https://www.datacamp.com/community/blog/scikit-learn-cheat-sheet#gs.fZ2A1Jk
來源:http://peekaboo-vision.blogspot.de/2013/01/machine-learning-cheat-sheet-for-scikit.html
來源:https://github.com/rcompton/ml_cheat_sheet/blob/master/supervised_learning.ipynb
來源:https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/1_Introduction/basic_operations.ipynb
來源:https://github.com/bfortuner/pytorch-cheatsheet
來源:http://www.wzchen.com/s/probability_cheatsheet.pdf
資料來源:https://minireference.com/static/tutorials/linear_algebra_in_4_pages.pdf
資料來源:http://web.mit.edu/~csvoss/Public/usabo/stats_handout.pdf
來源:http://tutorial.math.lamar.edu/getfile.aspx?file=B,41,N