課程簡(jiǎn)介
機(jī)器學(xué)習(xí)算法原理與實(shí)踐
目標(biāo)收益
培訓(xùn)對(duì)象
課程大綱
第一天 上午 概述 |
1.人工智能應(yīng)用發(fā)展概述 2.python基礎(chǔ)學(xué)習(xí) 3.科學(xué)計(jì)算包numpy學(xué)習(xí) 4.繪圖工具包matplotlib學(xué)習(xí) 5.機(jī)器學(xué)習(xí)基礎(chǔ)理論 |
下午 回歸算法理論與實(shí)戰(zhàn) |
1.一元線性回歸 2.代價(jià)函數(shù) 3.梯度下降法 4.使用sklearn實(shí)現(xiàn)一元線性回歸 5.多元線性回歸 6.使用sklearn實(shí)現(xiàn)多元線性回歸 7.過(guò)擬合正則化 8.嶺回歸 9.sklearn實(shí)現(xiàn)嶺回歸 10.LASSO回歸 11.sklearn實(shí)現(xiàn)LASSO回歸 |
KNN算法和決策樹(shù)算法理論與實(shí)戰(zhàn) |
1.KNN算法介紹 2.sklearn實(shí)現(xiàn)knn算法 3.決策樹(shù)原理介紹 4.sklearn實(shí)現(xiàn)決策樹(shù)算法 |
第二天 上午 神經(jīng)網(wǎng)絡(luò)算法理論與實(shí)戰(zhàn) |
1.深度學(xué)習(xí)發(fā)展以及大師介紹 2.神經(jīng)網(wǎng)絡(luò)基本原理 3.單層感知器程序 4.線性神經(jīng)網(wǎng)絡(luò) 5.激活函數(shù),損失函數(shù)和梯度下降法 6.BP神經(jīng)網(wǎng)絡(luò)介紹 7.BP神經(jīng)網(wǎng)絡(luò)解決異或問(wèn)題 8.sklearn-BP神經(jīng)網(wǎng)絡(luò)解決手寫數(shù)字識(shí)別 |
下午 決策樹(shù)算法理論與實(shí)戰(zhàn) |
1.決策樹(shù)-信息熵,ID3,C4.5算法介紹 2.sklearn-決策樹(shù) |
聚類算法理論與實(shí)戰(zhàn) |
1.k-means算法原理 2.k-means算法實(shí)現(xiàn) 3.DBSCAN算法原理 4.DBSCAN算法實(shí)現(xiàn) |
第一天 上午 概述 1.人工智能應(yīng)用發(fā)展概述 2.python基礎(chǔ)學(xué)習(xí) 3.科學(xué)計(jì)算包numpy學(xué)習(xí) 4.繪圖工具包matplotlib學(xué)習(xí) 5.機(jī)器學(xué)習(xí)基礎(chǔ)理論 |
下午 回歸算法理論與實(shí)戰(zhàn) 1.一元線性回歸 2.代價(jià)函數(shù) 3.梯度下降法 4.使用sklearn實(shí)現(xiàn)一元線性回歸 5.多元線性回歸 6.使用sklearn實(shí)現(xiàn)多元線性回歸 7.過(guò)擬合正則化 8.嶺回歸 9.sklearn實(shí)現(xiàn)嶺回歸 10.LASSO回歸 11.sklearn實(shí)現(xiàn)LASSO回歸 |
KNN算法和決策樹(shù)算法理論與實(shí)戰(zhàn) 1.KNN算法介紹 2.sklearn實(shí)現(xiàn)knn算法 3.決策樹(shù)原理介紹 4.sklearn實(shí)現(xiàn)決策樹(shù)算法 |
第二天 上午 神經(jīng)網(wǎng)絡(luò)算法理論與實(shí)戰(zhàn) 1.深度學(xué)習(xí)發(fā)展以及大師介紹 2.神經(jīng)網(wǎng)絡(luò)基本原理 3.單層感知器程序 4.線性神經(jīng)網(wǎng)絡(luò) 5.激活函數(shù),損失函數(shù)和梯度下降法 6.BP神經(jīng)網(wǎng)絡(luò)介紹 7.BP神經(jīng)網(wǎng)絡(luò)解決異或問(wèn)題 8.sklearn-BP神經(jīng)網(wǎng)絡(luò)解決手寫數(shù)字識(shí)別 |
下午 決策樹(shù)算法理論與實(shí)戰(zhàn) 1.決策樹(shù)-信息熵,ID3,C4.5算法介紹 2.sklearn-決策樹(shù) |
聚類算法理論與實(shí)戰(zhàn) 1.k-means算法原理 2.k-means算法實(shí)現(xiàn) 3.DBSCAN算法原理 4.DBSCAN算法實(shí)現(xiàn) |