課程簡(jiǎn)介
機(jī)器學(xué)習(xí)(深度學(xué)習(xí))算法和應(yīng)用
目標(biāo)收益
幻燈片算法講解,結(jié)合代碼分析,剖析算法原理;實(shí)際應(yīng)用舉例和和業(yè)界趨勢(shì)分析;成熟開源框架介紹和實(shí)例(Numpy, Pandas, Sklearn, Keras, TensorFlow,)。
內(nèi)容分7大部分:DNN 入門和基本模型;模型評(píng)估、調(diào)參和優(yōu)化;卷積神經(jīng)網(wǎng)絡(luò) CNN 原理和實(shí)踐;循環(huán)神經(jīng)網(wǎng)絡(luò)RNN原理和實(shí)踐;GAN;無監(jiān)督學(xué)習(xí);增強(qiáng)學(xué)習(xí)。
完成課程后,學(xué)員能夠了解深度學(xué)習(xí)的流程步驟;理解用深度學(xué)習(xí)方法解決實(shí)際問題的方法和思路;初步掌握基礎(chǔ)深度學(xué)習(xí)的算法和實(shí)現(xiàn)方法,并應(yīng)用于多種項(xiàng)目中。
培訓(xùn)對(duì)象
對(duì)深度學(xué)習(xí)算法原理和應(yīng)用感興趣,具有一定編程(Python)和數(shù)學(xué)基礎(chǔ)(線性代數(shù)、微積分、概率論)的技術(shù)人員。
課程大綱
PART I: 入門和基本 DNN 模型 |
1. 深度學(xué)習(xí)概要 什么是深度學(xué)習(xí) & 與機(jī)器學(xué)習(xí)的異同 2. 多層感知器模型 Multi-Layer Perceptron – MLP 神經(jīng)元 權(quán)重和激活 Neurons Weight Activation 神經(jīng)元網(wǎng)絡(luò) Neuron Networks 訓(xùn)練網(wǎng)絡(luò) Training Networks Back-propagation 算法和計(jì)算圖 多種自適應(yīng)學(xué)習(xí)率算法 Adaptive Learning Rate 3. 用 Keras 搭建 MLP 載入數(shù)據(jù) 定義-編譯-訓(xùn)練-測(cè)試模型 |
PART II: 評(píng)估、調(diào)參和優(yōu)化模型 |
4. 評(píng)估深度學(xué)習(xí)模型的性能 切分?jǐn)?shù)據(jù)集合 Data Splitting 手工 k-fold cross validation 5. 通用深度學(xué)習(xí)工具集 Keras + Scikit-Learn 用 cross-validation 評(píng)估模型用 grid-search 微調(diào)超參數(shù) 6. 項(xiàng)目:用 MLP 進(jìn)行多元分類 – 植物品種分類 7. 項(xiàng)目:用 MLP 進(jìn)行二元分類 – 聲吶探測(cè)物體信號(hào)分析 8. 項(xiàng)目:用 MLP 進(jìn)行回歸 – Boston 房屋價(jià)格預(yù)測(cè) 9. 序列化保存模型 10. 通過 check point 機(jī)制獲取最佳模型 11. 通過繪制模型歷史理解訓(xùn)練行為 12. 通過 dropout regularization 降低模型過擬合 13. 選取不同的 Learning Rate Schedule 提升模型性能 |
PART III: 卷積神經(jīng)網(wǎng)絡(luò) CNN |
14. 卷積神經(jīng)網(wǎng)絡(luò) Convolutional Neural Network 14.1 CNN 原理和構(gòu)造: - 核 Filter 和卷積運(yùn)算 Convolutional Layer - 特征圖 Feature Maps - 池化層 Pooling - 全連接層 Full Connected Layer - Dropout 和 Batch Normalization - CNN 最佳實(shí)踐 14.2 CNN 實(shí)踐 - 項(xiàng)目:用 CNN 進(jìn)行手寫體識(shí)別 - 練習(xí):在 CNN 圖像識(shí)別中通過 Image Augmentation 技術(shù)提升模型性能 - 項(xiàng)目:用 CNN 進(jìn)行圖片物體識(shí)別 - 項(xiàng)目:用 CNN 電影評(píng)論情緒預(yù)測(cè) - 項(xiàng)目:用 CNN 進(jìn)行圖像 segmentation |
PART IV: 循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN |
15. 循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks 15.1 RNN 原理一:基本 RNN - 處理序列(Sequence)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò) - 循環(huán)神經(jīng)網(wǎng) RNN 架構(gòu) - RNN 訓(xùn)練:如何在訓(xùn)練中獲得穩(wěn)定的梯度下降 - RNN 網(wǎng)絡(luò)演化歷史:RNN,LSTM,GRU 結(jié)構(gòu)比較和分析 15.2 RNN 實(shí)踐一:RNN 回歸 - 項(xiàng)目:用 MLP 進(jìn)行時(shí)間序列預(yù)測(cè) - 項(xiàng)目:用長(zhǎng)短記憶網(wǎng)絡(luò)(Long-Short Term Memory, LSTM)進(jìn)行時(shí)間序列預(yù)測(cè) 子項(xiàng)目 1) 用 LSTM 進(jìn)行回歸 子項(xiàng)目 2)用 LSTM 序列窗口(Window method)進(jìn)行回歸 子項(xiàng)目 3) 用 LSTM 時(shí)間步長(zhǎng)(Time Step)進(jìn)行回歸 子項(xiàng)目 4) 用 LSTM 記憶(Memory)進(jìn)行回歸 & Stacked LSTM 15.3 RNN 實(shí)踐二:RNN 分類 - 項(xiàng)目:對(duì)電影評(píng)論進(jìn)行序列分類 Sequence Classification - 項(xiàng)目:使用 dropout LSTM - 項(xiàng)目:結(jié)合使用 CNN 和 RNN 進(jìn)行序列分類15.4 RNN 實(shí)踐三:用 RNN 進(jìn)行文本生成 – one char - 項(xiàng)目:用 LSTM 進(jìn)行 one-char 生成 - 項(xiàng)目:用 LSTM feature-window 進(jìn)行 one-char 生成 - 項(xiàng)目:用 LSTM time-step 進(jìn)行 one-char 生成 - 項(xiàng)目:用 LSTM 批內(nèi)樣本間保持狀態(tài)進(jìn)行 one-char 生成 - 項(xiàng)目:有狀態(tài) LSTM 進(jìn)行 one-char 生成 - 項(xiàng)目:變長(zhǎng)輸入 LSTM 15.5 RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence - 項(xiàng)目:用 LSTM 生成文本序列 - 項(xiàng)目:深度 LSTM 生成文本 - 討論:如何進(jìn)一步提高模型 performance 15.6 更多 RNN 模型(可選)例如: - image captioning 圖像字幕 - machine translation 機(jī)器翻譯 - dialogue generation 對(duì)話生成 |
PART V: CV與NLP前沿介紹 |
16. 計(jì)算機(jī)視覺 CV 前沿:對(duì)抗生成網(wǎng)絡(luò)(Generative Adversarial Network,GAN)介紹 17. 自然語言處理 NLP 前沿:變形金剛(Transformer)及其變種介紹 |
PART I: 入門和基本 DNN 模型 1. 深度學(xué)習(xí)概要 什么是深度學(xué)習(xí) & 與機(jī)器學(xué)習(xí)的異同 2. 多層感知器模型 Multi-Layer Perceptron – MLP 神經(jīng)元 權(quán)重和激活 Neurons Weight Activation 神經(jīng)元網(wǎng)絡(luò) Neuron Networks 訓(xùn)練網(wǎng)絡(luò) Training Networks Back-propagation 算法和計(jì)算圖 多種自適應(yīng)學(xué)習(xí)率算法 Adaptive Learning Rate 3. 用 Keras 搭建 MLP 載入數(shù)據(jù) 定義-編譯-訓(xùn)練-測(cè)試模型 |
PART II: 評(píng)估、調(diào)參和優(yōu)化模型 4. 評(píng)估深度學(xué)習(xí)模型的性能 切分?jǐn)?shù)據(jù)集合 Data Splitting 手工 k-fold cross validation 5. 通用深度學(xué)習(xí)工具集 Keras + Scikit-Learn 用 cross-validation 評(píng)估模型用 grid-search 微調(diào)超參數(shù) 6. 項(xiàng)目:用 MLP 進(jìn)行多元分類 – 植物品種分類 7. 項(xiàng)目:用 MLP 進(jìn)行二元分類 – 聲吶探測(cè)物體信號(hào)分析 8. 項(xiàng)目:用 MLP 進(jìn)行回歸 – Boston 房屋價(jià)格預(yù)測(cè) 9. 序列化保存模型 10. 通過 check point 機(jī)制獲取最佳模型 11. 通過繪制模型歷史理解訓(xùn)練行為 12. 通過 dropout regularization 降低模型過擬合 13. 選取不同的 Learning Rate Schedule 提升模型性能 |
PART III: 卷積神經(jīng)網(wǎng)絡(luò) CNN 14. 卷積神經(jīng)網(wǎng)絡(luò) Convolutional Neural Network 14.1 CNN 原理和構(gòu)造: - 核 Filter 和卷積運(yùn)算 Convolutional Layer - 特征圖 Feature Maps - 池化層 Pooling - 全連接層 Full Connected Layer - Dropout 和 Batch Normalization - CNN 最佳實(shí)踐 14.2 CNN 實(shí)踐 - 項(xiàng)目:用 CNN 進(jìn)行手寫體識(shí)別 - 練習(xí):在 CNN 圖像識(shí)別中通過 Image Augmentation 技術(shù)提升模型性能 - 項(xiàng)目:用 CNN 進(jìn)行圖片物體識(shí)別 - 項(xiàng)目:用 CNN 電影評(píng)論情緒預(yù)測(cè) - 項(xiàng)目:用 CNN 進(jìn)行圖像 segmentation |
PART IV: 循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks – RNN 15. 循環(huán)神經(jīng)網(wǎng)絡(luò) Recurrent Neural Networks 15.1 RNN 原理一:基本 RNN - 處理序列(Sequence)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò) - 循環(huán)神經(jīng)網(wǎng) RNN 架構(gòu) - RNN 訓(xùn)練:如何在訓(xùn)練中獲得穩(wěn)定的梯度下降 - RNN 網(wǎng)絡(luò)演化歷史:RNN,LSTM,GRU 結(jié)構(gòu)比較和分析 15.2 RNN 實(shí)踐一:RNN 回歸 - 項(xiàng)目:用 MLP 進(jìn)行時(shí)間序列預(yù)測(cè) - 項(xiàng)目:用長(zhǎng)短記憶網(wǎng)絡(luò)(Long-Short Term Memory, LSTM)進(jìn)行時(shí)間序列預(yù)測(cè) 子項(xiàng)目 1) 用 LSTM 進(jìn)行回歸 子項(xiàng)目 2)用 LSTM 序列窗口(Window method)進(jìn)行回歸 子項(xiàng)目 3) 用 LSTM 時(shí)間步長(zhǎng)(Time Step)進(jìn)行回歸 子項(xiàng)目 4) 用 LSTM 記憶(Memory)進(jìn)行回歸 & Stacked LSTM 15.3 RNN 實(shí)踐二:RNN 分類 - 項(xiàng)目:對(duì)電影評(píng)論進(jìn)行序列分類 Sequence Classification - 項(xiàng)目:使用 dropout LSTM - 項(xiàng)目:結(jié)合使用 CNN 和 RNN 進(jìn)行序列分類15.4 RNN 實(shí)踐三:用 RNN 進(jìn)行文本生成 – one char - 項(xiàng)目:用 LSTM 進(jìn)行 one-char 生成 - 項(xiàng)目:用 LSTM feature-window 進(jìn)行 one-char 生成 - 項(xiàng)目:用 LSTM time-step 進(jìn)行 one-char 生成 - 項(xiàng)目:用 LSTM 批內(nèi)樣本間保持狀態(tài)進(jìn)行 one-char 生成 - 項(xiàng)目:有狀態(tài) LSTM 進(jìn)行 one-char 生成 - 項(xiàng)目:變長(zhǎng)輸入 LSTM 15.5 RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence - 項(xiàng)目:用 LSTM 生成文本序列 - 項(xiàng)目:深度 LSTM 生成文本 - 討論:如何進(jìn)一步提高模型 performance 15.6 更多 RNN 模型(可選)例如: - image captioning 圖像字幕 - machine translation 機(jī)器翻譯 - dialogue generation 對(duì)話生成 |
PART V: CV與NLP前沿介紹 16. 計(jì)算機(jī)視覺 CV 前沿:對(duì)抗生成網(wǎng)絡(luò)(Generative Adversarial Network,GAN)介紹 17. 自然語言處理 NLP 前沿:變形金剛(Transformer)及其變種介紹 |