課程簡(jiǎn)介
人工智能(Artificial Intelligence),英文縮寫(xiě)為AI。它是研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門(mén)新的技術(shù)科學(xué)。是對(duì)人的意識(shí)、思維的信息過(guò)程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過(guò)人的智能。
人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,它企圖了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類(lèi)智能相似的方式做出反應(yīng)的智能機(jī)器,該領(lǐng)域的研究包括機(jī)器人、語(yǔ)言識(shí)別、圖像識(shí)別、自然語(yǔ)言處理和專(zhuān)家系統(tǒng)等。人工智能從誕生以來(lái),理論和技術(shù)日益成熟,應(yīng)用領(lǐng)域也不斷擴(kuò)大。
人工智能是一門(mén)極富挑戰(zhàn)性的科學(xué),從事這項(xiàng)工作的人必須懂得計(jì)算機(jī)知識(shí)、心理學(xué)和哲學(xué)。人工智能是包括十分廣泛的科學(xué),它由不同的領(lǐng)域組成,如機(jī)器學(xué)習(xí),計(jì)算機(jī)視覺(jué)等等,總的說(shuō)來(lái),人工智能研究的一個(gè)主要目標(biāo)是使機(jī)器能夠勝任一些通常需要人類(lèi)智能才能完成的復(fù)雜工作。
隨著大數(shù)據(jù)時(shí)代的快速到來(lái),以及大數(shù)據(jù)在生產(chǎn)生活中迅速應(yīng)用,數(shù)據(jù)分析、數(shù)據(jù)建模、數(shù)據(jù)挖掘、人工智能等重要性越發(fā)突出,本課程是針對(duì)大數(shù)據(jù)時(shí)代的特點(diǎn),尹老師總結(jié)多年數(shù)據(jù)分析經(jīng)驗(yàn),而精心設(shè)計(jì)的課程,課程內(nèi)容涵蓋了數(shù)據(jù)領(lǐng)域的數(shù)據(jù)處理、統(tǒng)計(jì)分析、數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)、人工智能等內(nèi)容,應(yīng)用范圍廣泛、前景廣闊。
目標(biāo)收益
1、 人工智能基礎(chǔ)、技術(shù)及其體系;
2、 人工智能的問(wèn)題求解及技術(shù)實(shí)現(xiàn);
3、 人工智能的學(xué)習(xí)方式;
4、 人工智能行業(yè)應(yīng)用與發(fā)展;
5、 主流人工智能實(shí)驗(yàn)平臺(tái)部署;
6、 人工智能機(jī)器學(xué)習(xí)的算法模型的應(yīng)用實(shí)踐
培訓(xùn)對(duì)象
1、 即將投身于人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘領(lǐng)域的企業(yè)或者個(gè)人;
2、 系統(tǒng)架構(gòu)師、系統(tǒng)分析師、高級(jí)程序員、資深開(kāi)發(fā)人員;
3、 政府機(jī)關(guān),金融保險(xiǎn)、移動(dòng)互聯(lián)網(wǎng)、能源行業(yè)等人工智能相關(guān)人員;
4、 高校、科研院所統(tǒng)計(jì)分析研究員,涉及到人工智能的人員;
課程大綱
第1個(gè)主題: 人工智能概述(介紹人工智能的淵源及范圍)(90分鐘) |
1、 人工智能應(yīng)用場(chǎng)景:AlphaGo對(duì)弈李世石 2、 人工智能的歷史 3、 人工智能的概括 4、 大數(shù)據(jù)概述 5、 智能信息 6、 物聯(lián)網(wǎng) 7、 什么是人工智能 8、 人工智能的概念 9、 人工智能的基礎(chǔ) 10、 對(duì)智慧、知識(shí)和人類(lèi)技能的態(tài)度 11、 人工智能的應(yīng)用領(lǐng)域 12、 人工智能發(fā)展水平及趨勢(shì) 13、 人工智能當(dāng)前發(fā)展水平 14、 人工智能未來(lái)趨勢(shì)預(yù)測(cè) 15、 人工智能發(fā)展的最終目標(biāo) 16、 人工智能的國(guó)際主要流派和發(fā)展路線 17、 人工智能的國(guó)內(nèi)研究情況 18、 弱人工智能 19、 強(qiáng)人工智能 20、 機(jī)器學(xué)習(xí)介紹 21、 深度學(xué)習(xí)介紹 22、 神經(jīng)網(wǎng)絡(luò)介紹 23、 機(jī)器人產(chǎn)業(yè)鏈發(fā)展現(xiàn)狀及趨勢(shì) 24、 案例場(chǎng)景:阿里金融人工智能防詐騙應(yīng)用案例分享 25、 案例場(chǎng)景:淘寶電商平臺(tái)精準(zhǔn)營(yíng)銷(xiāo)案例分享 |
第2個(gè)主題: 機(jī)器學(xué)習(xí)(介紹機(jī)器學(xué)習(xí)概念為深度學(xué)習(xí)奠定基礎(chǔ))(90分鐘) |
1、 機(jī)器學(xué)習(xí)能學(xué)習(xí)什么? 2、 機(jī)器學(xué)習(xí)是如何學(xué)習(xí)的? 3、 從哪里學(xué)習(xí)? 4、 學(xué)習(xí)的目的是什么? 5、 學(xué)習(xí)的方法是什么? 6、 監(jiān)督式學(xué)習(xí) 7、 非監(jiān)督式學(xué)習(xí) 8、 半監(jiān)督式學(xué)習(xí) 9、 強(qiáng)化學(xué)習(xí) 10、 訓(xùn)練集、測(cè)試集與驗(yàn)證集 11、 模型評(píng)分 12、 損失函數(shù) a) 最小二乘法 b) 梯度下降 c) 極大似然 13、 激活函數(shù) a) S型曲線 b) 反正切 c) relu d) 階躍 14、 二元分類(lèi)器 15、 多元分類(lèi)器 a) Softmax 16、 求導(dǎo) 17、 求偏導(dǎo) 18、 鏈?zhǔn)角髮?dǎo) 19、 機(jī)器學(xué)習(xí)的過(guò)程 a) 收集數(shù)據(jù) b) 預(yù)處理數(shù)據(jù) c) 探知數(shù)據(jù) d) 分析數(shù)據(jù) e) 選擇模型 f) 訓(xùn)練模型 g) 評(píng)估模型 h) 發(fā)布模型 |
第3個(gè)主題: 機(jī)器學(xué)習(xí)算法剖析(典型的大數(shù)據(jù)挖掘機(jī)器學(xué)習(xí)算法剖析)(90分鐘) |
1、 回歸分析 2、 邏輯回歸 3、 聚類(lèi)算法解析 4、 分類(lèi)算法解析 5、 決策樹(shù)算法 6、 支持向量機(jī) 7、 KNN 8、 關(guān)聯(lián)規(guī)則算法 9、 協(xié)同過(guò)濾算法解析 10、 訓(xùn)練數(shù)據(jù)集與評(píng)分 11、 神經(jīng)網(wǎng)絡(luò) 12、 深度學(xué)習(xí) 13、 案例演示:R語(yǔ)言實(shí)現(xiàn)邏輯回歸 |
第4個(gè)主題: 深度學(xué)習(xí)(介紹深度學(xué)習(xí)的相關(guān)知識(shí))(60分鐘) |
1、 深度學(xué)習(xí)介紹 2、 深度學(xué)習(xí)概念 3、 深度學(xué)習(xí)特征 4、 深度學(xué)習(xí)基本思想 5、 淺層學(xué)習(xí)與深度學(xué)習(xí) 6、 深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò) 7、 深度學(xué)習(xí)的訓(xùn)練過(guò)程 8、 深度學(xué)習(xí)的常用模型 9、 深度學(xué)習(xí)的應(yīng)用 10、 基于人臉特征的員工識(shí)別系統(tǒng) 11、 開(kāi)源深度學(xué)習(xí)框架介紹 12、 Caffe深度學(xué)習(xí)框架 13、 TensorFlow深度學(xué)習(xí)框架 14、 使用方法介紹 15、 應(yīng)用場(chǎng)景剖析 16、 應(yīng)用的典型案例 |
第5個(gè)主題: 人工神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)(介紹人工神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)與實(shí)戰(zhàn))(60分鐘) |
1、 人工智能介紹 2、 神經(jīng)網(wǎng)絡(luò)介紹 3、 神經(jīng)網(wǎng)絡(luò)概念 4、 神經(jīng)網(wǎng)絡(luò)發(fā)展歷史 5、 神經(jīng)網(wǎng)絡(luò)的別名 6、 神經(jīng)網(wǎng)絡(luò)研究的主要內(nèi)容 7、 神經(jīng)網(wǎng)絡(luò)基本構(gòu)成 8、 神經(jīng)網(wǎng)絡(luò)模擬人的智能行為的四個(gè)方面 9、 神經(jīng)網(wǎng)絡(luò)的特點(diǎn) 10、 學(xué)習(xí)能力 11、 適應(yīng)性問(wèn)題 12、 神經(jīng)網(wǎng)絡(luò)基本網(wǎng)絡(luò)模型 13、 單層網(wǎng)絡(luò) 14、 多層網(wǎng)絡(luò) 15、 循環(huán)網(wǎng)絡(luò) 16、 基本網(wǎng)絡(luò)結(jié)構(gòu)特點(diǎn) 17、 典型訓(xùn)練算法 18、 運(yùn)行方式 19、 典型問(wèn)題解決方法 20、 感知機(jī) 21、 線性神經(jīng)網(wǎng)絡(luò) 22、 BP神經(jīng)網(wǎng)絡(luò) 23、 RBF網(wǎng)絡(luò) 24、 競(jìng)爭(zhēng)網(wǎng)絡(luò) 25、 反饋神經(jīng)網(wǎng)絡(luò) 26、 隨機(jī)神經(jīng)網(wǎng)絡(luò) 27、 遺傳算法 28、 PSO與神經(jīng)網(wǎng)絡(luò)優(yōu)化 |
第6個(gè)主題: 深度神經(jīng)網(wǎng)絡(luò)(DNN)模型(介紹DNN的基礎(chǔ)知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì))(120分鐘) |
1、 深度學(xué)習(xí)概要 2、 什么是深度學(xué)習(xí)&與機(jī)器學(xué)習(xí)的異同 3、 多層感知器模型Multi-Layer Perceptron–MLP 4、 神經(jīng)元權(quán)重和激活 NeuronsWeight Activation 5、 神經(jīng)元網(wǎng)絡(luò)Neuron Networks 6、 訓(xùn)練網(wǎng)絡(luò)Training Networks 7、 Back-propagation 算法和計(jì)算圖 8、 多種自適應(yīng)學(xué)習(xí)率算法 Adaptive Learning Rate 9、 用 Keras 搭建 MLP 10、 載入數(shù)據(jù) 11、 定義-編譯-訓(xùn)練-測(cè)試模型 12、 案例實(shí)踐與練習(xí):手寫(xiě)體數(shù)字圖片識(shí)別 |
第7個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架TensorFlow部署(介紹深度學(xué)習(xí)開(kāi)源框架TensorFlow)(180分鐘) |
1、 為什么需要TensorFlow 2、 什么是TensorFlow 3、 TensorFlow概述 4、 TensorFlow的特征 5、 什么是數(shù)據(jù)流圖(Data Flow Graph)? 6、 TensorFlow的應(yīng)用場(chǎng)景介紹 7、 人工智能 8、 深度學(xué)習(xí) 9、 神經(jīng)網(wǎng)絡(luò) 10、 卷積神經(jīng)網(wǎng)絡(luò) 11、 遞歸神經(jīng)網(wǎng)絡(luò) 12、 TensorFlow概念 a) 計(jì)算圖 b) 張量 c) 變量 d) 取回 e) 供給 13、 TensorFlow基礎(chǔ)架構(gòu) 14、 TensorFlow運(yùn)行機(jī)制 |
第8個(gè)主題: 卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識(shí)別中的應(yīng)用與算法(介紹卷積神經(jīng)網(wǎng)絡(luò)(CNN)的基礎(chǔ)理論知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì),并詳細(xì)剖析總卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用)(120分鐘) |
1、 什么是卷積神經(jīng)網(wǎng)絡(luò)CNN (Convolutional Neural Network) 2、 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 3、 早期針對(duì)視覺(jué)的層次特征建模 4、 卷積神經(jīng)網(wǎng)絡(luò):對(duì)象識(shí)別 5、 卷積神經(jīng)網(wǎng)絡(luò)概述 6、 AlphaGo 7、 卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用 8、 Robot learns manipulation actions by watching videos 9、 CNN歷史 10、 ConvNet CIFAR-10 11、 Convolutional Neural Network 12、 首層全連接導(dǎo)致網(wǎng)絡(luò)參數(shù)過(guò)多 13、 一些模式比圖像要小得多 14、 類(lèi)似的模式出現(xiàn)在圖像的不同區(qū)域 15、 二次采樣像素不會(huì)改變對(duì)象 16、 Filtering 17、 Convolution 18、 Convolution layer 19、 Pooling 20、 Pooling layer 21、 Normalization 22、 Rectified Linear Units (ReLUs) 23、 ReLU layer 24、 Fully connected layer 25、 CNN 是在空間上權(quán)值共享的網(wǎng)絡(luò) 26、 Convolution Filter 濾波器 27、 Color Channels 28、 RGB輸入圖像 29、 CNN架構(gòu)與術(shù)語(yǔ) 30、 Stride & Padding 31、 CNN參數(shù)計(jì)算 32、 鏈?zhǔn)角髮?dǎo) 33、 無(wú)池化層的CNN 34、 Max Pooling & Down Sampling 35、 Overview of CNN 36、 Visualizing ConvNet (ImageNet) 37、 FC Layer 全聯(lián)接層 38、 Cost Function (Cross Entropy) 39、 BP Revisit 40、 Dropout Regularization 41、 Convolution Layer with TensorFlow 42、 Max Pooling 43、 Inception Module 44、 殘差學(xué)習(xí)單元 45、 TF DNN Code 46、 卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的實(shí)踐案例 47、 Save保存讀取 |
第9個(gè)主題: 語(yǔ)音識(shí)別(介紹語(yǔ)音識(shí)別處理模型理論、方法)(30分鐘) |
1、 自然語(yǔ)言處理介紹 2、 自然語(yǔ)言理解算法 3、 自然語(yǔ)言生成 4、 自然語(yǔ)言處理應(yīng)用領(lǐng)域 5、 數(shù)據(jù)稀疏與平滑技術(shù) 6、 語(yǔ)料庫(kù) 7、 馬可夫模型(Markov models) 8、 單詞的邊界界定 9、 詞義的消歧 10、 句法的模糊性 11、 有瑕疵的或不規(guī)范的輸入 12、 語(yǔ)言行為與計(jì)劃 13、 文本朗讀(Text to speech)/語(yǔ)音合成(Speech synthesis) 14、 語(yǔ)音識(shí)別(Speech recognition) 15、 中文自動(dòng)分詞(Chinese word segmentation) 16、 詞性標(biāo)注(Part-of-speech tagging) 17、 句法分析(Parsing) 18、 自然語(yǔ)言生成(Natural language generation) 19、 文本分類(lèi)(Text categorization) 20、 信息檢索(Information retrieval) 21、 信息抽?。↖nformation extraction) 22、 文字校對(duì)(Text-proofing) 23、 問(wèn)答系統(tǒng)(Question answering) 24、 機(jī)器翻譯(Machine translation) 25、 自動(dòng)摘要(Automatic summarization) 26、 文字蘊(yùn)涵(Textual entailment) |
第10個(gè)主題: 自然語(yǔ)言處理(NLP)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)實(shí)現(xiàn)(介紹循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的基礎(chǔ)知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì),并實(shí)現(xiàn)自然語(yǔ)言處理NLP)(120分鐘) |
1、 數(shù)據(jù)驅(qū)動(dòng)的人工智能:循環(huán)神經(jīng)網(wǎng)絡(luò) 2、 什么是循環(huán)神經(jīng)網(wǎng)絡(luò)RNN (Recurrent Neural Network) 3、 什么是LSTM循環(huán)神經(jīng)網(wǎng)絡(luò) 4、 RNN循環(huán)神經(jīng)網(wǎng)絡(luò) 5、 RNN應(yīng)用概述 6、 時(shí)間序列、LSTM、GRU 7、 自然語(yǔ)言處理基礎(chǔ) 8、 Word Embedding 9、 RNN實(shí)現(xiàn)案例 10、 Bayes Learning、Generative Learning 11、 Bayes Network 12、 RNN with attention、RNN generate 13、 語(yǔ)音識(shí)別 14、 語(yǔ)音識(shí)別中的經(jīng)典模型:人機(jī)對(duì)話 15、 自然語(yǔ)言處理NLP 16、 NLP應(yīng)用 a) 情緒分析、圖片描述 b) 機(jī)器翻譯、寫(xiě)論文、寫(xiě)代碼、作曲 17、 語(yǔ)言學(xué)家如何表達(dá)Word的含義 18、 統(tǒng)計(jì)學(xué)家:Language Model 19、 語(yǔ)言模型Language Model 20、 N-gram 21、 傳統(tǒng)語(yǔ)言模型的不足 22、 前饋式神經(jīng)網(wǎng)絡(luò)的不足 23、 基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的語(yǔ)言模型 24、 基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的語(yǔ)言模型實(shí)現(xiàn) 25、 RNN工作原理 26、 深度RNN 27、 RNN的困難:梯度消失與梯度爆炸 28、 解決?法:Long Short Term Memory Units(LSTMs) 29、 標(biāo)準(zhǔn)RNN vs LSTM 30、 LSTM拆解:Cell Status,傳送帶 31、 LSTM拆解:Forget Gate,遺忘門(mén) 32、 LSTM拆解:InputGate讓多少新的信息加入到Cell狀態(tài)中 33、 LSTM拆解:OutputGate決定如何輸出 34、 Gated Recurrent Unit(GRU) 35、 LSTM vs GRU 36、 詞的離散表達(dá)(one-hot)的不足 37、 現(xiàn)代統(tǒng)計(jì)NLP中最成功的想法 38、 如何使用周?chē)脑~來(lái)表達(dá)詞? 39、 Co-occurrence 矩陣的缺陷與對(duì)策 40、 解決方法:SVD矩陣降維 41、 Word2Vec 42、 Word2Vec的基本思想 43、 Word2Vec Network 44、 隱層的權(quán)重矩陣就是Word Vector 45、 輸出層 46、 Insights 47、 Word2Vec 龐大的權(quán)重矩陣訓(xùn)練技巧 48、 遞歸神經(jīng)網(wǎng)絡(luò)(RNN) 49、 LSTM應(yīng)用2:圖像/視頻生成文字 50、 Confusion Matrix 51、 RNN LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)圖像描述實(shí)踐 52、 RNN LSTM(回歸例子) 53、 RNN LSTM(回歸例子可視化) |
第11個(gè)主題: 人機(jī)對(duì)話(介紹人機(jī)對(duì)話實(shí)驗(yàn))(30分鐘) |
第1個(gè)主題: 深度神經(jīng)網(wǎng)絡(luò)(DNN)模型(介紹DNN的基礎(chǔ)知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì))(120分鐘) 1、 深度學(xué)習(xí)概要 2、 什么是深度學(xué)習(xí)&與機(jī)器學(xué)習(xí)的異同 3、 多層感知器模型Multi-Layer Perceptron–MLP 4、 神經(jīng)元權(quán)重和激活 NeuronsWeight Activation 5、 神經(jīng)元網(wǎng)絡(luò)Neuron Networks 6、 訓(xùn)練網(wǎng)絡(luò)Training Networks 7、 Back-propagation 算法和計(jì)算圖 8、 多種自適應(yīng)學(xué)習(xí)率算法 Adaptive Learning Rate 9、 用 Keras 搭建 MLP 10、 載入數(shù)據(jù) 11、 定義-編譯-訓(xùn)練-測(cè)試模型 12、 案例實(shí)踐與練習(xí):手寫(xiě)體數(shù)字圖片識(shí)別 第2個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架TensorFlow部署(介紹深度學(xué)習(xí)開(kāi)源框架TensorFlow)(180分鐘) 1、 為什么需要TensorFlow 2、 什么是TensorFlow 3、 TensorFlow概述 4、 TensorFlow的特征 5、 什么是數(shù)據(jù)流圖(Data Flow Graph)? 6、 TensorFlow的應(yīng)用場(chǎng)景介紹 7、 人工智能 8、 深度學(xué)習(xí) 9、 神經(jīng)網(wǎng)絡(luò) 10、 卷積神經(jīng)網(wǎng)絡(luò) 11、 遞歸神經(jīng)網(wǎng)絡(luò) 12、 TensorFlow概念 a) 計(jì)算圖 b) 張量 c) 變量 d) 取回 e) 供給 13、 TensorFlow基礎(chǔ)架構(gòu) 14、 TensorFlow運(yùn)行機(jī)制 第3個(gè)主題: 卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識(shí)別中的應(yīng)用與算法(介紹卷積神經(jīng)網(wǎng)絡(luò)(CNN)的基礎(chǔ)理論知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì),并詳細(xì)剖析總卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用)(120分鐘) 1、 什么是卷積神經(jīng)網(wǎng)絡(luò)CNN (Convolutional Neural Network) 2、 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 3、 早期針對(duì)視覺(jué)的層次特征建模 4、 卷積神經(jīng)網(wǎng)絡(luò):對(duì)象識(shí)別 5、 卷積神經(jīng)網(wǎng)絡(luò)概述 6、 AlphaGo 7、 卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用 8、 Robot learns manipulation actions by watching videos 9、 CNN歷史 10、 ConvNet CIFAR-10 11、 Convolutional Neural Network 12、 首層全連接導(dǎo)致網(wǎng)絡(luò)參數(shù)過(guò)多 13、 一些模式比圖像要小得多 14、 類(lèi)似的模式出現(xiàn)在圖像的不同區(qū)域 15、 二次采樣像素不會(huì)改變對(duì)象 16、 Filtering 17、 Convolution 18、 Convolution layer 19、 Pooling 20、 Pooling layer 21、 Normalization 22、 Rectified Linear Units (ReLUs) 23、 ReLU layer 24、 Fully connected layer 25、 CNN 是在空間上權(quán)值共享的網(wǎng)絡(luò) 26、 Convolution Filter 濾波器 27、 Color Channels 28、 RGB輸入圖像 29、 CNN架構(gòu)與術(shù)語(yǔ) 30、 Stride & Padding 31、 CNN參數(shù)計(jì)算 32、 鏈?zhǔn)角髮?dǎo) 33、 無(wú)池化層的CNN 34、 Max Pooling & Down Sampling 35、 Overview of CNN 36、 Visualizing ConvNet (ImageNet) 37、 FC Layer 全聯(lián)接層 38、 Cost Function (Cross Entropy) 39、 BP Revisit 40、 Dropout Regularization 41、 Convolution Layer with TensorFlow 42、 Max Pooling 43、 Inception Module 44、 殘差學(xué)習(xí)單元 45、 TF DNN Code 46、 卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的實(shí)踐案例 47、 Save保存讀取 第4個(gè)主題: 語(yǔ)音識(shí)別(介紹語(yǔ)音識(shí)別處理模型理論、方法)(30分鐘) 1、 自然語(yǔ)言處理介紹 2、 自然語(yǔ)言理解算法 3、 自然語(yǔ)言生成 4、 自然語(yǔ)言處理應(yīng)用領(lǐng)域 5、 數(shù)據(jù)稀疏與平滑技術(shù) 6、 語(yǔ)料庫(kù) 7、 馬可夫模型(Markov models) 8、 單詞的邊界界定 9、 詞義的消歧 10、 句法的模糊性 11、 有瑕疵的或不規(guī)范的輸入 12、 語(yǔ)言行為與計(jì)劃 13、 文本朗讀(Text to speech)/語(yǔ)音合成(Speech synthesis) 14、 語(yǔ)音識(shí)別(Speech recognition) 15、 中文自動(dòng)分詞(Chinese word segmentation) 16、 詞性標(biāo)注(Part-of-speech tagging) 17、 句法分析(Parsing) 18、 自然語(yǔ)言生成(Natural language generation) 19、 文本分類(lèi)(Text categorization) 20、 信息檢索(Information retrieval) 21、 信息抽?。↖nformation extraction) 22、 文字校對(duì)(Text-proofing) 23、 問(wèn)答系統(tǒng)(Question answering) 24、 機(jī)器翻譯(Machine translation) 25、 自動(dòng)摘要(Automatic summarization) 26、 文字蘊(yùn)涵(Textual entailment) 第5個(gè)主題: 自然語(yǔ)言處理(NLP)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)實(shí)現(xiàn)(介紹循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的基礎(chǔ)知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì),并實(shí)現(xiàn)自然語(yǔ)言處理NLP)(120分鐘) 1、 數(shù)據(jù)驅(qū)動(dòng)的人工智能:循環(huán)神經(jīng)網(wǎng)絡(luò) 2、 什么是循環(huán)神經(jīng)網(wǎng)絡(luò)RNN (Recurrent Neural Network) 3、 什么是LSTM循環(huán)神經(jīng)網(wǎng)絡(luò) 4、 RNN循環(huán)神經(jīng)網(wǎng)絡(luò) 5、 RNN應(yīng)用概述 6、 時(shí)間序列、LSTM、GRU 7、 自然語(yǔ)言處理基礎(chǔ) 8、 Word Embedding 9、 RNN實(shí)現(xiàn)案例 10、 Bayes Learning、Generative Learning 11、 Bayes Network 12、 RNN with attention、RNN generate 13、 語(yǔ)音識(shí)別 14、 語(yǔ)音識(shí)別中的經(jīng)典模型:人機(jī)對(duì)話 15、 自然語(yǔ)言處理NLP 16、 NLP應(yīng)用 a) 情緒分析、圖片描述 b) 機(jī)器翻譯、寫(xiě)論文、寫(xiě)代碼、作曲 17、 語(yǔ)言學(xué)家如何表達(dá)Word的含義 18、 統(tǒng)計(jì)學(xué)家:Language Model 19、 語(yǔ)言模型Language Model 20、 N-gram 21、 傳統(tǒng)語(yǔ)言模型的不足 22、 前饋式神經(jīng)網(wǎng)絡(luò)的不足 23、 基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的語(yǔ)言模型 24、 基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的語(yǔ)言模型實(shí)現(xiàn) 25、 RNN工作原理 26、 深度RNN 27、 RNN的困難:梯度消失與梯度爆炸 28、 解決?法:Long Short Term Memory Units(LSTMs) 29、 標(biāo)準(zhǔn)RNN vs LSTM 30、 LSTM拆解:Cell Status,傳送帶 31、 LSTM拆解:Forget Gate,遺忘門(mén) 32、 LSTM拆解:InputGate讓多少新的信息加入到Cell狀態(tài)中 33、 LSTM拆解:OutputGate決定如何輸出 34、 Gated Recurrent Unit(GRU) 35、 LSTM vs GRU 36、 詞的離散表達(dá)(one-hot)的不足 37、 現(xiàn)代統(tǒng)計(jì)NLP中最成功的想法 38、 如何使用周?chē)脑~來(lái)表達(dá)詞? 39、 Co-occurrence 矩陣的缺陷與對(duì)策 40、 解決方法:SVD矩陣降維 41、 Word2Vec 42、 Word2Vec的基本思想 43、 Word2Vec Network 44、 隱層的權(quán)重矩陣就是Word Vector 45、 輸出層 46、 Insights 47、 Word2Vec 龐大的權(quán)重矩陣訓(xùn)練技巧 48、 遞歸神經(jīng)網(wǎng)絡(luò)(RNN) 49、 LSTM應(yīng)用2:圖像/視頻生成文字 50、 Confusion Matrix 51、 RNN LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)圖像描述實(shí)踐 52、 RNN LSTM(回歸例子) 53、 RNN LSTM(回歸例子可視化) 第6個(gè)主題: 人機(jī)對(duì)話(介紹人機(jī)對(duì)話實(shí)驗(yàn))(30分鐘) 1、 自然語(yǔ)言處理NLP 2、 語(yǔ)音轉(zhuǎn)化為文字 3、 文字轉(zhuǎn)化為語(yǔ)音 4、 語(yǔ)音特征提取 5、 貝葉斯與語(yǔ)音識(shí)別 6、 聲學(xué)模型 7、 高斯混合模型GMM 8、 隱馬爾科夫模型HMM(hidden markov model) 9、 馬爾可夫鏈 10、 加權(quán)有限狀態(tài)轉(zhuǎn)換機(jī)的語(yǔ)音識(shí)別 11、 DNN(Deep neutral network)深度神經(jīng)網(wǎng)絡(luò)模型 12、 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)/卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型 13、 DNN-HMM混合系統(tǒng)架構(gòu) 14、 SyntaxNet 15、 Word2vec&Glove |
第12個(gè)主題: 深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)開(kāi)源框架介紹(介紹深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)開(kāi)源的典型框架)(30分鐘) |
1、 開(kāi)源深度學(xué)習(xí)框架介紹 2、 Caffe深度學(xué)習(xí)框架 3、 TensorFlow深度學(xué)習(xí)框架 |
第13個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架部署與調(diào)試(介紹深度學(xué)習(xí)開(kāi)源框架部署與調(diào)試)(60分鐘) |
1、 Caffe安裝部署 2、 案例:Caffe使用介紹 3、 Caffe使用調(diào)試 4、 Caffe配置文件prototxt的編寫(xiě) 5、 Caffe的使用案例分享: a) 圖書(shū)館人流量監(jiān)控系統(tǒng) b) 基于人臉特征的員工識(shí)別系統(tǒng) 6、 TensorFlow安裝部署 7、 案例:TensorFlow使用介紹 8、 TensorFlow使用調(diào)試 |
第14個(gè)主題: 深度學(xué)習(xí)技術(shù)與多媒體信息處理的結(jié)合應(yīng)用(介紹深度學(xué)習(xí)技術(shù)與多媒體信息處理的結(jié)合應(yīng)用、開(kāi)源社區(qū)中的相關(guān)資源介紹與分享)(30分鐘) |
1、 機(jī)器學(xué)習(xí)對(duì)視頻認(rèn)知與理解 2、 視頻結(jié)構(gòu)化分析 3、 視頻的處理與表示 4、 基于單幀的識(shí)別方法 5、 基于CNN擴(kuò)展網(wǎng)絡(luò)的識(shí)別方法 6、 雙路CNN的識(shí)別方法 7、 基于LSTM的識(shí)別方法 8、 3維卷積核(3D CNN)法 9、 視頻目標(biāo)檢測(cè)與跟蹤 10、 人物識(shí)別 11、 動(dòng)作識(shí)別 12、 情感語(yǔ)義分析 13、 深度學(xué)習(xí)相關(guān)框架在企業(yè)研發(fā)、設(shè)計(jì)與實(shí)現(xiàn)方面的經(jīng)驗(yàn)分享 14、 基于深度學(xué)習(xí)等技術(shù)面向用戶的研發(fā)經(jīng)驗(yàn)分享 15、 多媒體數(shù)據(jù)處理經(jīng)驗(yàn)分享 |
第15個(gè)主題: 人臉識(shí)別(介紹人臉識(shí)別)(30分鐘) |
1、 人臉識(shí)別的工作原理 2、 臉部的長(zhǎng)度和寬度 3、 臉部膚色 4、 臉局部細(xì)節(jié)寬度,如嘴、鼻子等 5、 臉部特征提取 6、 匹配算法 7、 人臉識(shí)別案例 8、 人臉檢測(cè) 9、 人臉識(shí)別算法的應(yīng)用 10、 面部身份驗(yàn)證 11、 用戶服務(wù) 12、 保險(xiǎn)行業(yè) 13、 人臉識(shí)別Python代碼的實(shí)現(xiàn) |
第16個(gè)主題: 視頻識(shí)別(介紹人臉識(shí)別)(30分鐘) |
1、 視頻目標(biāo)檢測(cè) 2、 基于單幀的識(shí)別方法 3、 基于CNN擴(kuò)展網(wǎng)絡(luò)的識(shí)別方法 4、 雙路CNN的識(shí)別方法 5、 基于LSTM的識(shí)別方法 6、 3維卷積核(3D CNN)法 |
第17個(gè)主題: 深度學(xué)習(xí)技術(shù)與多媒體信息處理的結(jié)合應(yīng)用(介紹深度學(xué)習(xí)技術(shù)與多媒體信息處理的結(jié)合應(yīng)用、開(kāi)源社區(qū)中的相關(guān)資源介紹與分享)(30分鐘) |
1、 機(jī)器學(xué)習(xí)對(duì)視頻認(rèn)知與理解 2、 視頻結(jié)構(gòu)化分析 3、 視頻的處理與表示 4、 基于單幀的識(shí)別方法 5、 基于CNN擴(kuò)展網(wǎng)絡(luò)的識(shí)別方法 6、 雙路CNN的識(shí)別方法 7、 基于LSTM的識(shí)別方法 8、 3維卷積核(3D CNN)法 9、 視頻目標(biāo)檢測(cè)與跟蹤 10、 人物識(shí)別 11、 動(dòng)作識(shí)別 12、 情感語(yǔ)義分析 13、 深度學(xué)習(xí)相關(guān)框架在企業(yè)研發(fā)、設(shè)計(jì)與實(shí)現(xiàn)方面的經(jīng)驗(yàn)分享 14、 基于深度學(xué)習(xí)等技術(shù)面向用戶的研發(fā)經(jīng)驗(yàn)分享 15、 多媒體數(shù)據(jù)處理經(jīng)驗(yàn)分享 |
第18個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架Keras部署(介紹深度學(xué)習(xí)開(kāi)源框架Keras)(30分鐘) |
1、 開(kāi)源深度學(xué)習(xí)框架介紹 2、 Keras深度學(xué)習(xí)框架 3、 Keras安裝部署 4、 案例:Keras使用介紹 5、 Keras使用調(diào)試 |
第19個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架Keras(介紹深度學(xué)習(xí)開(kāi)源框Keras)(120分鐘) |
1、 Keras介紹 2、 Keras部署 3、 Sequential 順序模型指引 4、 函數(shù)式 API 指引 5、 FAQ 常見(jiàn)問(wèn)題解答 6、 模型 7、 關(guān)于 Keras 模型 8、 Sequential 順序模型 API 9、 函數(shù)式 API 10、 Layers 11、 關(guān)于 Keras 網(wǎng)絡(luò)層 12、 核心網(wǎng)絡(luò)層 13、 卷積層 Convolutional 14、 池化層 Pooling 15、 局部連接層 Locally-connected 16、 循環(huán)層 Recurrent 17、 嵌入層 Embedding 18、 融合層 Merge 19、 高級(jí)激活層 Advanced Activations 20、 標(biāo)準(zhǔn)化層 Normalization 21、 噪聲層 Noise 22、 層封裝器 wrappers 23、 編寫(xiě)你自己的層 24、 數(shù)據(jù)預(yù)處理 25、 序列預(yù)處理 26、 文本預(yù)處理 27、 圖像預(yù)處理 28、 損失函數(shù) Losses 29、 評(píng)估標(biāo)準(zhǔn) Metrics 30、 優(yōu)化器 Optimizers 31、 激活函數(shù) Activations 32、 回調(diào)函數(shù) Callbacks 33、 常用數(shù)據(jù)集 Datasets 34、 預(yù)訓(xùn)練模型 Applications 35、 后端 Backend 36、 初始化 Initializers 37、 正則化 Regularizers 38、 約束 Constraints 39、 可視化 Visualization 40、 Scikit-learn API |
第20個(gè)主題: 模型效果評(píng)估體系(介紹模型評(píng)估理論、方法及指標(biāo))(30分鐘) |
1、 數(shù)據(jù)模型評(píng)估方法 2、 訓(xùn)練集 3、 測(cè)試集 4、 訓(xùn)練誤差 5、 交叉驗(yàn)證法 6、 ROC AUC(Area Under ROC Curve) 7、 自助法 8、 留出法 9、 評(píng)估數(shù)據(jù)挖掘模型的性能 10、 評(píng)估數(shù)據(jù)挖掘模型的性能指標(biāo) 11、 切分?jǐn)?shù)據(jù)集合 Data Splitting 12、 手工 k-fold cross validation 13、 模型度量 14、 準(zhǔn)確率(accuracy) 15、 loss-acc曲線 16、 模型質(zhì)量評(píng)估 17、 訓(xùn)練數(shù)據(jù)集與評(píng)估 18、 模型質(zhì)量評(píng)估案例 19、 P-R曲線 20、 綜合評(píng)價(jià)指標(biāo)(F-Measure) 21、 查準(zhǔn)率 22、 查全率 |
第21個(gè)主題: 人工智能在制造企業(yè)應(yīng)用案例(介紹人工智能在制造企業(yè)的融合與應(yīng)用)(30分鐘) |
1、 可口可樂(lè)生產(chǎn)制造案例 2、 飲料行業(yè)、食品行業(yè)生產(chǎn)制造案例 3、 數(shù)字化、網(wǎng)絡(luò)化、智能化 4、 整合產(chǎn)業(yè)鏈,高效低成本 5、 消費(fèi)者參與創(chuàng)新,定制化 6、 智能制造 7、 如何架構(gòu)數(shù)字化工廠 8、 德國(guó)工業(yè)4.0 9、 中國(guó)制造2025 10、 美國(guó)工業(yè)互聯(lián)網(wǎng),先進(jìn)制造業(yè)國(guó)家戰(zhàn)略計(jì)劃 11、 日本科技工業(yè)聯(lián)盟 12、 英國(guó)工業(yè)2050戰(zhàn)略 |
第22個(gè)主題: 人工智能在裝備制造領(lǐng)域案例剖析(分享人工智能在裝備制造領(lǐng)域案例)(30分鐘) |
1、 融合AI深度學(xué)習(xí)技術(shù) 2、 柔性自動(dòng)化生產(chǎn)線 3、 臺(tái)達(dá)機(jī)電柔性生產(chǎn)線 4、 寶馬自動(dòng)化生產(chǎn)流水線 5、 工業(yè)機(jī)器人 6、 智能裝配機(jī)器人 7、 智能制造產(chǎn)業(yè)鏈 8、 傳感器嵌入式芯片 9、 射頻技術(shù) 10、 傳感器網(wǎng)絡(luò) 11、 物聯(lián)網(wǎng)技術(shù) 12、 智能芯片 13、 能源管理智能化 14、 供應(yīng)鏈管理智能化 15、 設(shè)備智能化 16、 生產(chǎn)智能化 |
第1個(gè)主題: 人工智能概述(介紹人工智能的淵源及范圍)(90分鐘) 1、 人工智能應(yīng)用場(chǎng)景:AlphaGo對(duì)弈李世石 2、 人工智能的歷史 3、 人工智能的概括 4、 大數(shù)據(jù)概述 5、 智能信息 6、 物聯(lián)網(wǎng) 7、 什么是人工智能 8、 人工智能的概念 9、 人工智能的基礎(chǔ) 10、 對(duì)智慧、知識(shí)和人類(lèi)技能的態(tài)度 11、 人工智能的應(yīng)用領(lǐng)域 12、 人工智能發(fā)展水平及趨勢(shì) 13、 人工智能當(dāng)前發(fā)展水平 14、 人工智能未來(lái)趨勢(shì)預(yù)測(cè) 15、 人工智能發(fā)展的最終目標(biāo) 16、 人工智能的國(guó)際主要流派和發(fā)展路線 17、 人工智能的國(guó)內(nèi)研究情況 18、 弱人工智能 19、 強(qiáng)人工智能 20、 機(jī)器學(xué)習(xí)介紹 21、 深度學(xué)習(xí)介紹 22、 神經(jīng)網(wǎng)絡(luò)介紹 23、 機(jī)器人產(chǎn)業(yè)鏈發(fā)展現(xiàn)狀及趨勢(shì) 24、 案例場(chǎng)景:阿里金融人工智能防詐騙應(yīng)用案例分享 25、 案例場(chǎng)景:淘寶電商平臺(tái)精準(zhǔn)營(yíng)銷(xiāo)案例分享 |
第2個(gè)主題: 機(jī)器學(xué)習(xí)(介紹機(jī)器學(xué)習(xí)概念為深度學(xué)習(xí)奠定基礎(chǔ))(90分鐘) 1、 機(jī)器學(xué)習(xí)能學(xué)習(xí)什么? 2、 機(jī)器學(xué)習(xí)是如何學(xué)習(xí)的? 3、 從哪里學(xué)習(xí)? 4、 學(xué)習(xí)的目的是什么? 5、 學(xué)習(xí)的方法是什么? 6、 監(jiān)督式學(xué)習(xí) 7、 非監(jiān)督式學(xué)習(xí) 8、 半監(jiān)督式學(xué)習(xí) 9、 強(qiáng)化學(xué)習(xí) 10、 訓(xùn)練集、測(cè)試集與驗(yàn)證集 11、 模型評(píng)分 12、 損失函數(shù) a) 最小二乘法 b) 梯度下降 c) 極大似然 13、 激活函數(shù) a) S型曲線 b) 反正切 c) relu d) 階躍 14、 二元分類(lèi)器 15、 多元分類(lèi)器 a) Softmax 16、 求導(dǎo) 17、 求偏導(dǎo) 18、 鏈?zhǔn)角髮?dǎo) 19、 機(jī)器學(xué)習(xí)的過(guò)程 a) 收集數(shù)據(jù) b) 預(yù)處理數(shù)據(jù) c) 探知數(shù)據(jù) d) 分析數(shù)據(jù) e) 選擇模型 f) 訓(xùn)練模型 g) 評(píng)估模型 h) 發(fā)布模型 |
第3個(gè)主題: 機(jī)器學(xué)習(xí)算法剖析(典型的大數(shù)據(jù)挖掘機(jī)器學(xué)習(xí)算法剖析)(90分鐘) 1、 回歸分析 2、 邏輯回歸 3、 聚類(lèi)算法解析 4、 分類(lèi)算法解析 5、 決策樹(shù)算法 6、 支持向量機(jī) 7、 KNN 8、 關(guān)聯(lián)規(guī)則算法 9、 協(xié)同過(guò)濾算法解析 10、 訓(xùn)練數(shù)據(jù)集與評(píng)分 11、 神經(jīng)網(wǎng)絡(luò) 12、 深度學(xué)習(xí) 13、 案例演示:R語(yǔ)言實(shí)現(xiàn)邏輯回歸 |
第4個(gè)主題: 深度學(xué)習(xí)(介紹深度學(xué)習(xí)的相關(guān)知識(shí))(60分鐘) 1、 深度學(xué)習(xí)介紹 2、 深度學(xué)習(xí)概念 3、 深度學(xué)習(xí)特征 4、 深度學(xué)習(xí)基本思想 5、 淺層學(xué)習(xí)與深度學(xué)習(xí) 6、 深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò) 7、 深度學(xué)習(xí)的訓(xùn)練過(guò)程 8、 深度學(xué)習(xí)的常用模型 9、 深度學(xué)習(xí)的應(yīng)用 10、 基于人臉特征的員工識(shí)別系統(tǒng) 11、 開(kāi)源深度學(xué)習(xí)框架介紹 12、 Caffe深度學(xué)習(xí)框架 13、 TensorFlow深度學(xué)習(xí)框架 14、 使用方法介紹 15、 應(yīng)用場(chǎng)景剖析 16、 應(yīng)用的典型案例 |
第5個(gè)主題: 人工神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)(介紹人工神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)與實(shí)戰(zhàn))(60分鐘) 1、 人工智能介紹 2、 神經(jīng)網(wǎng)絡(luò)介紹 3、 神經(jīng)網(wǎng)絡(luò)概念 4、 神經(jīng)網(wǎng)絡(luò)發(fā)展歷史 5、 神經(jīng)網(wǎng)絡(luò)的別名 6、 神經(jīng)網(wǎng)絡(luò)研究的主要內(nèi)容 7、 神經(jīng)網(wǎng)絡(luò)基本構(gòu)成 8、 神經(jīng)網(wǎng)絡(luò)模擬人的智能行為的四個(gè)方面 9、 神經(jīng)網(wǎng)絡(luò)的特點(diǎn) 10、 學(xué)習(xí)能力 11、 適應(yīng)性問(wèn)題 12、 神經(jīng)網(wǎng)絡(luò)基本網(wǎng)絡(luò)模型 13、 單層網(wǎng)絡(luò) 14、 多層網(wǎng)絡(luò) 15、 循環(huán)網(wǎng)絡(luò) 16、 基本網(wǎng)絡(luò)結(jié)構(gòu)特點(diǎn) 17、 典型訓(xùn)練算法 18、 運(yùn)行方式 19、 典型問(wèn)題解決方法 20、 感知機(jī) 21、 線性神經(jīng)網(wǎng)絡(luò) 22、 BP神經(jīng)網(wǎng)絡(luò) 23、 RBF網(wǎng)絡(luò) 24、 競(jìng)爭(zhēng)網(wǎng)絡(luò) 25、 反饋神經(jīng)網(wǎng)絡(luò) 26、 隨機(jī)神經(jīng)網(wǎng)絡(luò) 27、 遺傳算法 28、 PSO與神經(jīng)網(wǎng)絡(luò)優(yōu)化 |
第6個(gè)主題: 深度神經(jīng)網(wǎng)絡(luò)(DNN)模型(介紹DNN的基礎(chǔ)知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì))(120分鐘) 1、 深度學(xué)習(xí)概要 2、 什么是深度學(xué)習(xí)&與機(jī)器學(xué)習(xí)的異同 3、 多層感知器模型Multi-Layer Perceptron–MLP 4、 神經(jīng)元權(quán)重和激活 NeuronsWeight Activation 5、 神經(jīng)元網(wǎng)絡(luò)Neuron Networks 6、 訓(xùn)練網(wǎng)絡(luò)Training Networks 7、 Back-propagation 算法和計(jì)算圖 8、 多種自適應(yīng)學(xué)習(xí)率算法 Adaptive Learning Rate 9、 用 Keras 搭建 MLP 10、 載入數(shù)據(jù) 11、 定義-編譯-訓(xùn)練-測(cè)試模型 12、 案例實(shí)踐與練習(xí):手寫(xiě)體數(shù)字圖片識(shí)別 |
第7個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架TensorFlow部署(介紹深度學(xué)習(xí)開(kāi)源框架TensorFlow)(180分鐘) 1、 為什么需要TensorFlow 2、 什么是TensorFlow 3、 TensorFlow概述 4、 TensorFlow的特征 5、 什么是數(shù)據(jù)流圖(Data Flow Graph)? 6、 TensorFlow的應(yīng)用場(chǎng)景介紹 7、 人工智能 8、 深度學(xué)習(xí) 9、 神經(jīng)網(wǎng)絡(luò) 10、 卷積神經(jīng)網(wǎng)絡(luò) 11、 遞歸神經(jīng)網(wǎng)絡(luò) 12、 TensorFlow概念 a) 計(jì)算圖 b) 張量 c) 變量 d) 取回 e) 供給 13、 TensorFlow基礎(chǔ)架構(gòu) 14、 TensorFlow運(yùn)行機(jī)制 |
第8個(gè)主題: 卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識(shí)別中的應(yīng)用與算法(介紹卷積神經(jīng)網(wǎng)絡(luò)(CNN)的基礎(chǔ)理論知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì),并詳細(xì)剖析總卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用)(120分鐘) 1、 什么是卷積神經(jīng)網(wǎng)絡(luò)CNN (Convolutional Neural Network) 2、 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 3、 早期針對(duì)視覺(jué)的層次特征建模 4、 卷積神經(jīng)網(wǎng)絡(luò):對(duì)象識(shí)別 5、 卷積神經(jīng)網(wǎng)絡(luò)概述 6、 AlphaGo 7、 卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用 8、 Robot learns manipulation actions by watching videos 9、 CNN歷史 10、 ConvNet CIFAR-10 11、 Convolutional Neural Network 12、 首層全連接導(dǎo)致網(wǎng)絡(luò)參數(shù)過(guò)多 13、 一些模式比圖像要小得多 14、 類(lèi)似的模式出現(xiàn)在圖像的不同區(qū)域 15、 二次采樣像素不會(huì)改變對(duì)象 16、 Filtering 17、 Convolution 18、 Convolution layer 19、 Pooling 20、 Pooling layer 21、 Normalization 22、 Rectified Linear Units (ReLUs) 23、 ReLU layer 24、 Fully connected layer 25、 CNN 是在空間上權(quán)值共享的網(wǎng)絡(luò) 26、 Convolution Filter 濾波器 27、 Color Channels 28、 RGB輸入圖像 29、 CNN架構(gòu)與術(shù)語(yǔ) 30、 Stride & Padding 31、 CNN參數(shù)計(jì)算 32、 鏈?zhǔn)角髮?dǎo) 33、 無(wú)池化層的CNN 34、 Max Pooling & Down Sampling 35、 Overview of CNN 36、 Visualizing ConvNet (ImageNet) 37、 FC Layer 全聯(lián)接層 38、 Cost Function (Cross Entropy) 39、 BP Revisit 40、 Dropout Regularization 41、 Convolution Layer with TensorFlow 42、 Max Pooling 43、 Inception Module 44、 殘差學(xué)習(xí)單元 45、 TF DNN Code 46、 卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的實(shí)踐案例 47、 Save保存讀取 |
第9個(gè)主題: 語(yǔ)音識(shí)別(介紹語(yǔ)音識(shí)別處理模型理論、方法)(30分鐘) 1、 自然語(yǔ)言處理介紹 2、 自然語(yǔ)言理解算法 3、 自然語(yǔ)言生成 4、 自然語(yǔ)言處理應(yīng)用領(lǐng)域 5、 數(shù)據(jù)稀疏與平滑技術(shù) 6、 語(yǔ)料庫(kù) 7、 馬可夫模型(Markov models) 8、 單詞的邊界界定 9、 詞義的消歧 10、 句法的模糊性 11、 有瑕疵的或不規(guī)范的輸入 12、 語(yǔ)言行為與計(jì)劃 13、 文本朗讀(Text to speech)/語(yǔ)音合成(Speech synthesis) 14、 語(yǔ)音識(shí)別(Speech recognition) 15、 中文自動(dòng)分詞(Chinese word segmentation) 16、 詞性標(biāo)注(Part-of-speech tagging) 17、 句法分析(Parsing) 18、 自然語(yǔ)言生成(Natural language generation) 19、 文本分類(lèi)(Text categorization) 20、 信息檢索(Information retrieval) 21、 信息抽?。↖nformation extraction) 22、 文字校對(duì)(Text-proofing) 23、 問(wèn)答系統(tǒng)(Question answering) 24、 機(jī)器翻譯(Machine translation) 25、 自動(dòng)摘要(Automatic summarization) 26、 文字蘊(yùn)涵(Textual entailment) |
第10個(gè)主題: 自然語(yǔ)言處理(NLP)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)實(shí)現(xiàn)(介紹循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的基礎(chǔ)知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì),并實(shí)現(xiàn)自然語(yǔ)言處理NLP)(120分鐘) 1、 數(shù)據(jù)驅(qū)動(dòng)的人工智能:循環(huán)神經(jīng)網(wǎng)絡(luò) 2、 什么是循環(huán)神經(jīng)網(wǎng)絡(luò)RNN (Recurrent Neural Network) 3、 什么是LSTM循環(huán)神經(jīng)網(wǎng)絡(luò) 4、 RNN循環(huán)神經(jīng)網(wǎng)絡(luò) 5、 RNN應(yīng)用概述 6、 時(shí)間序列、LSTM、GRU 7、 自然語(yǔ)言處理基礎(chǔ) 8、 Word Embedding 9、 RNN實(shí)現(xiàn)案例 10、 Bayes Learning、Generative Learning 11、 Bayes Network 12、 RNN with attention、RNN generate 13、 語(yǔ)音識(shí)別 14、 語(yǔ)音識(shí)別中的經(jīng)典模型:人機(jī)對(duì)話 15、 自然語(yǔ)言處理NLP 16、 NLP應(yīng)用 a) 情緒分析、圖片描述 b) 機(jī)器翻譯、寫(xiě)論文、寫(xiě)代碼、作曲 17、 語(yǔ)言學(xué)家如何表達(dá)Word的含義 18、 統(tǒng)計(jì)學(xué)家:Language Model 19、 語(yǔ)言模型Language Model 20、 N-gram 21、 傳統(tǒng)語(yǔ)言模型的不足 22、 前饋式神經(jīng)網(wǎng)絡(luò)的不足 23、 基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的語(yǔ)言模型 24、 基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的語(yǔ)言模型實(shí)現(xiàn) 25、 RNN工作原理 26、 深度RNN 27、 RNN的困難:梯度消失與梯度爆炸 28、 解決?法:Long Short Term Memory Units(LSTMs) 29、 標(biāo)準(zhǔn)RNN vs LSTM 30、 LSTM拆解:Cell Status,傳送帶 31、 LSTM拆解:Forget Gate,遺忘門(mén) 32、 LSTM拆解:InputGate讓多少新的信息加入到Cell狀態(tài)中 33、 LSTM拆解:OutputGate決定如何輸出 34、 Gated Recurrent Unit(GRU) 35、 LSTM vs GRU 36、 詞的離散表達(dá)(one-hot)的不足 37、 現(xiàn)代統(tǒng)計(jì)NLP中最成功的想法 38、 如何使用周?chē)脑~來(lái)表達(dá)詞? 39、 Co-occurrence 矩陣的缺陷與對(duì)策 40、 解決方法:SVD矩陣降維 41、 Word2Vec 42、 Word2Vec的基本思想 43、 Word2Vec Network 44、 隱層的權(quán)重矩陣就是Word Vector 45、 輸出層 46、 Insights 47、 Word2Vec 龐大的權(quán)重矩陣訓(xùn)練技巧 48、 遞歸神經(jīng)網(wǎng)絡(luò)(RNN) 49、 LSTM應(yīng)用2:圖像/視頻生成文字 50、 Confusion Matrix 51、 RNN LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)圖像描述實(shí)踐 52、 RNN LSTM(回歸例子) 53、 RNN LSTM(回歸例子可視化) |
第11個(gè)主題: 人機(jī)對(duì)話(介紹人機(jī)對(duì)話實(shí)驗(yàn))(30分鐘) 第1個(gè)主題: 深度神經(jīng)網(wǎng)絡(luò)(DNN)模型(介紹DNN的基礎(chǔ)知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì))(120分鐘) 1、 深度學(xué)習(xí)概要 2、 什么是深度學(xué)習(xí)&與機(jī)器學(xué)習(xí)的異同 3、 多層感知器模型Multi-Layer Perceptron–MLP 4、 神經(jīng)元權(quán)重和激活 NeuronsWeight Activation 5、 神經(jīng)元網(wǎng)絡(luò)Neuron Networks 6、 訓(xùn)練網(wǎng)絡(luò)Training Networks 7、 Back-propagation 算法和計(jì)算圖 8、 多種自適應(yīng)學(xué)習(xí)率算法 Adaptive Learning Rate 9、 用 Keras 搭建 MLP 10、 載入數(shù)據(jù) 11、 定義-編譯-訓(xùn)練-測(cè)試模型 12、 案例實(shí)踐與練習(xí):手寫(xiě)體數(shù)字圖片識(shí)別 第2個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架TensorFlow部署(介紹深度學(xué)習(xí)開(kāi)源框架TensorFlow)(180分鐘) 1、 為什么需要TensorFlow 2、 什么是TensorFlow 3、 TensorFlow概述 4、 TensorFlow的特征 5、 什么是數(shù)據(jù)流圖(Data Flow Graph)? 6、 TensorFlow的應(yīng)用場(chǎng)景介紹 7、 人工智能 8、 深度學(xué)習(xí) 9、 神經(jīng)網(wǎng)絡(luò) 10、 卷積神經(jīng)網(wǎng)絡(luò) 11、 遞歸神經(jīng)網(wǎng)絡(luò) 12、 TensorFlow概念 a) 計(jì)算圖 b) 張量 c) 變量 d) 取回 e) 供給 13、 TensorFlow基礎(chǔ)架構(gòu) 14、 TensorFlow運(yùn)行機(jī)制 第3個(gè)主題: 卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識(shí)別中的應(yīng)用與算法(介紹卷積神經(jīng)網(wǎng)絡(luò)(CNN)的基礎(chǔ)理論知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì),并詳細(xì)剖析總卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用)(120分鐘) 1、 什么是卷積神經(jīng)網(wǎng)絡(luò)CNN (Convolutional Neural Network) 2、 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 3、 早期針對(duì)視覺(jué)的層次特征建模 4、 卷積神經(jīng)網(wǎng)絡(luò):對(duì)象識(shí)別 5、 卷積神經(jīng)網(wǎng)絡(luò)概述 6、 AlphaGo 7、 卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用 8、 Robot learns manipulation actions by watching videos 9、 CNN歷史 10、 ConvNet CIFAR-10 11、 Convolutional Neural Network 12、 首層全連接導(dǎo)致網(wǎng)絡(luò)參數(shù)過(guò)多 13、 一些模式比圖像要小得多 14、 類(lèi)似的模式出現(xiàn)在圖像的不同區(qū)域 15、 二次采樣像素不會(huì)改變對(duì)象 16、 Filtering 17、 Convolution 18、 Convolution layer 19、 Pooling 20、 Pooling layer 21、 Normalization 22、 Rectified Linear Units (ReLUs) 23、 ReLU layer 24、 Fully connected layer 25、 CNN 是在空間上權(quán)值共享的網(wǎng)絡(luò) 26、 Convolution Filter 濾波器 27、 Color Channels 28、 RGB輸入圖像 29、 CNN架構(gòu)與術(shù)語(yǔ) 30、 Stride & Padding 31、 CNN參數(shù)計(jì)算 32、 鏈?zhǔn)角髮?dǎo) 33、 無(wú)池化層的CNN 34、 Max Pooling & Down Sampling 35、 Overview of CNN 36、 Visualizing ConvNet (ImageNet) 37、 FC Layer 全聯(lián)接層 38、 Cost Function (Cross Entropy) 39、 BP Revisit 40、 Dropout Regularization 41、 Convolution Layer with TensorFlow 42、 Max Pooling 43、 Inception Module 44、 殘差學(xué)習(xí)單元 45、 TF DNN Code 46、 卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的實(shí)踐案例 47、 Save保存讀取 第4個(gè)主題: 語(yǔ)音識(shí)別(介紹語(yǔ)音識(shí)別處理模型理論、方法)(30分鐘) 1、 自然語(yǔ)言處理介紹 2、 自然語(yǔ)言理解算法 3、 自然語(yǔ)言生成 4、 自然語(yǔ)言處理應(yīng)用領(lǐng)域 5、 數(shù)據(jù)稀疏與平滑技術(shù) 6、 語(yǔ)料庫(kù) 7、 馬可夫模型(Markov models) 8、 單詞的邊界界定 9、 詞義的消歧 10、 句法的模糊性 11、 有瑕疵的或不規(guī)范的輸入 12、 語(yǔ)言行為與計(jì)劃 13、 文本朗讀(Text to speech)/語(yǔ)音合成(Speech synthesis) 14、 語(yǔ)音識(shí)別(Speech recognition) 15、 中文自動(dòng)分詞(Chinese word segmentation) 16、 詞性標(biāo)注(Part-of-speech tagging) 17、 句法分析(Parsing) 18、 自然語(yǔ)言生成(Natural language generation) 19、 文本分類(lèi)(Text categorization) 20、 信息檢索(Information retrieval) 21、 信息抽取(Information extraction) 22、 文字校對(duì)(Text-proofing) 23、 問(wèn)答系統(tǒng)(Question answering) 24、 機(jī)器翻譯(Machine translation) 25、 自動(dòng)摘要(Automatic summarization) 26、 文字蘊(yùn)涵(Textual entailment) 第5個(gè)主題: 自然語(yǔ)言處理(NLP)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)實(shí)現(xiàn)(介紹循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的基礎(chǔ)知識(shí)、概念、發(fā)展歷史以及將來(lái)趨勢(shì),并實(shí)現(xiàn)自然語(yǔ)言處理NLP)(120分鐘) 1、 數(shù)據(jù)驅(qū)動(dòng)的人工智能:循環(huán)神經(jīng)網(wǎng)絡(luò) 2、 什么是循環(huán)神經(jīng)網(wǎng)絡(luò)RNN (Recurrent Neural Network) 3、 什么是LSTM循環(huán)神經(jīng)網(wǎng)絡(luò) 4、 RNN循環(huán)神經(jīng)網(wǎng)絡(luò) 5、 RNN應(yīng)用概述 6、 時(shí)間序列、LSTM、GRU 7、 自然語(yǔ)言處理基礎(chǔ) 8、 Word Embedding 9、 RNN實(shí)現(xiàn)案例 10、 Bayes Learning、Generative Learning 11、 Bayes Network 12、 RNN with attention、RNN generate 13、 語(yǔ)音識(shí)別 14、 語(yǔ)音識(shí)別中的經(jīng)典模型:人機(jī)對(duì)話 15、 自然語(yǔ)言處理NLP 16、 NLP應(yīng)用 a) 情緒分析、圖片描述 b) 機(jī)器翻譯、寫(xiě)論文、寫(xiě)代碼、作曲 17、 語(yǔ)言學(xué)家如何表達(dá)Word的含義 18、 統(tǒng)計(jì)學(xué)家:Language Model 19、 語(yǔ)言模型Language Model 20、 N-gram 21、 傳統(tǒng)語(yǔ)言模型的不足 22、 前饋式神經(jīng)網(wǎng)絡(luò)的不足 23、 基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的語(yǔ)言模型 24、 基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的語(yǔ)言模型實(shí)現(xiàn) 25、 RNN工作原理 26、 深度RNN 27、 RNN的困難:梯度消失與梯度爆炸 28、 解決?法:Long Short Term Memory Units(LSTMs) 29、 標(biāo)準(zhǔn)RNN vs LSTM 30、 LSTM拆解:Cell Status,傳送帶 31、 LSTM拆解:Forget Gate,遺忘門(mén) 32、 LSTM拆解:InputGate讓多少新的信息加入到Cell狀態(tài)中 33、 LSTM拆解:OutputGate決定如何輸出 34、 Gated Recurrent Unit(GRU) 35、 LSTM vs GRU 36、 詞的離散表達(dá)(one-hot)的不足 37、 現(xiàn)代統(tǒng)計(jì)NLP中最成功的想法 38、 如何使用周?chē)脑~來(lái)表達(dá)詞? 39、 Co-occurrence 矩陣的缺陷與對(duì)策 40、 解決方法:SVD矩陣降維 41、 Word2Vec 42、 Word2Vec的基本思想 43、 Word2Vec Network 44、 隱層的權(quán)重矩陣就是Word Vector 45、 輸出層 46、 Insights 47、 Word2Vec 龐大的權(quán)重矩陣訓(xùn)練技巧 48、 遞歸神經(jīng)網(wǎng)絡(luò)(RNN) 49、 LSTM應(yīng)用2:圖像/視頻生成文字 50、 Confusion Matrix 51、 RNN LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)圖像描述實(shí)踐 52、 RNN LSTM(回歸例子) 53、 RNN LSTM(回歸例子可視化) 第6個(gè)主題: 人機(jī)對(duì)話(介紹人機(jī)對(duì)話實(shí)驗(yàn))(30分鐘) 1、 自然語(yǔ)言處理NLP 2、 語(yǔ)音轉(zhuǎn)化為文字 3、 文字轉(zhuǎn)化為語(yǔ)音 4、 語(yǔ)音特征提取 5、 貝葉斯與語(yǔ)音識(shí)別 6、 聲學(xué)模型 7、 高斯混合模型GMM 8、 隱馬爾科夫模型HMM(hidden markov model) 9、 馬爾可夫鏈 10、 加權(quán)有限狀態(tài)轉(zhuǎn)換機(jī)的語(yǔ)音識(shí)別 11、 DNN(Deep neutral network)深度神經(jīng)網(wǎng)絡(luò)模型 12、 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)/卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型 13、 DNN-HMM混合系統(tǒng)架構(gòu) 14、 SyntaxNet 15、 Word2vec&Glove |
第12個(gè)主題: 深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)開(kāi)源框架介紹(介紹深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)開(kāi)源的典型框架)(30分鐘) 1、 開(kāi)源深度學(xué)習(xí)框架介紹 2、 Caffe深度學(xué)習(xí)框架 3、 TensorFlow深度學(xué)習(xí)框架 |
第13個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架部署與調(diào)試(介紹深度學(xué)習(xí)開(kāi)源框架部署與調(diào)試)(60分鐘) 1、 Caffe安裝部署 2、 案例:Caffe使用介紹 3、 Caffe使用調(diào)試 4、 Caffe配置文件prototxt的編寫(xiě) 5、 Caffe的使用案例分享: a) 圖書(shū)館人流量監(jiān)控系統(tǒng) b) 基于人臉特征的員工識(shí)別系統(tǒng) 6、 TensorFlow安裝部署 7、 案例:TensorFlow使用介紹 8、 TensorFlow使用調(diào)試 |
第14個(gè)主題: 深度學(xué)習(xí)技術(shù)與多媒體信息處理的結(jié)合應(yīng)用(介紹深度學(xué)習(xí)技術(shù)與多媒體信息處理的結(jié)合應(yīng)用、開(kāi)源社區(qū)中的相關(guān)資源介紹與分享)(30分鐘) 1、 機(jī)器學(xué)習(xí)對(duì)視頻認(rèn)知與理解 2、 視頻結(jié)構(gòu)化分析 3、 視頻的處理與表示 4、 基于單幀的識(shí)別方法 5、 基于CNN擴(kuò)展網(wǎng)絡(luò)的識(shí)別方法 6、 雙路CNN的識(shí)別方法 7、 基于LSTM的識(shí)別方法 8、 3維卷積核(3D CNN)法 9、 視頻目標(biāo)檢測(cè)與跟蹤 10、 人物識(shí)別 11、 動(dòng)作識(shí)別 12、 情感語(yǔ)義分析 13、 深度學(xué)習(xí)相關(guān)框架在企業(yè)研發(fā)、設(shè)計(jì)與實(shí)現(xiàn)方面的經(jīng)驗(yàn)分享 14、 基于深度學(xué)習(xí)等技術(shù)面向用戶的研發(fā)經(jīng)驗(yàn)分享 15、 多媒體數(shù)據(jù)處理經(jīng)驗(yàn)分享 |
第15個(gè)主題: 人臉識(shí)別(介紹人臉識(shí)別)(30分鐘) 1、 人臉識(shí)別的工作原理 2、 臉部的長(zhǎng)度和寬度 3、 臉部膚色 4、 臉局部細(xì)節(jié)寬度,如嘴、鼻子等 5、 臉部特征提取 6、 匹配算法 7、 人臉識(shí)別案例 8、 人臉檢測(cè) 9、 人臉識(shí)別算法的應(yīng)用 10、 面部身份驗(yàn)證 11、 用戶服務(wù) 12、 保險(xiǎn)行業(yè) 13、 人臉識(shí)別Python代碼的實(shí)現(xiàn) |
第16個(gè)主題: 視頻識(shí)別(介紹人臉識(shí)別)(30分鐘) 1、 視頻目標(biāo)檢測(cè) 2、 基于單幀的識(shí)別方法 3、 基于CNN擴(kuò)展網(wǎng)絡(luò)的識(shí)別方法 4、 雙路CNN的識(shí)別方法 5、 基于LSTM的識(shí)別方法 6、 3維卷積核(3D CNN)法 |
第17個(gè)主題: 深度學(xué)習(xí)技術(shù)與多媒體信息處理的結(jié)合應(yīng)用(介紹深度學(xué)習(xí)技術(shù)與多媒體信息處理的結(jié)合應(yīng)用、開(kāi)源社區(qū)中的相關(guān)資源介紹與分享)(30分鐘) 1、 機(jī)器學(xué)習(xí)對(duì)視頻認(rèn)知與理解 2、 視頻結(jié)構(gòu)化分析 3、 視頻的處理與表示 4、 基于單幀的識(shí)別方法 5、 基于CNN擴(kuò)展網(wǎng)絡(luò)的識(shí)別方法 6、 雙路CNN的識(shí)別方法 7、 基于LSTM的識(shí)別方法 8、 3維卷積核(3D CNN)法 9、 視頻目標(biāo)檢測(cè)與跟蹤 10、 人物識(shí)別 11、 動(dòng)作識(shí)別 12、 情感語(yǔ)義分析 13、 深度學(xué)習(xí)相關(guān)框架在企業(yè)研發(fā)、設(shè)計(jì)與實(shí)現(xiàn)方面的經(jīng)驗(yàn)分享 14、 基于深度學(xué)習(xí)等技術(shù)面向用戶的研發(fā)經(jīng)驗(yàn)分享 15、 多媒體數(shù)據(jù)處理經(jīng)驗(yàn)分享 |
第18個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架Keras部署(介紹深度學(xué)習(xí)開(kāi)源框架Keras)(30分鐘) 1、 開(kāi)源深度學(xué)習(xí)框架介紹 2、 Keras深度學(xué)習(xí)框架 3、 Keras安裝部署 4、 案例:Keras使用介紹 5、 Keras使用調(diào)試 |
第19個(gè)主題: 深度學(xué)習(xí)開(kāi)源框架Keras(介紹深度學(xué)習(xí)開(kāi)源框Keras)(120分鐘) 1、 Keras介紹 2、 Keras部署 3、 Sequential 順序模型指引 4、 函數(shù)式 API 指引 5、 FAQ 常見(jiàn)問(wèn)題解答 6、 模型 7、 關(guān)于 Keras 模型 8、 Sequential 順序模型 API 9、 函數(shù)式 API 10、 Layers 11、 關(guān)于 Keras 網(wǎng)絡(luò)層 12、 核心網(wǎng)絡(luò)層 13、 卷積層 Convolutional 14、 池化層 Pooling 15、 局部連接層 Locally-connected 16、 循環(huán)層 Recurrent 17、 嵌入層 Embedding 18、 融合層 Merge 19、 高級(jí)激活層 Advanced Activations 20、 標(biāo)準(zhǔn)化層 Normalization 21、 噪聲層 Noise 22、 層封裝器 wrappers 23、 編寫(xiě)你自己的層 24、 數(shù)據(jù)預(yù)處理 25、 序列預(yù)處理 26、 文本預(yù)處理 27、 圖像預(yù)處理 28、 損失函數(shù) Losses 29、 評(píng)估標(biāo)準(zhǔn) Metrics 30、 優(yōu)化器 Optimizers 31、 激活函數(shù) Activations 32、 回調(diào)函數(shù) Callbacks 33、 常用數(shù)據(jù)集 Datasets 34、 預(yù)訓(xùn)練模型 Applications 35、 后端 Backend 36、 初始化 Initializers 37、 正則化 Regularizers 38、 約束 Constraints 39、 可視化 Visualization 40、 Scikit-learn API |
第20個(gè)主題: 模型效果評(píng)估體系(介紹模型評(píng)估理論、方法及指標(biāo))(30分鐘) 1、 數(shù)據(jù)模型評(píng)估方法 2、 訓(xùn)練集 3、 測(cè)試集 4、 訓(xùn)練誤差 5、 交叉驗(yàn)證法 6、 ROC AUC(Area Under ROC Curve) 7、 自助法 8、 留出法 9、 評(píng)估數(shù)據(jù)挖掘模型的性能 10、 評(píng)估數(shù)據(jù)挖掘模型的性能指標(biāo) 11、 切分?jǐn)?shù)據(jù)集合 Data Splitting 12、 手工 k-fold cross validation 13、 模型度量 14、 準(zhǔn)確率(accuracy) 15、 loss-acc曲線 16、 模型質(zhì)量評(píng)估 17、 訓(xùn)練數(shù)據(jù)集與評(píng)估 18、 模型質(zhì)量評(píng)估案例 19、 P-R曲線 20、 綜合評(píng)價(jià)指標(biāo)(F-Measure) 21、 查準(zhǔn)率 22、 查全率 |
第21個(gè)主題: 人工智能在制造企業(yè)應(yīng)用案例(介紹人工智能在制造企業(yè)的融合與應(yīng)用)(30分鐘) 1、 可口可樂(lè)生產(chǎn)制造案例 2、 飲料行業(yè)、食品行業(yè)生產(chǎn)制造案例 3、 數(shù)字化、網(wǎng)絡(luò)化、智能化 4、 整合產(chǎn)業(yè)鏈,高效低成本 5、 消費(fèi)者參與創(chuàng)新,定制化 6、 智能制造 7、 如何架構(gòu)數(shù)字化工廠 8、 德國(guó)工業(yè)4.0 9、 中國(guó)制造2025 10、 美國(guó)工業(yè)互聯(lián)網(wǎng),先進(jìn)制造業(yè)國(guó)家戰(zhàn)略計(jì)劃 11、 日本科技工業(yè)聯(lián)盟 12、 英國(guó)工業(yè)2050戰(zhàn)略 |
第22個(gè)主題: 人工智能在裝備制造領(lǐng)域案例剖析(分享人工智能在裝備制造領(lǐng)域案例)(30分鐘) 1、 融合AI深度學(xué)習(xí)技術(shù) 2、 柔性自動(dòng)化生產(chǎn)線 3、 臺(tái)達(dá)機(jī)電柔性生產(chǎn)線 4、 寶馬自動(dòng)化生產(chǎn)流水線 5、 工業(yè)機(jī)器人 6、 智能裝配機(jī)器人 7、 智能制造產(chǎn)業(yè)鏈 8、 傳感器嵌入式芯片 9、 射頻技術(shù) 10、 傳感器網(wǎng)絡(luò) 11、 物聯(lián)網(wǎng)技術(shù) 12、 智能芯片 13、 能源管理智能化 14、 供應(yīng)鏈管理智能化 15、 設(shè)備智能化 16、 生產(chǎn)智能化 |