課程簡介
眾所周知,人工智能是高級計(jì)算智能最寬泛的概念,機(jī)器學(xué)習(xí)是研究人工智能的一個(gè)工具,深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,是目前研究領(lǐng)域卓有成效的學(xué)習(xí)方法。深度學(xué)習(xí)的框架有很多,而TenforFlow將神經(jīng)網(wǎng)絡(luò)、算法這些平時(shí)停留在理論層面的知識,組織成一個(gè)平臺框架,集合了神經(jīng)網(wǎng)絡(luò)的各個(gè)算法函數(shù)組成一個(gè)工具箱,讓廣大工程師可以專心建造自己的目標(biāo)領(lǐng)域的“輪子”,而且TenforFlow是基于Python語言的,極易上手,這些優(yōu)勢迅速吸引了全世界的工程師。
目標(biāo)收益
1)深度學(xué)習(xí)必備基礎(chǔ)知識點(diǎn)
2)神經(jīng)網(wǎng)絡(luò)模型和神經(jīng)網(wǎng)絡(luò)案例實(shí)戰(zhàn)
3)神經(jīng)網(wǎng)絡(luò)原理詳解及實(shí)戰(zhàn)
4)TensorFlow實(shí)戰(zhàn)自然語言處理-Word2Vec
5)深度學(xué)習(xí)頂級論文算法詳解
培訓(xùn)對象
課程大綱
第一講:深度學(xué)習(xí)必備基礎(chǔ)知識點(diǎn) |
1深度學(xué)習(xí)與人工智能簡介 2計(jì)算機(jī)視覺面臨挑戰(zhàn)與常規(guī)套路 3用K近鄰來進(jìn)行圖像分類 4超參數(shù)與交叉驗(yàn)證 5線性分類 6損失函數(shù) 7正則化懲罰項(xiàng) 8softmax分類器 9最優(yōu)化形象解讀 10梯度下降算法原理 11反向傳播 |
第二講:神經(jīng)網(wǎng)絡(luò)模型和神經(jīng)網(wǎng)絡(luò)案例實(shí)戰(zhàn) |
1神經(jīng)網(wǎng)絡(luò)整體架構(gòu) 2神經(jīng)網(wǎng)絡(luò)模型實(shí)例演示 3過擬合問題解決方案 1Python環(huán)境搭建 2VSCode中搭建python環(huán)境(選自己喜歡的IDE就好) 3深度學(xué)習(xí)入門視頻課程——?jiǎng)邮滞瓿珊唵紊窠?jīng)網(wǎng)絡(luò) 本節(jié)我們動手去寫一個(gè)單層和兩層的神經(jīng)網(wǎng)絡(luò)去整體的了解神經(jīng)網(wǎng)絡(luò)的整體框架。 4感受神經(jīng)網(wǎng)絡(luò)的強(qiáng)大 對比神經(jīng)網(wǎng)絡(luò)去線性分類方法,感受神經(jīng)網(wǎng)絡(luò)的實(shí)際效果 5神經(jīng)網(wǎng)絡(luò)案例-cifar分類任務(wù) 使用簡易神經(jīng)網(wǎng)絡(luò)對cifar數(shù)據(jù)集進(jìn)行分類 6神經(jīng)網(wǎng)絡(luò)案例-分模塊構(gòu)造神經(jīng)網(wǎng)絡(luò) 分模塊構(gòu)造神經(jīng)網(wǎng)絡(luò)的組成部分 7神經(jīng)網(wǎng)絡(luò)案例-訓(xùn)練神經(jīng)網(wǎng)絡(luò)完成分類任務(wù)開始學(xué)習(xí) 配置參數(shù),訓(xùn)練構(gòu)造好的神經(jīng)網(wǎng)絡(luò)去完成圖像分類任務(wù) |
第三講:神經(jīng)網(wǎng)絡(luò)原理詳解及實(shí)戰(zhàn) |
1 感受卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)檢測、圖像分割上能做的事情 2 卷積層詳解 3 卷積計(jì)算流程 4 卷積核參數(shù)分析 5 卷積參數(shù)共享原則 6 池化層(Pooling)原理 7 卷積神經(jīng)網(wǎng)絡(luò)反向傳播原理 8 實(shí)現(xiàn)卷積層的前向傳播與反向傳播 9 實(shí)現(xiàn)Pooling層的前向傳播與反向傳播 10 經(jīng)典卷及網(wǎng)絡(luò)架構(gòu)實(shí)例 11 RNN網(wǎng)絡(luò)結(jié)構(gòu):解析RNN相比于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的不同和應(yīng)用范圍 12 RNN網(wǎng)絡(luò)細(xì)節(jié) 13 python實(shí)現(xiàn)RNN算法 14 LSTM網(wǎng)絡(luò)結(jié)構(gòu)簡介 15 分類與回歸(Location)任務(wù)應(yīng)用詳解 從兩個(gè)最經(jīng)典的問題分類和回歸入手分析卷積神經(jīng)網(wǎng)絡(luò)如何解決這些問題 |
第四講:Tensorflow入門及案例實(shí)戰(zhàn)——Tensorflow基礎(chǔ)操作 |
1 課程簡介 2 Tensor框架的安裝(GPU版本及CPU版本) 3 基本計(jì)算單元-變量 4 常用基本操作 5 構(gòu)造線性回歸模型 6 Mnist數(shù)據(jù)集簡介 7 邏輯回歸框架 8 迭代完成邏輯回歸模型 |
第五講:Tensorflow入門及案例實(shí)戰(zhàn)——Tensorflow實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò) |
1 神經(jīng)網(wǎng)絡(luò)模型架構(gòu):初始化神經(jīng)網(wǎng)絡(luò)模型的參數(shù)以及架構(gòu) 2 訓(xùn)練神經(jīng)網(wǎng)絡(luò) 對定義的網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練完成網(wǎng)絡(luò)的迭代 3 卷積神經(jīng)網(wǎng)絡(luò)模型架構(gòu) 構(gòu)造卷積神經(jīng)網(wǎng)絡(luò)的卷積核以及網(wǎng)絡(luò)架構(gòu) 4 卷積神經(jīng)網(wǎng)絡(luò)模型參數(shù) 詳解卷積神經(jīng)網(wǎng)絡(luò)所涉及的卷積核參數(shù)以及權(quán)重參數(shù)連接 5 模型的保存和讀取 6 加載訓(xùn)練好的VGG網(wǎng)絡(luò)模型 7 使用VGG模型進(jìn)行測試 使用VGG模型進(jìn)行分類的測試以及網(wǎng)絡(luò)模型可視化 8 使用RNN處理Mnist數(shù)據(jù)集 9 RNN網(wǎng)絡(luò)模型 10 訓(xùn)練RNN網(wǎng)絡(luò) |
第六講:TensorFlow與圖像處理 |
1 人臉關(guān)鍵點(diǎn)檢測算法框架 2 多標(biāo)簽數(shù)據(jù)源制作以及標(biāo)簽坐標(biāo)轉(zhuǎn)換 3 對原始數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng) 4 完成第一階段HDF5數(shù)據(jù)源制作 5 第一階段網(wǎng)絡(luò)訓(xùn)練 6 第二三階段網(wǎng)絡(luò)數(shù)據(jù)源制作 7 第二三階段網(wǎng)絡(luò)模型訓(xùn)練 8 網(wǎng)絡(luò)模型參數(shù)初始化 9 完成全部測試結(jié)果 10 人臉關(guān)鍵點(diǎn)檢測效果 11 項(xiàng)目總結(jié)分析 12 算法框架分析 |
第七講:TensorFlow實(shí)戰(zhàn)自然語言處理-Word2Vec |
1 中文數(shù)據(jù)預(yù)處理 2 word2vec模型構(gòu)造 3 構(gòu)造圖計(jì)算模型 4 word2vec訓(xùn)練 5 模型訓(xùn)練模塊 6 迭代預(yù)測效果 案例:情感分類任務(wù) 1 影評情感分類任務(wù)概述 2 基于詞袋模型訓(xùn)練分類器 3 準(zhǔn)備word2vec輸入數(shù)據(jù) 4 使用gensim構(gòu)建word2vec詞向量 |
第八講:深度學(xué)習(xí)頂級論文算法詳解 |
1 檢測通用框架FasterRCNN結(jié)構(gòu)詳解 總結(jié)Faster-Rcnn算法優(yōu)勢和應(yīng)用場景以及和其他算法相比的強(qiáng)勢之處 2 Faster-Rcnn之RPN層詳解 Faster-Rcnn之RPN層原理以及實(shí)現(xiàn)方式解讀 3 Faster-Rcnn整體框架流程 Faster-Rcnn層次結(jié)構(gòu)分析,詳解每一層原理 4 Faster-Rcnn框架實(shí)驗(yàn)結(jié)果評估 對比Faster-Rcnn和Fast-Rcnn效果,分析優(yōu)缺點(diǎn)和實(shí)驗(yàn)效果 5 關(guān)鍵點(diǎn)定位論文算法整體框架 論文Convolutional Pose Machines算法整體框架分析 6 關(guān)鍵點(diǎn)定位論文細(xì)節(jié)實(shí)現(xiàn)解讀 論文Convolutional Pose Machines算法梯度消失問題以及關(guān)鍵點(diǎn)協(xié)同定位方法分析 7 關(guān)鍵點(diǎn)定位論網(wǎng)絡(luò)結(jié)構(gòu)詳解 論文Convolutional Pose Machines算法網(wǎng)絡(luò)結(jié)構(gòu)流程詳解 8 深度殘差網(wǎng)絡(luò)架構(gòu)分析 分析對比深度殘差網(wǎng)絡(luò)和經(jīng)典CNN網(wǎng)絡(luò)之間的差異和傳統(tǒng)深度網(wǎng)絡(luò)的缺陷 9 深度殘差網(wǎng)絡(luò)實(shí)現(xiàn)細(xì)節(jié)開始學(xué)習(xí) 分析論證深度殘差網(wǎng)絡(luò)如何實(shí)現(xiàn)堆疊式的網(wǎng)絡(luò)架構(gòu) |
第一講:深度學(xué)習(xí)必備基礎(chǔ)知識點(diǎn) 1深度學(xué)習(xí)與人工智能簡介 2計(jì)算機(jī)視覺面臨挑戰(zhàn)與常規(guī)套路 3用K近鄰來進(jìn)行圖像分類 4超參數(shù)與交叉驗(yàn)證 5線性分類 6損失函數(shù) 7正則化懲罰項(xiàng) 8softmax分類器 9最優(yōu)化形象解讀 10梯度下降算法原理 11反向傳播 |
第二講:神經(jīng)網(wǎng)絡(luò)模型和神經(jīng)網(wǎng)絡(luò)案例實(shí)戰(zhàn) 1神經(jīng)網(wǎng)絡(luò)整體架構(gòu) 2神經(jīng)網(wǎng)絡(luò)模型實(shí)例演示 3過擬合問題解決方案 1Python環(huán)境搭建 2VSCode中搭建python環(huán)境(選自己喜歡的IDE就好) 3深度學(xué)習(xí)入門視頻課程——?jiǎng)邮滞瓿珊唵紊窠?jīng)網(wǎng)絡(luò) 本節(jié)我們動手去寫一個(gè)單層和兩層的神經(jīng)網(wǎng)絡(luò)去整體的了解神經(jīng)網(wǎng)絡(luò)的整體框架。 4感受神經(jīng)網(wǎng)絡(luò)的強(qiáng)大 對比神經(jīng)網(wǎng)絡(luò)去線性分類方法,感受神經(jīng)網(wǎng)絡(luò)的實(shí)際效果 5神經(jīng)網(wǎng)絡(luò)案例-cifar分類任務(wù) 使用簡易神經(jīng)網(wǎng)絡(luò)對cifar數(shù)據(jù)集進(jìn)行分類 6神經(jīng)網(wǎng)絡(luò)案例-分模塊構(gòu)造神經(jīng)網(wǎng)絡(luò) 分模塊構(gòu)造神經(jīng)網(wǎng)絡(luò)的組成部分 7神經(jīng)網(wǎng)絡(luò)案例-訓(xùn)練神經(jīng)網(wǎng)絡(luò)完成分類任務(wù)開始學(xué)習(xí) 配置參數(shù),訓(xùn)練構(gòu)造好的神經(jīng)網(wǎng)絡(luò)去完成圖像分類任務(wù) |
第三講:神經(jīng)網(wǎng)絡(luò)原理詳解及實(shí)戰(zhàn) 1 感受卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)檢測、圖像分割上能做的事情 2 卷積層詳解 3 卷積計(jì)算流程 4 卷積核參數(shù)分析 5 卷積參數(shù)共享原則 6 池化層(Pooling)原理 7 卷積神經(jīng)網(wǎng)絡(luò)反向傳播原理 8 實(shí)現(xiàn)卷積層的前向傳播與反向傳播 9 實(shí)現(xiàn)Pooling層的前向傳播與反向傳播 10 經(jīng)典卷及網(wǎng)絡(luò)架構(gòu)實(shí)例 11 RNN網(wǎng)絡(luò)結(jié)構(gòu):解析RNN相比于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的不同和應(yīng)用范圍 12 RNN網(wǎng)絡(luò)細(xì)節(jié) 13 python實(shí)現(xiàn)RNN算法 14 LSTM網(wǎng)絡(luò)結(jié)構(gòu)簡介 15 分類與回歸(Location)任務(wù)應(yīng)用詳解 從兩個(gè)最經(jīng)典的問題分類和回歸入手分析卷積神經(jīng)網(wǎng)絡(luò)如何解決這些問題 |
第四講:Tensorflow入門及案例實(shí)戰(zhàn)——Tensorflow基礎(chǔ)操作 1 課程簡介 2 Tensor框架的安裝(GPU版本及CPU版本) 3 基本計(jì)算單元-變量 4 常用基本操作 5 構(gòu)造線性回歸模型 6 Mnist數(shù)據(jù)集簡介 7 邏輯回歸框架 8 迭代完成邏輯回歸模型 |
第五講:Tensorflow入門及案例實(shí)戰(zhàn)——Tensorflow實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò) 1 神經(jīng)網(wǎng)絡(luò)模型架構(gòu):初始化神經(jīng)網(wǎng)絡(luò)模型的參數(shù)以及架構(gòu) 2 訓(xùn)練神經(jīng)網(wǎng)絡(luò) 對定義的網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練完成網(wǎng)絡(luò)的迭代 3 卷積神經(jīng)網(wǎng)絡(luò)模型架構(gòu) 構(gòu)造卷積神經(jīng)網(wǎng)絡(luò)的卷積核以及網(wǎng)絡(luò)架構(gòu) 4 卷積神經(jīng)網(wǎng)絡(luò)模型參數(shù) 詳解卷積神經(jīng)網(wǎng)絡(luò)所涉及的卷積核參數(shù)以及權(quán)重參數(shù)連接 5 模型的保存和讀取 6 加載訓(xùn)練好的VGG網(wǎng)絡(luò)模型 7 使用VGG模型進(jìn)行測試 使用VGG模型進(jìn)行分類的測試以及網(wǎng)絡(luò)模型可視化 8 使用RNN處理Mnist數(shù)據(jù)集 9 RNN網(wǎng)絡(luò)模型 10 訓(xùn)練RNN網(wǎng)絡(luò) |
第六講:TensorFlow與圖像處理 1 人臉關(guān)鍵點(diǎn)檢測算法框架 2 多標(biāo)簽數(shù)據(jù)源制作以及標(biāo)簽坐標(biāo)轉(zhuǎn)換 3 對原始數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng) 4 完成第一階段HDF5數(shù)據(jù)源制作 5 第一階段網(wǎng)絡(luò)訓(xùn)練 6 第二三階段網(wǎng)絡(luò)數(shù)據(jù)源制作 7 第二三階段網(wǎng)絡(luò)模型訓(xùn)練 8 網(wǎng)絡(luò)模型參數(shù)初始化 9 完成全部測試結(jié)果 10 人臉關(guān)鍵點(diǎn)檢測效果 11 項(xiàng)目總結(jié)分析 12 算法框架分析 |
第七講:TensorFlow實(shí)戰(zhàn)自然語言處理-Word2Vec 1 中文數(shù)據(jù)預(yù)處理 2 word2vec模型構(gòu)造 3 構(gòu)造圖計(jì)算模型 4 word2vec訓(xùn)練 5 模型訓(xùn)練模塊 6 迭代預(yù)測效果 案例:情感分類任務(wù) 1 影評情感分類任務(wù)概述 2 基于詞袋模型訓(xùn)練分類器 3 準(zhǔn)備word2vec輸入數(shù)據(jù) 4 使用gensim構(gòu)建word2vec詞向量 |
第八講:深度學(xué)習(xí)頂級論文算法詳解 1 檢測通用框架FasterRCNN結(jié)構(gòu)詳解 總結(jié)Faster-Rcnn算法優(yōu)勢和應(yīng)用場景以及和其他算法相比的強(qiáng)勢之處 2 Faster-Rcnn之RPN層詳解 Faster-Rcnn之RPN層原理以及實(shí)現(xiàn)方式解讀 3 Faster-Rcnn整體框架流程 Faster-Rcnn層次結(jié)構(gòu)分析,詳解每一層原理 4 Faster-Rcnn框架實(shí)驗(yàn)結(jié)果評估 對比Faster-Rcnn和Fast-Rcnn效果,分析優(yōu)缺點(diǎn)和實(shí)驗(yàn)效果 5 關(guān)鍵點(diǎn)定位論文算法整體框架 論文Convolutional Pose Machines算法整體框架分析 6 關(guān)鍵點(diǎn)定位論文細(xì)節(jié)實(shí)現(xiàn)解讀 論文Convolutional Pose Machines算法梯度消失問題以及關(guān)鍵點(diǎn)協(xié)同定位方法分析 7 關(guān)鍵點(diǎn)定位論網(wǎng)絡(luò)結(jié)構(gòu)詳解 論文Convolutional Pose Machines算法網(wǎng)絡(luò)結(jié)構(gòu)流程詳解 8 深度殘差網(wǎng)絡(luò)架構(gòu)分析 分析對比深度殘差網(wǎng)絡(luò)和經(jīng)典CNN網(wǎng)絡(luò)之間的差異和傳統(tǒng)深度網(wǎng)絡(luò)的缺陷 9 深度殘差網(wǎng)絡(luò)實(shí)現(xiàn)細(xì)節(jié)開始學(xué)習(xí) 分析論證深度殘差網(wǎng)絡(luò)如何實(shí)現(xiàn)堆疊式的網(wǎng)絡(luò)架構(gòu) |