課程簡介
深度學習的核心是算法,方法是算法的實現(xiàn),工具是各種深度學習框架
目標收益
1. 深度學習核心原理(很重要,占50%)
講解深度學習運行的最核心算法原理與基礎知識
為之后的代碼實現(xiàn)與應用打下堅實的基礎
2. 深度學習核心算法實現(xiàn)(占20%)
根據(jù)算法原理,用代碼實現(xiàn)不同的神經(jīng)網(wǎng)絡
讓你看到深度學習的實際運用
3. 各大主流深度學習框架
(以Tensorflow 為主,占30%)
講解深度學習運行的最核心算法原理與基礎知識
為之后的代碼實現(xiàn)與應用打下堅實的基礎
培訓對象
希望對深度學習了解的技術人員
深度學習初級從業(yè)人員
課程大綱
一 課程介紹 |
1.課程概述 2.課前準備 3.深度學習簡介—-神經(jīng)元 4.深度學習簡介—-激勵函數(shù) 5.深度學習簡介—-神經(jīng)網(wǎng)絡/深度神經(jīng)網(wǎng)絡 6.深度學習為什么這么強 7.深度學習的應用 |
二 前饋神經(jīng)網(wǎng)絡 |
1.網(wǎng)絡結(jié)構(gòu) 2.網(wǎng)絡結(jié)構(gòu) 代碼實現(xiàn) 3.線性回歸的訓練--樣本,開始訓練 4.線性回歸的訓練--梯度下降法,一元凸函數(shù) 5.線性回歸的訓練--二元凸函數(shù) 6.神經(jīng)網(wǎng)絡的訓練--前向傳播 7 神經(jīng)網(wǎng)絡的訓練--前向傳播 代碼實現(xiàn) 8.神經(jīng)網(wǎng)絡的訓練--反向更新 9.神經(jīng)網(wǎng)絡的訓練--反向更新 代碼實現(xiàn) 10.神經(jīng)網(wǎng)絡的訓練--隨機梯度下降 11.神經(jīng)網(wǎng)絡的訓練--隨機梯度下降 代碼實現(xiàn) 12.應用案例—-前饋神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別 |
三 提高神經(jīng)網(wǎng)絡的學習效率 |
1.并行計算 2.梯度消失問題 3.歸一化 4.參數(shù)的初始化問題 5.參數(shù)的初始化問題 代碼實現(xiàn) 6.正則化 7.正則化 代碼實現(xiàn) 8.學習率和dropout 9.交叉熵 10.交叉熵 代碼實現(xiàn) 11.模型的保存和加載及代碼實現(xiàn) 12.應用案例—-提高版本的前饋神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別 |
四 卷積神經(jīng)網(wǎng)絡 |
1.與全連接網(wǎng)絡的對比 2.全連接層GPU實現(xiàn) 代碼實現(xiàn) 3.卷積核 4.卷積層其他參數(shù) 5.池化層 6.卷積池化層 代碼實現(xiàn) 7.典型的cnn網(wǎng)絡 8.圖片識別 9.softmax 10.softmax層 代碼實現(xiàn) 11.應用案例—-卷積神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別 |
五 tensorflow |
1.tensorflow簡介 2.tensorflow如何選擇好的框架 3.多環(huán)境與集群支持 4.應用案例—-tensorflow版本的線性回歸的實現(xiàn) 5.tensorboard 6.tensorboard 使用演示 7.訓練模型的加載與保存 8.應用案例—-tensorflow版本的手寫數(shù)字識別 |
六.cnn對圖片分類(CIFAR-10) |
1.簡介 2.tensorflow單GPU版本 3.tensorflow多GPU版本 |
七 其他框架是怎么做的 |
1.caffe應用對比 2.keras應用對比 |
一 課程介紹 1.課程概述 2.課前準備 3.深度學習簡介—-神經(jīng)元 4.深度學習簡介—-激勵函數(shù) 5.深度學習簡介—-神經(jīng)網(wǎng)絡/深度神經(jīng)網(wǎng)絡 6.深度學習為什么這么強 7.深度學習的應用 |
二 前饋神經(jīng)網(wǎng)絡 1.網(wǎng)絡結(jié)構(gòu) 2.網(wǎng)絡結(jié)構(gòu) 代碼實現(xiàn) 3.線性回歸的訓練--樣本,開始訓練 4.線性回歸的訓練--梯度下降法,一元凸函數(shù) 5.線性回歸的訓練--二元凸函數(shù) 6.神經(jīng)網(wǎng)絡的訓練--前向傳播 7 神經(jīng)網(wǎng)絡的訓練--前向傳播 代碼實現(xiàn) 8.神經(jīng)網(wǎng)絡的訓練--反向更新 9.神經(jīng)網(wǎng)絡的訓練--反向更新 代碼實現(xiàn) 10.神經(jīng)網(wǎng)絡的訓練--隨機梯度下降 11.神經(jīng)網(wǎng)絡的訓練--隨機梯度下降 代碼實現(xiàn) 12.應用案例—-前饋神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別 |
三 提高神經(jīng)網(wǎng)絡的學習效率 1.并行計算 2.梯度消失問題 3.歸一化 4.參數(shù)的初始化問題 5.參數(shù)的初始化問題 代碼實現(xiàn) 6.正則化 7.正則化 代碼實現(xiàn) 8.學習率和dropout 9.交叉熵 10.交叉熵 代碼實現(xiàn) 11.模型的保存和加載及代碼實現(xiàn) 12.應用案例—-提高版本的前饋神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別 |
四 卷積神經(jīng)網(wǎng)絡 1.與全連接網(wǎng)絡的對比 2.全連接層GPU實現(xiàn) 代碼實現(xiàn) 3.卷積核 4.卷積層其他參數(shù) 5.池化層 6.卷積池化層 代碼實現(xiàn) 7.典型的cnn網(wǎng)絡 8.圖片識別 9.softmax 10.softmax層 代碼實現(xiàn) 11.應用案例—-卷積神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別 |
五 tensorflow 1.tensorflow簡介 2.tensorflow如何選擇好的框架 3.多環(huán)境與集群支持 4.應用案例—-tensorflow版本的線性回歸的實現(xiàn) 5.tensorboard 6.tensorboard 使用演示 7.訓練模型的加載與保存 8.應用案例—-tensorflow版本的手寫數(shù)字識別 |
六.cnn對圖片分類(CIFAR-10) 1.簡介 2.tensorflow單GPU版本 3.tensorflow多GPU版本 |
七 其他框架是怎么做的 1.caffe應用對比 2.keras應用對比 |