課程費用

6800.00 /人

課程時長

2

成為教練

課程簡介

深度學習的核心是算法,方法是算法的實現(xiàn),工具是各種深度學習框架

目標收益

1. 深度學習核心原理(很重要,占50%)
講解深度學習運行的最核心算法原理與基礎知識
為之后的代碼實現(xiàn)與應用打下堅實的基礎
2. 深度學習核心算法實現(xiàn)(占20%)
根據(jù)算法原理,用代碼實現(xiàn)不同的神經(jīng)網(wǎng)絡
讓你看到深度學習的實際運用
3. 各大主流深度學習框架
(以Tensorflow 為主,占30%)
講解深度學習運行的最核心算法原理與基礎知識
為之后的代碼實現(xiàn)與應用打下堅實的基礎

培訓對象

希望對深度學習了解的技術人員
深度學習初級從業(yè)人員

課程大綱

一 課程介紹 1.課程概述
2.課前準備
3.深度學習簡介—-神經(jīng)元
4.深度學習簡介—-激勵函數(shù)
5.深度學習簡介—-神經(jīng)網(wǎng)絡/深度神經(jīng)網(wǎng)絡
6.深度學習為什么這么強
7.深度學習的應用
二 前饋神經(jīng)網(wǎng)絡 1.網(wǎng)絡結(jié)構(gòu)
2.網(wǎng)絡結(jié)構(gòu) 代碼實現(xiàn)
3.線性回歸的訓練--樣本,開始訓練
4.線性回歸的訓練--梯度下降法,一元凸函數(shù)
5.線性回歸的訓練--二元凸函數(shù)
6.神經(jīng)網(wǎng)絡的訓練--前向傳播
7 神經(jīng)網(wǎng)絡的訓練--前向傳播 代碼實現(xiàn)
8.神經(jīng)網(wǎng)絡的訓練--反向更新
9.神經(jīng)網(wǎng)絡的訓練--反向更新 代碼實現(xiàn)
10.神經(jīng)網(wǎng)絡的訓練--隨機梯度下降
11.神經(jīng)網(wǎng)絡的訓練--隨機梯度下降 代碼實現(xiàn)
12.應用案例—-前饋神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別
三 提高神經(jīng)網(wǎng)絡的學習效率

1.并行計算
2.梯度消失問題
3.歸一化
4.參數(shù)的初始化問題
5.參數(shù)的初始化問題 代碼實現(xiàn)
6.正則化
7.正則化 代碼實現(xiàn)
8.學習率和dropout
9.交叉熵
10.交叉熵 代碼實現(xiàn)
11.模型的保存和加載及代碼實現(xiàn)
12.應用案例—-提高版本的前饋神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別

四 卷積神經(jīng)網(wǎng)絡 1.與全連接網(wǎng)絡的對比
2.全連接層GPU實現(xiàn) 代碼實現(xiàn)
3.卷積核
4.卷積層其他參數(shù)
5.池化層
6.卷積池化層 代碼實現(xiàn)
7.典型的cnn網(wǎng)絡
8.圖片識別
9.softmax
10.softmax層 代碼實現(xiàn)
11.應用案例—-卷積神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別
五 tensorflow 1.tensorflow簡介
2.tensorflow如何選擇好的框架
3.多環(huán)境與集群支持
4.應用案例—-tensorflow版本的線性回歸的實現(xiàn)
5.tensorboard
6.tensorboard 使用演示
7.訓練模型的加載與保存
8.應用案例—-tensorflow版本的手寫數(shù)字識別
六.cnn對圖片分類(CIFAR-10) 1.簡介
2.tensorflow單GPU版本
3.tensorflow多GPU版本
七 其他框架是怎么做的 1.caffe應用對比
2.keras應用對比
一 課程介紹
1.課程概述
2.課前準備
3.深度學習簡介—-神經(jīng)元
4.深度學習簡介—-激勵函數(shù)
5.深度學習簡介—-神經(jīng)網(wǎng)絡/深度神經(jīng)網(wǎng)絡
6.深度學習為什么這么強
7.深度學習的應用
二 前饋神經(jīng)網(wǎng)絡
1.網(wǎng)絡結(jié)構(gòu)
2.網(wǎng)絡結(jié)構(gòu) 代碼實現(xiàn)
3.線性回歸的訓練--樣本,開始訓練
4.線性回歸的訓練--梯度下降法,一元凸函數(shù)
5.線性回歸的訓練--二元凸函數(shù)
6.神經(jīng)網(wǎng)絡的訓練--前向傳播
7 神經(jīng)網(wǎng)絡的訓練--前向傳播 代碼實現(xiàn)
8.神經(jīng)網(wǎng)絡的訓練--反向更新
9.神經(jīng)網(wǎng)絡的訓練--反向更新 代碼實現(xiàn)
10.神經(jīng)網(wǎng)絡的訓練--隨機梯度下降
11.神經(jīng)網(wǎng)絡的訓練--隨機梯度下降 代碼實現(xiàn)
12.應用案例—-前饋神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別
三 提高神經(jīng)網(wǎng)絡的學習效率


1.并行計算
2.梯度消失問題
3.歸一化
4.參數(shù)的初始化問題
5.參數(shù)的初始化問題 代碼實現(xiàn)
6.正則化
7.正則化 代碼實現(xiàn)
8.學習率和dropout
9.交叉熵
10.交叉熵 代碼實現(xiàn)
11.模型的保存和加載及代碼實現(xiàn)
12.應用案例—-提高版本的前饋神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別

四 卷積神經(jīng)網(wǎng)絡
1.與全連接網(wǎng)絡的對比
2.全連接層GPU實現(xiàn) 代碼實現(xiàn)
3.卷積核
4.卷積層其他參數(shù)
5.池化層
6.卷積池化層 代碼實現(xiàn)
7.典型的cnn網(wǎng)絡
8.圖片識別
9.softmax
10.softmax層 代碼實現(xiàn)
11.應用案例—-卷積神經(jīng)網(wǎng)絡代碼的手寫數(shù)字識別
五 tensorflow
1.tensorflow簡介
2.tensorflow如何選擇好的框架
3.多環(huán)境與集群支持
4.應用案例—-tensorflow版本的線性回歸的實現(xiàn)
5.tensorboard
6.tensorboard 使用演示
7.訓練模型的加載與保存
8.應用案例—-tensorflow版本的手寫數(shù)字識別
六.cnn對圖片分類(CIFAR-10)
1.簡介
2.tensorflow單GPU版本
3.tensorflow多GPU版本
七 其他框架是怎么做的
1.caffe應用對比
2.keras應用對比

活動詳情

提交需求