解析深度學習:卷積神經(jīng)網(wǎng)絡原理與視覺實踐
定 價:79 元
- 作者:魏秀參
- 出版時間:2018/11/1
- ISBN:9787121345289
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP181
- 頁碼:200
- 紙張:
- 版次:01
- 開本:16開
深度學習,特別是深度卷積神經(jīng)網(wǎng)絡是人工智能的重要分支領(lǐng)域,卷積神經(jīng)網(wǎng)絡技術(shù)也被廣泛應用于各種現(xiàn)實場景,在許多問題上都取得了超越人類智能的結(jié)果。本書作為該領(lǐng)域的入門書籍,在內(nèi)容上涵蓋深度卷積神經(jīng)網(wǎng)絡的基礎知識和實踐應用兩大方面。全書共14 章,分為三個部分:第一部分為緒論;第二部分(第1~4 章)介紹卷積神經(jīng)網(wǎng)絡的基礎知識、基本部件、經(jīng)典結(jié)構(gòu)和模型壓縮等基礎理論內(nèi)容;第三部分(第5~14 章)介紹深度卷積神經(jīng)網(wǎng)絡自數(shù)據(jù)準備開始,到模型參數(shù)初始化、不同網(wǎng)絡部件的選擇、網(wǎng)絡配置、網(wǎng)絡模型訓練、不平衡數(shù)據(jù)處理,最終到模型集成等實踐應用技巧和經(jīng)驗。本書并不是一本編程類書籍,而是希望通過“基礎知識”和“實踐技巧”兩方面使讀者從更高維度了解、掌握并成功構(gòu)建針對自身應用問題的深度卷積神經(jīng)網(wǎng)絡。本書可作為深度學習和卷積神經(jīng)網(wǎng)絡愛好者的入門書籍,也可供沒有機器學習背景但希望能快速掌握該方面知識并將其應用于實際問題的各行從業(yè)者閱讀參考。
魏秀參,南京大學計算機科學與技術(shù)系博士,主要關(guān)注方向為深度學習、計算機視覺、卷積神經(jīng)網(wǎng)絡。曾于澳大利亞阿德萊德大學學習深造。
第一部分緒論 / 1
第二部分基礎理論篇 / 9
1 卷積神經(jīng)網(wǎng)絡基礎知識 / 10
1.1 發(fā)展歷程 / 11
1.2 基本結(jié)構(gòu) / 13
1.3 前饋運算 / 16
1.4 反饋運算 / 16
1.5 小結(jié) / 19
2 卷積神經(jīng)網(wǎng)絡基本部件/ 21
2.1 “端到端”思想/21
2.2 網(wǎng)絡符號定義/ 23
2.3 卷積層/24
2.3.1 什么是卷積/ 24
2.3.2 卷積操作的作用/27
2.4 匯合層/28
2.4.1 什么是匯合/ 29
2.4.2 匯合操作的作用/30
2.5 激活函數(shù)/ 31
2.6 全連接層/ 33
2.7 目標函數(shù)/ 34
2.8 小結(jié)/ 34
3 卷積神經(jīng)網(wǎng)絡經(jīng)典結(jié)構(gòu)/ 35
3.1 CNN 網(wǎng)絡結(jié)構(gòu)中的重要概念/35
3.1.1 感受野/ 35
3.1.2 分布式表示/ 37
3.1.3 深度特征的層次性 /39
3.2 經(jīng)典網(wǎng)絡案例分析/42
3.2.1 Alex-Net 網(wǎng)絡模型/ 42
3.2.2 VGG-Nets 網(wǎng)絡模型/46
3.2.3 Network-In-Network /48
3.2.4 殘差網(wǎng)絡模型/49
3.3 小結(jié)/ 54
4 卷積神經(jīng)網(wǎng)絡的壓縮/ 56
4.1 低秩近似/ 58
4.2 剪枝與稀疏約束/60
4.3 參數(shù)量化/ 64
4.4 二值網(wǎng)絡/ 68
4.5 知識蒸餾/ 71
4.6 緊湊的網(wǎng)絡結(jié)構(gòu)//74
4.7 小結(jié)/ 76
第三部分實踐應用篇/ 77
5 數(shù)據(jù)擴充/ 78
5.1 簡單的數(shù)據(jù)擴充方式/78
5.2 特殊的數(shù)據(jù)擴充方式/80
5.2.1 Fancy PCA /80
5.2.2 監(jiān)督式數(shù)據(jù)擴充/80
5.3 小結(jié)/ 82
6 數(shù)據(jù)預處理/ 83
7 網(wǎng)絡參數(shù)初始化/ 85
7.1 全零初始化/86
7.2 隨機初始化/86
7.3 其他初始化方法/89
7.4 小結(jié)/ 90
8 激活函數(shù)/ 91
8.1 Sigmoid 型函數(shù)/ 92
8.2 tanh(x) 型函數(shù)/ 93
8.3 修正線性單元(ReLU) /93
8.4 Leaky ReLU /94
8.5 參數(shù)化ReLU /95
8.6 隨機化ReLU /97
8.7 指數(shù)化線性單元(ELU)/ 98
8.8 小結(jié)/ 99
9 目標函數(shù)100
9.1 分類任務的目標函數(shù)/100
9.1.1 交叉熵損失函數(shù)/101
9.1.2 合頁損失函數(shù)/101
9.1.3 坡道損失函數(shù)/101
9.1.4 大間隔交叉熵損失函數(shù)/ 103
9.1.5 中心損失函數(shù)/105
9.2 回歸任務的目標函數(shù)//107
9.2.1 ?1 損失函數(shù)/ 108
9.2.2 ?2 損失函數(shù)/ 108
9.2.3 Tukey’s biweight 損失函數(shù)/109
9.3 其他任務的目標函數(shù)//109
9.4 小結(jié)/ 111
10 網(wǎng)絡正則化/ 113
10.1 ?2 正則化/ 114
10.2 ?1 正則化/ 115
10.3 最大范數(shù)約束/ 115
10.4 隨機失活/ 116
10.5 驗證集的使用/ 118
10.6 小結(jié)/ 119
11 超參數(shù)設定和網(wǎng)絡訓練/ 120
11.1 網(wǎng)絡超參數(shù)設定/120
11.1.1 輸入數(shù)據(jù)像素大小/120
11.1.2 卷積層參數(shù)的設定/121
11.1.3 匯合層參數(shù)的設定/122
11.2 訓練技巧/ 123
11.2.1 訓練數(shù)據(jù)隨機打亂/123
11.2.2 學習率的設定/123
11.2.3 批規(guī)范化操作/125
11.2.4 網(wǎng)絡模型優(yōu)化算法選擇/ 127
11.2.5 微調(diào)神經(jīng)網(wǎng)絡/132
11.3 小結(jié)/ 133
12 不平衡樣本的處理/ 135
12.1 數(shù)據(jù)層面處理方法/136
12.1.1 數(shù)據(jù)重采樣/ 136
12.1.2 類別平衡采樣/137
12.2 算法層面處理方法/138
12.2.1 代價敏感方法/139
12.2.2 代價敏感法中權(quán)重的指定方式/140
12.3 小結(jié) / 142
13 模型集成方法/ 143
13.1 數(shù)據(jù)層面的集成方法/143
13.1.1 測試階段數(shù)據(jù)擴充/143
13.1.2 “簡易集成”法/144
13.2 模型層面的集成方法/144
13.2.1 單模型集成/ 144
13.2.2 多模型集成/ 146
13.3 小結(jié)/ 149
14 深度學習開源工具簡介/ 151
14.1 常用框架對比/ 151
14.2 常用框架的各自特點/153
14.2.1 Caffe /153
14.2.2 Deeplearning4j /153
14.2.3 Keras /154
14.2.4 MXNet / 155
14.2.5 MatConvNet / 155
14.2.6 TensorFlow /155
14.2.7 Theano / 156
14.2.8 Torch /157
A 向量、矩陣及其基本運算/ 158
B 隨機梯度下降/ 162
C 鏈式法則/ 165
參考文獻/ 167
索引/ 181