機(jī)器學(xué)習(xí)及工業(yè)大數(shù)據(jù)解析應(yīng)用
定 價(jià):168 元
當(dāng)前圖書(shū)已被 1 所學(xué)校薦購(gòu)過(guò)!
查看明細(xì)
- 作者:彭開(kāi)香
- 出版時(shí)間:2025/3/1
- ISBN:9787030804389
- 出 版 社:科學(xué)出版社
- 中圖法分類(lèi):F407.4
- 頁(yè)碼:415
- 紙張:
- 版次:1
- 開(kāi)本:B5
本書(shū)作為機(jī)器學(xué)習(xí)及工業(yè)大數(shù)據(jù)解析領(lǐng)域的入門(mén)教材,在內(nèi)容設(shè)置上盡可能涵蓋該研究領(lǐng)域基礎(chǔ)知識(shí)的各個(gè)方面。全書(shū)共28章,分為六篇。其中第一篇為概論篇;第二篇為有監(jiān)督學(xué)習(xí)篇;第三篇為無(wú)監(jiān)督學(xué)習(xí)篇;第四篇為半監(jiān)督學(xué)習(xí)篇;第五篇為深度學(xué)習(xí)篇;第六篇為大數(shù)據(jù)解析篇。每章都附有繼續(xù)閱讀和參考文獻(xiàn),以便有興趣的讀者進(jìn)一步鉆研探索。
更多科學(xué)出版社服務(wù),請(qǐng)掃碼獲取。
1991 年 9 月-1995 年 7 月,北京科技大學(xué)自動(dòng)化信息工程學(xué)院工業(yè)自動(dòng)化專(zhuān)業(yè)學(xué)習(xí),獲工學(xué)
學(xué)士學(xué)位
1999 年 9 月-2002 年 3 月,北京科技大學(xué)信息工程學(xué)院控制理論與控制工程專(zhuān)業(yè)學(xué)習(xí),獲工
學(xué)碩士學(xué)位
2002 年 9 月-2007 年 6 月,北京科技大學(xué)信息工程學(xué)院控制理論與控制工程專(zhuān)業(yè)學(xué)習(xí),獲工
學(xué)博士學(xué)位2013 年 9 月至今,北京科技大學(xué)自動(dòng)化學(xué)院控制科學(xué)與工程系,教授/博士生導(dǎo)師
2011 年 1 月-2013 年 8 月,北京科技大學(xué)自動(dòng)化學(xué)院自動(dòng)控制研究所,副教授
2009 年 4 月-2011 年 3 月,清華大學(xué)自動(dòng)化系,博士后
2005 年 7 月-2010 年 12 月,北京科技大學(xué)信息工程學(xué)院自動(dòng)控制研究所,副教授
2000 年 7 月-2005 年 6 月,北京科技大學(xué)信息工程學(xué)院自動(dòng)控制研究所,助理研究員
1995 年 8 月-2000 年 6 月,北京科技大學(xué)科研處,實(shí)習(xí)研究員(1)國(guó)家重點(diǎn)研發(fā)計(jì)劃項(xiàng)目“數(shù)據(jù)驅(qū)動(dòng)的制造過(guò)程閉環(huán)控制分析與優(yōu)化方法研究”,負(fù)責(zé)人(本書(shū)依托項(xiàng)目);中國(guó)金屬學(xué)會(huì)冶金自動(dòng)化分會(huì)副主任委員;北京市金屬學(xué)會(huì)計(jì)算機(jī)與自動(dòng)化分會(huì)主任;中國(guó)
人工智能學(xué)會(huì)智能產(chǎn)品與產(chǎn)業(yè)工作委員會(huì)常務(wù)委員;中國(guó)人工智能與機(jī)器人教育專(zhuān)委會(huì)理事;
中國(guó)自動(dòng)化學(xué)會(huì)過(guò)程控制專(zhuān)業(yè)委員會(huì)委員;中國(guó)自動(dòng)化學(xué)會(huì)技術(shù)過(guò)程故障診斷與安全性專(zhuān)業(yè)
委員會(huì)委員;IEEE SMC 北京分會(huì)副主席
目錄
前言
第一篇 概論篇
第1章 緒論 3
1.1 機(jī)器學(xué)習(xí)簡(jiǎn)介 3
1.2 機(jī)器學(xué)習(xí)與人工智能 3
1.3 機(jī)器學(xué)習(xí)的主要研究領(lǐng)域 4
1.4 機(jī)器學(xué)習(xí)的發(fā)展歷史與發(fā)展趨勢(shì) 5
1.4.1 機(jī)器學(xué)習(xí)的發(fā)展歷史 5
1.4.2 機(jī)器學(xué)習(xí)的發(fā)展趨勢(shì) 7
1.5 機(jī)器學(xué)習(xí)系統(tǒng)的基本結(jié)構(gòu) 8
1.5.1 數(shù)據(jù) 8
1.5.2 模型 9
1.5.3 損失函數(shù) 11
1.5.4 訓(xùn)練 13
1.6 模型評(píng)估與模型選擇 14
1.6.1 訓(xùn)練誤差與測(cè)試誤差 14
1.6.2 過(guò)擬合與模型選擇 14
1.7 正則化與交叉驗(yàn)證 15
1.7.1 正則化 15
1.7.2 交叉驗(yàn)證 16
1.8 泛化能力 17
1.8.1 泛化誤差 17
1.8.2 泛化誤差上界 18
1.9 機(jī)器學(xué)習(xí)的基本術(shù)語(yǔ) 18
1.9.1 假設(shè)空間 18
1.9.2 變形空間 19
1.9.3 歸納偏置 20
1.10 機(jī)器學(xué)習(xí)的分類(lèi) 20
iv 機(jī)器學(xué)習(xí)及工業(yè)大數(shù)據(jù)解析應(yīng)用
1.10.1 有監(jiān)督學(xué)習(xí) 21
1.10.2 無(wú)監(jiān)督學(xué)習(xí) 22
1.10.3 半監(jiān)督學(xué)習(xí) 23
1.10.4 深度學(xué)習(xí) 25
1.11 工業(yè)大數(shù)據(jù)解析統(tǒng)計(jì)學(xué)基礎(chǔ) 25
1.11.1 期望、方差、協(xié)方差 25
1.11.2 一元高斯分布 26
1.11.3 多元高斯分布 27
繼續(xù)閱讀 27
參考文獻(xiàn) 27
第2章 概念學(xué)習(xí)和一般到特殊序 29
2.1 概念學(xué)習(xí)的定義 29
2.2 概念學(xué)習(xí)的術(shù)語(yǔ) 29
2.3 歸納學(xué)習(xí)假設(shè) 33
2.4 假設(shè)的一般到特殊序 34
2.5 尋找極大特殊假設(shè) 34
2.5.1 候選消除算法的表示 35
2.5.2 列表后消除算法 36
2.5.3 變形空間的簡(jiǎn)潔表示 37
2.5.4 候選消除學(xué)習(xí)算法 38
2.6 歸納偏置 38
2.6.1 有偏的假設(shè)空間 39
2.6.2 無(wú)偏學(xué)習(xí)器 39
2.6.3 無(wú)偏學(xué)習(xí)的無(wú)用性 39
繼續(xù)閱讀 40
參考文獻(xiàn) 40
第二篇 有監(jiān)督學(xué)習(xí)篇
第3章 感知機(jī) 43
3.1 感知機(jī)學(xué)習(xí)模型 43
3.2 感知機(jī)學(xué)習(xí)策略 44
3.2.1 數(shù)據(jù)集的線(xiàn)性可分性 44
3.2.2 學(xué)習(xí)策略 44
3.3 感知機(jī)學(xué)習(xí)算法 45
3.3.1 感知機(jī)學(xué)習(xí)算法的一般形式 45
3.3.2 感知機(jī)學(xué)習(xí)算法的收斂性 46
繼續(xù)閱讀 47
參考文獻(xiàn) 47
第4章 k 近鄰算法及模型 49
4.1 k 近鄰算法 49
4.2 k 近鄰模型 50
4.2.1 模型 50
4.2.2 距離度量 50
4.2.3 k 值的選擇 51
4.2.4 分類(lèi)決策規(guī)則 52
4.3 k 近鄰算法的實(shí)現(xiàn) 52
4.3.1 構(gòu)造kd樹(shù) 53
4.3.2 搜索kd樹(shù) 54
繼續(xù)閱讀 55
參考文獻(xiàn) 55
第5章 決策樹(shù) 56
5.1 決策樹(shù)模型與學(xué)習(xí) 56
5.1.1 決策樹(shù)模型 56
5.1.2 決策樹(shù)與if-then規(guī)則 56
5.1.3 決策樹(shù)與條件概率分布 57
5.1.4 決策樹(shù)學(xué)習(xí) 57
5.2 決策樹(shù)方法的產(chǎn)生及算法過(guò)程 58
5.2.1 ID3算法 58
5.2.2 CART算法 59
5.2.3 C4.5算法 61
5.3 決策樹(shù)常見(jiàn)問(wèn)題 61
5.3.1 熵、信息增益和特征選擇問(wèn)題 61
5.3.2 決策樹(shù)學(xué)習(xí)過(guò)擬合問(wèn)題 64
5.3.3 交叉驗(yàn)證與樹(shù)的修剪問(wèn)題 65
5.3.4 最佳劃分的度量問(wèn)題 66
5.3.5 處理缺失屬性值問(wèn)題 67
5.3.6 處理連續(xù)屬性值問(wèn)題 68
5.3.7 葉節(jié)點(diǎn)判定問(wèn)題 68
5.3.8 待測(cè)樣本分類(lèi)問(wèn)題 68
繼續(xù)閱讀 69
參考文獻(xiàn) 69
第6章 集成學(xué)習(xí) 70
6.1 個(gè)體與集成 70
6.2 Bagging算法 70
6.2.1 Bagging算法工作機(jī)制 71
6.2.2 Bagging算法簡(jiǎn)介 71
6.2.3 Bagging算法的自主采樣 72
6.2.4 Bagging算法的結(jié)合策略 72
6.2.5 偏差與方差分析 73
6.2.6 隨機(jī)森林算法 74
6.3 Boosting算法 74
6.3.1 Boosting算法工作機(jī)制 74
6.3.2 Boosting算法的兩個(gè)核心問(wèn)題 75
6.3.3 AdaBoost算法 75
6.3.4 提升樹(shù)算法 77
6.3.5 梯度提升決策樹(shù)算法 79
6.4 Stacking算法 79
6.5 集成學(xué)習(xí)的結(jié)合策略 80
6.5.1 平均法 80
6.5.2 學(xué)習(xí)法 81
繼續(xù)閱讀 82
參考文獻(xiàn) 82
第7章 回歸分析 83
7.1 回歸分析的概念與特點(diǎn) 83
7.2 回歸模型的選擇 84
7.3 常用的回歸模型 85
7.3.1 線(xiàn)性回歸 85
7.3.2 邏輯回歸 86
7.3.3 多項(xiàng)式回歸 88
7.3.4 逐步回歸 89
7.3.5 嶺回歸與Lasso 回歸 91
7.3.6 主元回歸 93
7.3.7 偏最小二乘回歸 94
7.3.8 彈性回歸 96
繼續(xù)閱讀 96
參考文獻(xiàn) 97
第8章 支持向量機(jī) 98
8.1 間隔與支持向量 98
8.2 線(xiàn)性可分支持向量機(jī)與硬間隔最大化 99
8.2.1 函數(shù)間隔和幾何間隔 99
8.2.2 間隔最大化 100
8.2.3 對(duì)偶問(wèn)題求解 100
8.3 線(xiàn)性支持向量機(jī)與軟間隔最大化 101
8.3.1 軟間隔的對(duì)偶算法 101
8.3.2 Hinge損失函數(shù) 103
8.4 非線(xiàn)性支持向量機(jī)與核函數(shù) 104
8.4.1 核技巧 104
8.4.2 正定核 104
8.4.3 核非線(xiàn)性支持向量機(jī) 105
8.5 序列最小優(yōu)化算法 105
8.5.1 兩個(gè)變量二次規(guī)劃的求解方法 105
8.5.2 SMO算法步驟 106
繼續(xù)閱讀 107
參考文獻(xiàn) 108
第9章 隱馬爾可夫模型 109
9.1 馬爾可夫模型 109
9.2 隱馬爾可夫模型的要素和假設(shè) 110
9.2.1 要素 110
9.2.2 假設(shè) 111
9.3 隱馬爾可夫模型的基本問(wèn)題 111
9.4 三個(gè)基本問(wèn)題的求解算法 114
9.4.1 前向算法 114
9.4.2 后向算法 115
9.4.3 Viterbi算法 116
繼續(xù)閱讀 117
參考文獻(xiàn) 117
第10章 條件隨機(jī)場(chǎng) 118
10.1 概率無(wú)向圖模型 118
10.1.1 概率無(wú)向圖模型的定義 118
10.1.2 概率無(wú)向圖模型的因子分解 119
10.2 條件隨機(jī)場(chǎng)的定義與形式 120
10.2.1 條件隨機(jī)場(chǎng)的定義 120
10.2.2 條件隨機(jī)場(chǎng)的參數(shù)化形式 122
10.2.3 條件隨機(jī)場(chǎng)的簡(jiǎn)化形式 122
10.2.4 條件隨機(jī)場(chǎng)的矩陣形式 123
10.3 條件隨機(jī)場(chǎng)的概率計(jì)算問(wèn)題 124
10.3.1 前向-后向算法 124
10.3.2 概率計(jì)算 125
10.3.3 期望計(jì)算 125
10.4 條件隨機(jī)場(chǎng)的學(xué)習(xí)算法 126
10.4.1 改進(jìn)的迭代尺度法 126
10.4.2 擬牛頓法 129
繼續(xù)閱讀 130
參考文獻(xiàn) 130
第三篇 無(wú)監(jiān)督學(xué)習(xí)篇
第11章 貝葉斯學(xué)習(xí) 133
11.1 貝葉斯理論 133
11.1.1 先驗(yàn)概率和后驗(yàn)概率 133
11.1.2 貝葉斯公式 133
11.1.3 極大后驗(yàn)假設(shè) 134
11.1.4 極大似然假設(shè) 134
11.2 貝葉斯公式和概念學(xué)習(xí) 135
11.2.1 Brute-Force 貝葉斯概念學(xué)習(xí)算法 135
11.2.2 特定情況下的極大后驗(yàn)假設(shè) 135
11.2.3 極大后驗(yàn)假設(shè)和一致學(xué)習(xí)器 136
11.2.4 極大似然和最小誤差平方假設(shè) 137
11.2.5 用于預(yù)測(cè)概率的極大似然假設(shè) 137
11.2.6 最小描述長(zhǎng)度準(zhǔn)則 138
11.2.7 貝葉斯最優(yōu)分類(lèi)器 138
11.2.8 吉布斯算法 139
11.3 樸素貝葉斯 139
11.3.1 樸素貝葉斯的基本框架 139
11.3.2 樸素貝葉斯分類(lèi)器 140
11.3.3 樸素貝葉斯模型 141
11.3.4 平滑技術(shù) 142
11.4 貝葉斯網(wǎng)絡(luò) 143
11.4.1 貝葉斯網(wǎng)絡(luò)的定義及性質(zhì) 143
11.4.2 貝葉斯網(wǎng)絡(luò)的結(jié)構(gòu)形式 143
11.4.3 貝葉斯網(wǎng)絡(luò)的判定條件 143
11.4.4 貝葉斯網(wǎng)絡(luò)的構(gòu)建及學(xué)習(xí) 144
繼續(xù)閱讀 145
參考文獻(xiàn) 145
第12章 聚類(lèi)分析 146
12.1 聚類(lèi)與分類(lèi) 146
12.2 聚類(lèi)分析的過(guò)程及要求 146
12.3 聚類(lèi)分析的度量 147
12.3.1 外部指標(biāo) 148
12.3.2 內(nèi)部指標(biāo) 149
12.3.3 選擇相似性度量的原則 151
12.4 基于劃分的聚類(lèi) 153
12.4.1 K-means算法 153
12.4.2 K-medoids算法 154
12.4.3 K-prototype算法 155
12.5 基于層次的聚類(lèi) 157
12.5.1 聚合聚類(lèi)與分裂聚類(lèi)算法 157
12.5.2 平衡迭代削減聚類(lèi)算法 158
12.5.3 使用代表點(diǎn)的聚類(lèi)算法 161
12.6 基于密度的聚類(lèi) 162
12.6.1 DBSCAN算法 162
12.6.2 WS-DBSCAN算法 164
12.6.3 MDCA算法 164
12.7 基于模型的聚類(lèi) 165
12.7.1 基于SOM神經(jīng)網(wǎng)絡(luò)的聚類(lèi)算法 165
12.7.2 基于概率模型的聚類(lèi)算法 166
繼續(xù)閱讀 167
參考文獻(xiàn) 167
第13章 降維與度量學(xué)習(xí) 168
13.1 降維方法概述 168
13.2 線(xiàn)性降維方法 168
x 機(jī)器學(xué)習(xí)及工業(yè)大數(shù)據(jù)解析應(yīng)用
13.2.1 子集選擇法 168
13.2.2 主成分分析法 169
13.2.3 慢特征分析法 171
13.2.4 判別分析法 174
13.2.5 典型相關(guān)分析法 177
13.2.6 奇異值分解法 179
13.2.7 因子分析法 180
13.3 非線(xiàn)性降維方法 181
13.3.1 流形學(xué)習(xí)簡(jiǎn)介 181
13.3.2 保留局部特征 181
13.3.3 保留全局特征 187
13.4 度量學(xué)習(xí) 192
13.4.1 度量的定義 192
13.4.2 KL 散度 192
繼續(xù)閱讀 193
參考文獻(xiàn) 193
第14章 概率潛在語(yǔ)義分析 195
14.1 單詞向量空間與話(huà)題向量空間 195
14.1.1 單詞向量空間 195
14.1.2 話(huà)題向量空間 197
14.2 潛在語(yǔ)義分析算法 199
14.2.1 矩陣奇異值分解算法 199
14.2.2 應(yīng)用案例 201
14.3 非負(fù)矩陣分解算法 203
14.3.1 非負(fù)矩陣分解 203
14.3.2 潛在語(yǔ)義分析模型 204
14.3.3 非負(fù)矩陣分解的形式化 204
14.4 概率潛在語(yǔ)義分析模型 205
14.4.1 基本想法 205
14.4.2 生成模型 206
14.4.3 共現(xiàn)模型 206
14.4.4 模型性質(zhì) 207
14.5 概率潛在語(yǔ)義分析算法 208
繼續(xù)閱讀 210
參考文獻(xiàn) 211
第15章 潛在狄利克雷分布 212
15.1 概率分布 212
15.1.1 分布定義 212
15.1.2 共軛先驗(yàn) 215
15.2 潛在狄利克雷分布模型 216
15.2.1 模型定義 216
15.2.2 概率圖模型 217
15.2.3 隨機(jī)變量序列的可交換性 218
15.2.4 概率公式 219
15.3 LDA 的吉布斯抽樣算法 220
15.3.1 基本思想 220
15.3.2 算法的主要部分 221
15.3.3 算法的后處理 223
15.4 LDA的變分EM 算法 224
15.4.1 變分推理 224
15.4.2 變分EM算法 225
15.4.3 算法推導(dǎo) 225
繼續(xù)閱讀 231
參考文獻(xiàn) 231
第四篇 半監(jiān)督學(xué)習(xí)篇
第16章 基于圖的半監(jiān)督學(xué)習(xí) 235
16.1 標(biāo)簽傳播算法 235
16.1.1 標(biāo)簽傳播算法實(shí)例 235
16.1.2 基于scikit-learn的標(biāo)簽傳播算法 237
16.1.3 拉普拉斯矩陣正則化提升平滑度 238
16.2 基于馬爾可夫隨機(jī)游走的標(biāo)簽傳播算法 240
16.3 流形學(xué)習(xí) 243
16.3.1 等距特征映射流形學(xué)習(xí)算法 243
16.3.2 局部線(xiàn)性嵌入算法 244
16.3.3 拉普拉斯譜嵌入算法 246
16.3.4 t-SNE 246
繼續(xù)閱讀 251
參考文獻(xiàn) 251
第17章 有約束的概率半監(jiān)督聚類(lèi) 252
17.1 基于HMRF 的半監(jiān)督聚類(lèi)模型 252
17.1.1 HMRF 模型 253
17.1.2 類(lèi)別的馬爾可夫隨機(jī)域 253
17.1.3 HMRF 中的聯(lián)合概率 254
17.1.4 HMRF 的半監(jiān)督聚類(lèi)的目標(biāo)函數(shù) 255
17.2 HMRF-Kmeans 算法 256
17.3 獲取約束的主動(dòng)學(xué)習(xí)方法 261
繼續(xù)閱讀 263
參考文獻(xiàn) 263
第18章 基于條件調(diào)和混合的半監(jiān)督學(xué)習(xí) 265
18.1 條件調(diào)和混合模型 265
18.2 CHM 模型的學(xué)習(xí) 266
18.3 融入先驗(yàn)知識(shí) 270
18.4 學(xué)習(xí)條件分布 270
18.5 模型平均 271
繼續(xù)閱讀 271
參考文獻(xiàn) 271
第19章 高級(jí)半監(jiān)督分類(lèi) 272
19.1 對(duì)比性悲觀似然估計(jì) 272
19.2 半監(jiān)督支持向量機(jī) 273
19.2.1 算法 274
19.2.2 實(shí)例 277
繼續(xù)閱讀 278
參考文獻(xiàn) 278
第五篇 深度學(xué)習(xí)篇
第20章 前饋神經(jīng)網(wǎng)絡(luò) 281
20.1 前饋神經(jīng)網(wǎng)絡(luò)的模型 282
20.1.1 前饋神經(jīng)網(wǎng)絡(luò)的定義 282
20.1.2 前饋神經(jīng)網(wǎng)絡(luò)的表示能力 282
20.2 前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí) 283
20.2.1 前饋神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的優(yōu)化算法 283
20.2.2 反向傳播算法 284
20.3 前饋神經(jīng)網(wǎng)絡(luò)的正則化 286
20.3.1 深度學(xué)習(xí)中的正則化 286
20.3.2 早停法 286
20.3.3 暫退法 286
繼續(xù)閱讀 287
參考文獻(xiàn) 287
第21章 循環(huán)神經(jīng)網(wǎng)絡(luò) 288
21.1 循環(huán)神經(jīng)網(wǎng)絡(luò)的模型 288
21.1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)的定義 288
21.1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法 289
21.1.3 梯度消失與爆炸 289
21.2 常用的循環(huán)神經(jīng)網(wǎng)絡(luò) 290
21.2.1 長(zhǎng)短期記憶網(wǎng)絡(luò) 290
21.2.2 門(mén)控循環(huán)單元網(wǎng)絡(luò) 292
21.2.3 深度循環(huán)神經(jīng)網(wǎng)絡(luò) 293
21.2.4 雙向循環(huán)神經(jīng)網(wǎng)絡(luò) 294
21.3 循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言生成中的應(yīng)用 295
21.3.1 詞向量 295
21.3.2 語(yǔ)言模型與語(yǔ)言生成 296
繼續(xù)閱讀 297
參考文獻(xiàn) 297
第22章 卷積神經(jīng)網(wǎng)絡(luò) 299
22.1 卷積神經(jīng)網(wǎng)絡(luò)的模型 299
22.1.1 卷積 299
22.1.2 池化 300
22.1.3 卷積神經(jīng)網(wǎng)絡(luò)的性質(zhì) 301
22.2 卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法 301
22.2.1 卷積導(dǎo)數(shù) 301
22.2.2 反向傳播算法 302
22.3 卷積神經(jīng)網(wǎng)絡(luò)在圖像分類(lèi)中的應(yīng)用 305
22.3.1 AlexNet 305
22.3.2 殘差網(wǎng)絡(luò) 307
繼續(xù)閱讀 307
參考文獻(xiàn) 307
xiv 機(jī)器學(xué)習(xí)及工業(yè)大數(shù)據(jù)解析應(yīng)用
第23章 生成對(duì)抗網(wǎng)絡(luò)與寬度學(xué)習(xí) 309
23.1 生成對(duì)抗網(wǎng)絡(luò)的基本模型 309
23.1.1 模型 309
23.1.2 學(xué)習(xí)算法 310
23.2 生成對(duì)抗網(wǎng)絡(luò)在圖像生成中的應(yīng)用 311
23.2.1 轉(zhuǎn)置卷積 311
23.2.2 DCGAN 313
23.3 寬度學(xué)習(xí) 314
23.3.1 產(chǎn)生背景 314
23.3.2 RVFLNN 簡(jiǎn)介 314
23.3.3 算法介紹 316
繼續(xù)閱讀 318
參考文獻(xiàn) 318
第24章 強(qiáng)化學(xué)習(xí) 320
24.1 強(qiáng)化學(xué)習(xí)的定義 320
24.2 強(qiáng)化學(xué)習(xí)與其他機(jī)器學(xué)習(xí)方法的區(qū)別 320
24.3 強(qiáng)化學(xué)習(xí)的特點(diǎn) 321
24.4 強(qiáng)化學(xué)習(xí)的要素與架構(gòu) 321
24.4.1 四個(gè)基本要素 321
24.4.2 強(qiáng)化學(xué)習(xí)的架構(gòu) 322
24.5 強(qiáng)化學(xué)習(xí)的訓(xùn)練過(guò)程 323
24.6 強(qiáng)化學(xué)習(xí)算法分類(lèi) 323
24.6.1 基于價(jià)值的方法 323
24.6.2 基于策略的方法 324
24.6.3 參與評(píng)價(jià)方法 324
24.6.4 其他分類(lèi) 325
24.7 強(qiáng)化學(xué)習(xí)的代表算法 325
24.7.1 SARSA 325
24.7.2 Q 學(xué)習(xí) 326
24.7.3 策略梯度 327
24.7.4 Actor-Critic 329
24.7.5 深度Q 網(wǎng)絡(luò) 331
繼續(xù)閱讀 332
參考文獻(xiàn) 332
第六篇 大數(shù)據(jù)解析篇
第25章 工業(yè)大數(shù)據(jù)解析過(guò)程 337
25.1 基于機(jī)器學(xué)習(xí)與規(guī)則方法的區(qū)別 337
25.2 業(yè)務(wù)理解 338
25.3 數(shù)據(jù)理解 339
25.3.1 初始數(shù)據(jù)解析 339
25.3.2 探索性數(shù)據(jù)分析 340
25.3.3 描述數(shù)據(jù) 341
25.3.4 數(shù)據(jù)的類(lèi)型 341
25.4 數(shù)據(jù)準(zhǔn)備 342
25.4.1 臟數(shù)據(jù) 342
25.4.2 數(shù)據(jù)清洗 343
25.4.3 數(shù)據(jù)離散化 343
25.4.4 數(shù)據(jù)壓縮/數(shù)據(jù)整理 344
25.4.5 文本清洗 345
25.4.6 特征工程 346
25.4.7 特征選擇的方法 346
25.4.8 特征提取 347
25.5 數(shù)據(jù)建模 349
25.6 模型評(píng)估 350
25.6.1 評(píng)估模型性能 350
25.6.2 優(yōu)化模型參數(shù) 351
25.6.3 解釋模型結(jié)果 352
25.7 模型部署 352
繼續(xù)閱讀 353
參考文獻(xiàn) 353
第26章 時(shí)間序列分析 354
26.1 探索與理解時(shí)間序列 354
26.1.1 時(shí)間序列數(shù)據(jù)分析 354
26.1.2 時(shí)間序列中缺失值的數(shù)據(jù)清理 354
26.1.3 歸一化和標(biāo)準(zhǔn)化時(shí)間序列數(shù)據(jù) 355
26.2 時(shí)間序列特征工程 356
26.2.1 日期時(shí)間特征 356
26.2.2 滯后特征和窗口特征 356
xvi 機(jī)器學(xué)習(xí)及工業(yè)大數(shù)據(jù)解析應(yīng)用
26.2.3 滑動(dòng)窗口統(tǒng)計(jì)信息 357
26.2.4 擴(kuò)展窗口統(tǒng)計(jì)信息 357
26.3 時(shí)間序列預(yù)測(cè)的自回歸和自動(dòng)方法 357
26.3.1 自回歸 357
26.3.2 移動(dòng)平均 358
26.3.3 自回歸移動(dòng)平均 360
26.3.4 自回歸差分移動(dòng)平均 360
26.3.5 自動(dòng)化機(jī)器學(xué)習(xí) 362
繼續(xù)閱讀 363
參考文獻(xiàn) 363
第27章 因果圖學(xué)習(xí) 365
27.1 無(wú)監(jiān)督圖學(xué)習(xí) 365
27.2 有監(jiān)督圖學(xué)習(xí) 371
27.2.1 有監(jiān)督圖嵌入算法的層次結(jié)構(gòu) 371
27.2.2 基于特征的方法 371
27.2.3 淺嵌入方法 372
27.2.4 圖卷積神經(jīng)網(wǎng)絡(luò) 372
27.3 基于圖學(xué)習(xí)的工業(yè)大數(shù)據(jù)解析 374
27.3.1 數(shù)據(jù)集概述 374
27.3.2 網(wǎng)絡(luò)拓?fù)浜彤惓z測(cè) 375
27.3.3 有監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)任務(wù) 376
27.3.4 基于圖學(xué)習(xí)的工業(yè)場(chǎng)景分析 377
27.4 圖學(xué)習(xí)的新趨勢(shì) 380
27.4.1 圖的數(shù)據(jù)增強(qiáng)技術(shù) 380
27.4.2 拓?fù)鋽?shù)據(jù)分析 381
27.4.3 拓?fù)錂C(jī)器學(xué)習(xí) 382
繼續(xù)閱讀 383
參考文獻(xiàn) 383
第28章 可解釋性學(xué)習(xí) 385
28.1 大數(shù)據(jù)解析的可解釋性 385
28.1.1 可解釋性的重要性 385
28.1.2 可解釋性方法的分類(lèi) 386
28.1.3 可解釋性范圍 387
28.1.4 可解釋性評(píng)估 388
28.1.5 解釋方法和解釋的性質(zhì) 388
28.1.6 人性化的解釋 389
28.2 模型無(wú)關(guān)可解釋性方法 390
28.2.1 部分依賴(lài)圖 391
28.2.2 個(gè)體條件期望 393
28.2.3 累計(jì)局部效應(yīng)圖 394
28.2.4 特征交互 396
28.2.5 置換特征重要性 398
28.2.6 全局代理模式 399
28.2.7 局部代理 401
28.3 基于大數(shù)據(jù)樣本的解釋 402
28.3.1 反事實(shí)解釋 403
28.3.2 對(duì)抗樣本 405
28.3.3 原型與批評(píng) 407
28.3.4 有影響力的實(shí)例 410
28.4 可解釋性的未來(lái) 412
繼續(xù)閱讀 413
參考文獻(xiàn) 413