機(jī)器學(xué)習(xí)原理及應(yīng)用
定 價(jià):59 元
叢書(shū)名:面向新工科普通高等教育系列教材
- 作者:呂云翔 王淥汀 袁琪 等編著
- 出版時(shí)間:2021/8/1
- ISBN:9787111682943
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類(lèi):TP181
- 頁(yè)碼:212
- 紙張:
- 版次:
- 開(kāi)本:16開(kāi)
《機(jī)器學(xué)習(xí)原理及應(yīng)用》以機(jī)器學(xué)習(xí)及其算法為主題,詳細(xì)介紹其理論細(xì)節(jié)與應(yīng)用方法!稒C(jī)器學(xué)習(xí)原理及應(yīng)用》共19章,分別介紹了機(jī)器學(xué)習(xí)概述、線性回歸與*大熵模型、k-近鄰算法、決策樹(shù)模型、樸素貝葉斯分類(lèi)器、支持向量機(jī)模型、集成學(xué)習(xí)、EM算法、降維算法、聚類(lèi)算法、神經(jīng)網(wǎng)絡(luò)模型等基礎(chǔ)模型或算法,以及8個(gè)綜合項(xiàng)目實(shí)例!稒C(jī)器學(xué)習(xí)原理及應(yīng)用》重視理論與實(shí)踐相結(jié)合,希望為讀者提供全面而細(xì)致的學(xué)習(xí)指導(dǎo)。
《機(jī)器學(xué)習(xí)原理及應(yīng)用》可作為高等院校計(jì)算機(jī)科學(xué)與技術(shù)、軟件工程等相關(guān)專(zhuān)業(yè)的教材,也適合機(jī)器學(xué)習(xí)初學(xué)者、相關(guān)行業(yè)從業(yè)人員閱讀。
前言
第1章機(jī)器學(xué)習(xí)概述
1.1機(jī)器學(xué)習(xí)的組成
1.2分類(lèi)問(wèn)題和回歸問(wèn)題
1.3監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)和
無(wú)監(jiān)督學(xué)習(xí)
1.4生成模型和判別模型
1.5模型評(píng)估
1.5.1訓(xùn)練誤差和泛化誤差
1.5.2過(guò)擬合和欠擬合
1.6正則化
1.7Scikit-learn模塊
1.7.1數(shù)據(jù)集
1.7.2模型選擇
1.8習(xí)題
第2章線性回歸及最大熵模型
2.1線性回歸
2.1.1一元線性回歸
2.1.2多元線性回歸
2.2廣義線性回歸
2.2.1邏輯回歸
2.2.2多分類(lèi)邏輯回歸
2.2.3交叉熵?fù)p失函數(shù)
2.3最大熵模型
2.3.1最大熵模型的導(dǎo)出
2.3.2最大熵模型與邏輯回歸之間的
關(guān)系
2.4評(píng)價(jià)指標(biāo)
2.4.1混淆矩陣
2.4.2準(zhǔn)確率
2.4.3精確率與召回率
2.4.4PR曲線
2.4.5ROC曲線與AUC曲線
2.5實(shí)例:基于邏輯回歸實(shí)現(xiàn)乳腺癌
預(yù)測(cè)
2.6習(xí)題
第3章k-近鄰算法
3.1k值的選取
3.2距離的度量
3.3快速檢索
3.4實(shí)例:基于k-近鄰實(shí)現(xiàn)鳶尾花
分類(lèi)
3.5習(xí)題
第4章決策樹(shù)模型
4.1特征選擇
4.1.1信息增益
4.1.2信息增益比
4.2決策樹(shù)生成算法CART
4.3決策樹(shù)剪枝
4.3.1預(yù)剪枝
4.3.2后剪枝
4.4實(shí)例:基于決策樹(shù)實(shí)現(xiàn)葡萄酒
分類(lèi)
4.5習(xí)題
第5章樸素貝葉斯分類(lèi)器
5.1極大似然估計(jì)
5.2樸素貝葉斯分類(lèi)
5.3拉普拉斯平滑
5.4樸素貝葉斯分類(lèi)器的極大似然
估計(jì)解釋
5.5實(shí)例:基于樸素貝葉斯實(shí)現(xiàn)垃圾
短信分類(lèi)
5.6習(xí)題
第6章支持向量機(jī)模型
6.1最大間隔及超平面
6.2線性可分支持向量機(jī)
6.3合頁(yè)損失函數(shù)
6.4核技巧
6.5二分類(lèi)問(wèn)題與多分類(lèi)問(wèn)題
6.5.1一對(duì)一
6.5.2一對(duì)多
6.5.3多對(duì)多
6.6實(shí)例:基于支持向量機(jī)實(shí)現(xiàn)
葡萄酒分類(lèi)
6.7習(xí)題
第7章集成學(xué)習(xí)
7.1偏差與方差
7.2Bagging及隨機(jī)森林
7.2.1Bagging
7.2.2隨機(jī)森林
7.3Boosting及AdaBoost
7.3.1Boosting
7.3.3AdaBoost
7.4提升樹(shù)
7.4.1殘差提升樹(shù)
7.4.2GBDT
7.4.3XGBoost
7.5Stacking
7.6實(shí)例:基于梯度下降樹(shù)實(shí)現(xiàn)
波士頓房?jī)r(jià)預(yù)測(cè)
7.7習(xí)題
第8章EM算法及其應(yīng)用
8.1Jensen不等式
8.2EM算法
8.3高斯混合模型
8.4隱馬爾可夫模型
8.4.1計(jì)算觀測(cè)概率的輸出
8.4.2估計(jì)隱馬爾可夫模型的參數(shù)
8.4.3隱變量序列預(yù)測(cè)
8.5實(shí)例:基于高斯混合模型實(shí)現(xiàn)
鳶尾花分類(lèi)
8.6習(xí)題
第9章降維算法
9.1主成分分析
9.1.1方差即協(xié)方差的無(wú)偏估計(jì)
9.1.2實(shí)例:基于主成分分析實(shí)現(xiàn)
鳶尾花數(shù)據(jù)降維
9.2奇異值分解
9.2.1奇異值分解的構(gòu)造
9.2.2奇異值分解用于數(shù)據(jù)壓縮
9.2.3SVD與PCA的關(guān)系
9.2.4奇異值分解的幾何解釋
9.2.5實(shí)例:基于奇異值分解實(shí)現(xiàn)圖片
壓縮
9.3習(xí)題
第10章聚類(lèi)算法
10.1距離度量
10.1.1閔可夫斯基距離
10.1.2余弦相似度
10.1.3馬氏距離
10.1.4漢明距離
10.2層次聚類(lèi)
10.3K-Means聚類(lèi)
10.4K-Medoids聚類(lèi)
10.5DBSCAN
10.6實(shí)例:基于K-Means實(shí)現(xiàn)
鳶尾花聚類(lèi)
10.7習(xí)題
第11章神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
11.1神經(jīng)元模型
11.2多層感知機(jī)
11.3損失函數(shù)
11.4反向傳播算法
11.4.1梯度下降法
11.4.2梯度消失及梯度爆炸
11.5卷積神經(jīng)網(wǎng)絡(luò)
11.5.1卷積
11.5.2池化
11.5.3網(wǎng)絡(luò)架構(gòu)
11.6循環(huán)神經(jīng)網(wǎng)絡(luò)
11.7生成對(duì)抗網(wǎng)絡(luò)
11.8圖卷積神經(jīng)網(wǎng)絡(luò)
11.9深度學(xué)習(xí)發(fā)展
11.10實(shí)例:基于卷積神經(jīng)網(wǎng)絡(luò)
實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別
11.10.1MINST數(shù)據(jù)集
11.10.2基于卷積神經(jīng)網(wǎng)絡(luò)的手寫(xiě)
數(shù)字識(shí)別
11.11習(xí)題
第12章案例1:基于回歸問(wèn)題、
XGBoost的房?jī)r(jià)預(yù)測(cè)
12.1XGBoost模型介紹
12.2技術(shù)方案
12.2.1數(shù)據(jù)分析
12.2.2XGBoost模型參數(shù)
12.2.3調(diào)參過(guò)程
12.3完整代碼及結(jié)果展示
第13章案例2:影評(píng)數(shù)據(jù)分析與
電影推薦
13.1明確目標(biāo)與數(shù)據(jù)準(zhǔn)備
13.2工具選擇
13.3初步分析
13.3.1用戶角度分析
13.3.2電影角度分析
13.4電影推薦
第14章案例3:汽車(chē)貸款違約的
數(shù)據(jù)分析
14.1數(shù)據(jù)分析常用的Python
工具庫(kù)
14.2數(shù)據(jù)樣本分析
14.2.1數(shù)據(jù)樣本概述
14.2.2變量類(lèi)型分析
14.2.3Python代碼實(shí)踐
14.3數(shù)據(jù)分析的預(yù)處理
14.3.1目標(biāo)變量探索
14.3.2X變量初步探索
14.3.3連續(xù)變量的缺失值處理
14.3.4分類(lèi)變量的缺失值處理
14.4數(shù)據(jù)分析的模型建立與模型
評(píng)估
14.4.1數(shù)據(jù)的預(yù)處理與訓(xùn)練集劃分
14.4.2采用回歸模型進(jìn)行數(shù)據(jù)分析
14.4.3采用決策樹(shù)模型進(jìn)行數(shù)據(jù)
分析
14.4.4采用隨機(jī)森林模型優(yōu)化
決策樹(shù)模型
第15章案例4:基于KNN模型預(yù)測(cè)
葡萄酒種類(lèi)的數(shù)據(jù)分析與
可視化
15.1KNN模型的初級(jí)構(gòu)建
15.2使用專(zhuān)業(yè)工具包構(gòu)建KNN
模型
15.3數(shù)據(jù)可視化
第16章案例5:使用Keras進(jìn)行人
臉關(guān)鍵點(diǎn)檢測(cè)
16.1深度學(xué)習(xí)模型
16.1.1數(shù)據(jù)集獲取
16.1.2卷積神經(jīng)網(wǎng)絡(luò)的搭建與訓(xùn)練
16.2模型評(píng)價(jià)
16.3訓(xùn)練歷史可視化
第17章案例6:股價(jià)預(yù)測(cè)
17.1使用tsfresh進(jìn)行升維和特征
工程
17.2程序設(shè)計(jì)思路
17.3程序設(shè)計(jì)步驟
17.3.1讀入數(shù)據(jù),分析數(shù)據(jù)
17.3.2移窗
17.3.3升維
17.3.4方差過(guò)濾
17.3.5使用Adaboost模型進(jìn)行回歸
預(yù)測(cè)
17.3.6預(yù)測(cè)結(jié)果分析
第18章案例7:用戶流失預(yù)警
18.1讀入數(shù)據(jù)
18.2數(shù)據(jù)預(yù)處理
18.3五折交叉驗(yàn)證
18.4代入三種模型
18.5調(diào)整prob閾值,輸出精度
評(píng)估
第19章案例8:機(jī)器人最優(yōu)路徑
走迷宮
19.1關(guān)鍵技術(shù)
19.1.1馬爾科夫決策過(guò)程
19.1.2Bellman方程
19.2程序設(shè)計(jì)步驟
19.2.1初始化迷宮地圖
19.2.2計(jì)算不同位置最優(yōu)路徑
參考文獻(xiàn)