人工智能出版工程 人工智能:機(jī)器學(xué)習(xí)理論與方法(精裝版)
定 價(jià):89 元
叢書(shū)名:人工智能出版工程
- 作者:李侃 著
- 出版時(shí)間:2020/8/1
- ISBN:9787121391408
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP18
- 頁(yè)碼:328
- 紙張:
- 版次:01
- 開(kāi)本:16開(kāi)
本書(shū)全面系統(tǒng)地講解了機(jī)器學(xué)習(xí)的理論與方法,內(nèi)容主要包括高斯混合模型和EM算法、主題模型、非參數(shù)貝葉斯模型、聚類分析、圖模型、支持向量機(jī)、矩陣分解、深度學(xué)習(xí)及強(qiáng)化學(xué)習(xí)。本書(shū)旨在使讀者了解機(jī)器學(xué)習(xí)的發(fā)展,理解和掌握它的基本原理、方法與主要應(yīng)用。本書(shū)內(nèi)容豐富,著重機(jī)器學(xué)習(xí)理論的推導(dǎo)與證明,并通過(guò)實(shí)例進(jìn)行方法的分析與比較。同時(shí),本書(shū)強(qiáng)調(diào)機(jī)器學(xué)習(xí)的系統(tǒng)性、完整性和時(shí)效性,可讀性強(qiáng)。
李侃,教授,博士生導(dǎo)師,副所長(zhǎng)。國(guó)家重點(diǎn)研發(fā)計(jì)劃評(píng)審專家、國(guó)家863項(xiàng)目評(píng)審專家,北京市自然科學(xué)基金/重點(diǎn)基金評(píng)審專家、博士點(diǎn)基金/博士后基金評(píng)審專家,國(guó)際期刊NLPR主編,以及其它期刊的編委。在澳大利亞、加拿大、中國(guó)香港等國(guó)家、地區(qū)任職或?qū)W術(shù)研究。目前主要從事機(jī)器學(xué)習(xí)、模式識(shí)別及大數(shù)據(jù)分析方面的研究。主持了國(guó)家重點(diǎn)研發(fā)專項(xiàng)課題、國(guó)家973課題、863重大和和國(guó)家自然科學(xué)基金等多項(xiàng)***和部級(jí)項(xiàng)目,獲得了多項(xiàng)國(guó)防科技進(jìn)步獎(jiǎng)和?萍汲晒坏泉(jiǎng)等科研獎(jiǎng)勵(lì)。在TKDE等國(guó)內(nèi)外期刊、IJCAI、ACM MM等學(xué)術(shù)會(huì)議上發(fā)表SCI/EI檢索論文近百篇,發(fā)明專利20余項(xiàng)。出版了教育部和北京市精品教材、獲得了全國(guó)高校人工智能與大數(shù)據(jù)教學(xué)創(chuàng)新獎(jiǎng)、T-more優(yōu)秀教師獎(jiǎng)、迪文優(yōu)秀教師獎(jiǎng)、教學(xué)成果獎(jiǎng)一等獎(jiǎng)等教學(xué)獎(jiǎng)勵(lì)。
第1章緒論
1.1機(jī)器學(xué)習(xí)的定義
1.2機(jī)器學(xué)習(xí)的發(fā)展歷史
1.3機(jī)器學(xué)習(xí)的分類
1.3.1基于學(xué)習(xí)系統(tǒng)的反饋分類
1.3.2基于所獲取知識(shí)的表示形式分類
1.3.3按應(yīng)用領(lǐng)域分類
1.3.4綜合分類
1.4性能度量
1.4.1數(shù)據(jù)集
1.4.2誤差
1.4.3過(guò)擬合與欠擬合
1.4.4評(píng)估方法
1.4.5性能度量指標(biāo)
1.5本章小結(jié)
第2章EM算法和高斯模型
2.1EM算法
2.1.1極大似然估計(jì)
2.1.2EM算法的引入
2.1.3EM算法的推導(dǎo)
2.1.4EM算法的步驟
2.1.5EM算法的收斂性
2.2高斯模型
2.2.1單高斯模型
2.2.2高斯混合模型
2.2.3GMM參數(shù)估計(jì)
2.3本章小結(jié)
第3章主題模型
3.1傳統(tǒng)的主題模型
3.1.1VSM模型
3.1.2LSI模型
3.2概率主題模型
3.2.1LDA主題模型
3.2.2HDP-LDA主題模型
3.3具有zipf定律性質(zhì)的主題模型
3.3.1PY過(guò)程
3.3.2PHTM主題模型
3.4PHTM推理算法
3.4.1算法描述
3.4.2實(shí)驗(yàn)
3.5本章小結(jié)
第4章抽樣與非參數(shù)貝葉斯方法
4.1單個(gè)隨機(jī)變量抽樣
4.1.1通過(guò)逆累積分布函數(shù)抽樣
4.1.2拒絕抽樣(Rejection Sampling)
4.1.3重要性抽樣(Importance Sampling)
4.2序列隨機(jī)變量抽樣與馬爾可夫鏈蒙特卡洛
4.2.1MH算法
4.2.2吉布斯抽樣
4.2.3切片抽樣(Slice Sampling)
4.3非參數(shù)貝葉斯模型與狄利克雷過(guò)程
4.3.1非參數(shù)貝葉斯模型
4.3.2狄利克雷過(guò)程
4.4狄利克雷過(guò)程的構(gòu)造方式
4.4.1波利亞壇子過(guò)程
4.4.2折棍子過(guò)程
4.4.3中餐館過(guò)程
4.5本章小結(jié)
第5章聚類分析
5.1數(shù)據(jù)相似性度量
5.2經(jīng)典聚類算法
5.2.1劃分算法
5.2.2層次聚類算法
5.2.3基于密度的聚類算法
5.2.4基于網(wǎng)格的聚類算法
5.2.5基于模型的聚類算法
5.3K均值算法、K中心點(diǎn)算法及其改進(jìn)算法
5.3.1K均值算法
5.3.2K中心點(diǎn)算法
5.3.3核K均值算法
5.3.4EM聚類
5.3.5基于隨機(jī)搜索應(yīng)用于大型應(yīng)用的聚類算法CLARANS
5.4譜聚類
5.4.1相似圖
5.4.2拉普拉斯矩陣
5.4.3譜聚類算法
5.5基于約束的聚類
5.5.1含有障礙物的對(duì)象聚類
5.5.2用戶約束的聚類分析
5.5.3半監(jiān)督聚類分析
5.6在線聚類
5.7聚類與降維
5.8本章小結(jié)
第6章支持向量機(jī)
6.1統(tǒng)計(jì)學(xué)習(xí)理論
6.1.1經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化
6.1.2VC維
6.1.3結(jié)構(gòu)風(fēng)險(xiǎn)最小化
6.2支持向量機(jī)的基本原理
6.3支持向量機(jī)分類器
6.3.1線性支持向量機(jī)分類器
6.3.2非線性可分的支持向量機(jī)分類器
6.3.3一類分類
6.3.4多類分類
6.4核函數(shù)
6.4.1核函數(shù)的定義
6.4.2核函數(shù)的構(gòu)造
6.4.3幾種常用的核函數(shù)
6.5支持向量回歸機(jī)
6.6支持向量機(jī)的應(yīng)用實(shí)例
6.6.1圖像分類
6.6.2其他應(yīng)用
6.7本章小結(jié)
第7章概率無(wú)向圖模型
7.1概率無(wú)向圖模型概述
7.2邏輯斯諦回歸模型
7.2.1邏輯斯諦函數(shù)與分布
7.2.2極大似然估計(jì)模型參數(shù)
7.3最大熵模型
7.3.1最大熵原理
7.3.2最大熵模型概述
7.4條件隨機(jī)場(chǎng)
7.4.1模型
7.4.2條件隨機(jī)場(chǎng)的關(guān)鍵問(wèn)題
7.5本章小結(jié)
第8章概率有向圖模型
8.1概率有向圖模型概述
8.2貝葉斯網(wǎng)絡(luò)
8.2.1貝葉斯定理
8.2.2有向分離
8.2.3貝葉斯網(wǎng)絡(luò)構(gòu)造
8.2.4貝葉斯網(wǎng)絡(luò)學(xué)習(xí)
8.3隱馬爾可夫模型
8.3.1隱馬爾可夫模型描述
8.3.2隱馬爾可夫模型的三個(gè)基本問(wèn)題
8.4本章小結(jié)
第9章矩陣與張量分解
9.1等值與低軼矩陣分解
9.2非負(fù)矩陣分解
9.3矩陣分解與推薦系統(tǒng)
9.4張量分解
9.5非負(fù)張量分解
9.6本章小結(jié)
第10章多層感知機(jī)
10.1感知機(jī)
10.2多層感知機(jī)概述
10.2.1誤差反傳算法
10.2.2多層感知機(jī)的優(yōu)勢(shì)和局限性
10.2.3BP算法的改進(jìn)
10.3本章小結(jié)
第11章卷積神經(jīng)網(wǎng)絡(luò)
11.1卷積神經(jīng)網(wǎng)絡(luò)的生物學(xué)基礎(chǔ)
11.2卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)元件
11.2.1卷積層
11.2.2池化層
11.2.3激活層
11.2.4全連接層
11.3典型的卷積神經(jīng)網(wǎng)絡(luò)
11.3.1AlexNet
11.3.2VGG
11.3.3GoogLeNet
11.3.4ResNet
11.3.5DenseNet
11.4卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練技巧
11.4.1批歸一化
11.4.2隨機(jī)失活
11.5本章小結(jié)
第12章循環(huán)神經(jīng)網(wǎng)絡(luò)
12.1循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
12.2循環(huán)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
12.2.1損失函數(shù)
12.2.2時(shí)間反向傳播算法
12.2.3梯度消失與梯度爆炸
12.3雙向循環(huán)神經(jīng)網(wǎng)絡(luò)與深度循環(huán)神經(jīng)網(wǎng)絡(luò)
12.4長(zhǎng)短期記憶網(wǎng)絡(luò)
12.4.1LSTM記憶單元
12.4.2LSTM 記憶方式
12.5門(mén)控循環(huán)單元
12.6本章小結(jié)
第13章強(qiáng)化學(xué)習(xí)
13.1強(qiáng)化學(xué)習(xí)模型及基本要素
13.1.1強(qiáng)化學(xué)習(xí)模型
13.1.2強(qiáng)化學(xué)習(xí)基本要素
13.2馬爾可夫決策過(guò)程
13.2.1馬爾可夫過(guò)程
13.2.2馬爾可夫決策過(guò)程概述
13.3部分可觀測(cè)的馬爾可夫決策過(guò)程
13.4模型已知的強(qiáng)化學(xué)習(xí)
13.4.1線性規(guī)劃
13.4.2策略迭代
13.4.3值迭代
13.4.4廣義策略迭代
13.5模型未知的強(qiáng)化學(xué)習(xí)
13.5.1蒙特卡洛方法
13.5.2時(shí)間差分法
13.5.3Q學(xué)習(xí)與SARSA學(xué)習(xí)
13.5.4Actor-Critic學(xué)習(xí)
13.6基于逼近方法的強(qiáng)化學(xué)習(xí)
13.6.1值函數(shù)逼近的TD學(xué)習(xí)
13.6.2近似值迭代方法
13.6.3近似策略迭代
13.7深度強(qiáng)化學(xué)習(xí)
13.7.1深度Q學(xué)習(xí)(Deep Q-learning)
13.7.2深度雙Q學(xué)習(xí)
13.7.3異步深度Q學(xué)習(xí)
13.7.4其他深度強(qiáng)化學(xué)習(xí)
13.8本章小結(jié)
參考文獻(xiàn)