[美]安德魯·格拉斯納:
擁有北卡羅來納州教堂山分校計算機(jī)科學(xué)博士學(xué)位,他是一位專門從事計算機(jī)圖形學(xué)和深度學(xué)習(xí)的研究的科學(xué)家。他目前是Weta Digital(維塔數(shù)碼)的高級研究科學(xué)家,致力于將深度學(xué)習(xí)與電影和電視世界級視覺效果的制作相結(jié)合。他曾在IBM沃森實驗室、施樂PARC和微軟研究所等實驗室擔(dān)任研究員。同時他也是最早的圖形研究雜志ACM-TOG9(計算機(jī)圖形學(xué)國際頂級期刊)的主編,和最早的計算機(jī)圖形學(xué)會議SIGGRAPH(Special Interest Group for Computer GRAPHICS,由美國計算機(jī)協(xié)會計算機(jī)圖形專業(yè)組組織的計算機(jī)圖形學(xué)頂級年度會議)的技術(shù)論文主席。他撰寫或編輯了十幾本關(guān)于計算機(jī)圖形學(xué)的技術(shù)書籍,包括著名的Principles of Digital Image Synthesis、Graphics Gems系列等。
譯者簡介:
趙鳴,2006年獲華中師范大學(xué)計算機(jī)輔助教學(xué)碩士學(xué)位,2015年獲哈爾濱工業(yè)大學(xué)計算機(jī)應(yīng)用方向博士學(xué)位,現(xiàn)任長江大學(xué)教授。目前主持在研省部級項目四項,橫向項目兩項。他的研究興趣包括計算智能、圖像和信號處理、模式識別等。他是荊州市智慧警務(wù)專家成員,也是IEEE高級成員
曾小健,出版AI圖書多部,在量化金融和AI領(lǐng)域有多年經(jīng)驗,計算機(jī)博士在讀,CSDN博客專家,多個大模型開源項目源碼貢獻(xiàn)人,曾在華為云、中關(guān)村在線等多所大型互聯(lián)網(wǎng)科技企業(yè)擔(dān)任重要職務(wù),GitHub:ArtificialZeng; CSDN:AI生成曾小健。
李現(xiàn)偉,日本早稻田大學(xué)博士畢業(yè),碩士生導(dǎo)師,主要從事大數(shù)據(jù)、機(jī)器學(xué)習(xí)、物聯(lián)網(wǎng)等方向的教學(xué)與工作。發(fā)表SCI論文20余篇,主持和參與安徽省自然科學(xué)基金、安徽省重點研究與開發(fā)計劃、安徽省教育廳優(yōu)秀青年基金項目等多項。獲得中國發(fā)明協(xié)會創(chuàng)業(yè)獎成果獎二等獎,獲得綠色礦山科學(xué)技術(shù)獎二等獎一項。
任玉柱,畢業(yè)于國防科學(xué)技術(shù)大學(xué)網(wǎng)絡(luò)工程專業(yè),主要研究方向為信息安全,機(jī)器學(xué)習(xí),人工智能,發(fā)表相關(guān)領(lǐng)域研究文章3篇。
詳細(xì)目錄
致謝
前言
這本書是為誰準(zhǔn)備的···············································································
這本書沒有復(fù)雜的數(shù)學(xué)和代碼
如果你想要的話,這里有代碼
圖片也可以找到!
勘誤
關(guān)于本書
第1部分:基礎(chǔ)理論
第2部分:初級機(jī)器學(xué)習(xí)
第3部分:深度學(xué)習(xí)的基礎(chǔ)
第4部分:進(jìn)階知識
最后的話·····························································································
第一部分 基礎(chǔ)理論 1
第1 章 機(jī)器學(xué)習(xí)技術(shù)概述 2
1.1 專家系統(tǒng)
1.2 監(jiān)督學(xué)習(xí)
1.3 無監(jiān)督學(xué)習(xí)
1.4 強(qiáng)化學(xué)習(xí)
1.5 深度學(xué)習(xí)
1.6 本章總結(jié)
第2 章 統(tǒng)計學(xué)基礎(chǔ) 11
2.1 描述隨機(jī)性
2.2 隨機(jī)變量與概率分布
2.3 常見的分布
詳細(xì)目錄 VII
2.3.1 連續(xù)分布
2.3.2 離散分布
2.4 隨機(jī)值的集合
2.4.1 期望值
2.4.2 依賴
2.4.3 獨立同分布變量
2.5 采樣與替換
2.5.1 替換采樣法
2.5.2 無替換采樣法
2.6 自采樣法
2.7 協(xié)方差和相關(guān)性
2.7.1 協(xié)方差
2.7.2 相關(guān)性
2.8 統(tǒng)計數(shù)據(jù)的局限性
2.9 高維空間
2.10 本章總結(jié)
第3 章 性能度量 37
3.1 不同類型的概率
3.1.1 投擲飛鏢
3.1.2 簡單概率
3.1.3 條件概率
3.1.4 聯(lián)合概率
3.1.5 邊緣概率
3.2 評價正確性
3.2.1 樣本分類
3.2.2 混淆矩陣
3.2.3 錯誤的特征
3.2.4 評價正確與否
3.2.5 準(zhǔn)確率
3.2.6 精度
3.2.7 召回率
3.2.8 精度與召回率的權(quán)衡
3.2.9 誤導(dǎo)性結(jié)果
3.2.10 F1分?jǐn)?shù)
3.2.11 關(guān)于這些指標(biāo)
3.2.12 其他評價方式
3.3 正確構(gòu)造混淆矩陣
3.4 本章總結(jié)
第4 章 貝葉斯方法 66
4.1 頻率法與貝葉斯概率
4.1.1 頻率法
4.1.2 貝葉斯方法
4.1.3 頻率派與貝葉斯派
4.2 頻率法拋擲硬幣
4.3 貝葉斯方法拋擲硬幣
4.3.1 啟發(fā)性的例子
4.3.2 繪制拋擲硬幣的概率
4.3.3 用概率表示拋擲硬幣
4.3.4 貝葉斯公式
4.3.5 關(guān)于貝葉斯公式的討論
4.4 貝葉斯公式與混淆矩陣
4.5 再論貝葉斯公式
4.5.1 后驗-先驗循環(huán)
4.5.2 貝葉斯循環(huán)實戰(zhàn)
4.6 多重假設(shè)
4.7 本章總結(jié)
第5 章 曲線和曲面
5.1 函數(shù)的性質(zhì)
5.2 導(dǎo)數(shù)
5.2.1 最大值和最小值
5.2.2 切線
5.2.3 用導(dǎo)數(shù)求最小值和最大值
5.3 梯度
5.3.1 水、重力和梯度
5.3.2 用梯度求最大值和最小值
5.3.3 鞍點
5.4 本章總結(jié)
第6 章 信息論
6.1 信息帶給我們的驚訝感
6.1.1 為什么會驚訝
6.1.2 信息解密
6.2 衡量信息量
6.3 自適應(yīng)碼
6.3.1 摩斯電碼
6.3.2 調(diào)整摩斯電碼
6.4 熵
6.5 交叉熵
6.5.1 兩種自適應(yīng)碼
6.5.2 使用編碼
6.5.3 實踐中的交叉熵 ·
6.6 KL散度
6.7 本章總結(jié)
第二部分 初級機(jī)器學(xué)習(xí)
第7 章 分類
7.1 二維空間的二元分類問題
7.2 二維空間的多分類問題
7.3 多元分類
7.3.1 一對多
7.3.2 一對一
7.4 聚類
7.5 維度詛咒
7.5.1 維度和密度
7.5.2 高維奇異性
7.6 本章總結(jié)
第8 章 訓(xùn)練和測試
8.1 訓(xùn)練
8.2 測試
8.2.1 測試集
8.2.2 驗證集
8.3 交叉驗證
8.4 k-Fold交叉驗證法
8.5 本章總結(jié)
第9 章 過擬合與欠擬合
9.1 找到一個好的擬合
9.1.1 過擬合
9.1.2 欠擬合
9.2 檢測和解決過擬合
9.2.1 提前停止
9.2.2 正則化
9.3 偏差和方差
9.3.1 匹配基礎(chǔ)數(shù)據(jù)
9.3.2 高偏差與低方差
9.3.3 低偏差與高方差
9.3.4 比較曲線
9.4 用貝葉斯方法擬合直線
9.5 本章總結(jié)
第10 章 數(shù)據(jù)預(yù)處理
10.1 基本數(shù)據(jù)清洗
10.2 數(shù)據(jù)一致性
10.3 數(shù)據(jù)類型
10.4 獨熱編碼
10.5 歸一化與標(biāo)準(zhǔn)化
10.5.1 歸一化
10.5.2 標(biāo)準(zhǔn)化
10.5.3 記錄轉(zhuǎn)換過程
10.6 其他轉(zhuǎn)換方式
10.6.1 切片處理
10.6.2 樣本切片
10.6.3 特征切片
10.6.4 元素切片
10.7 逆變換
10.8 交叉驗證中的信息泄露
10.9 收縮數(shù)據(jù)集
10.9.1 特征選擇
10.9.2 降維
10.10 主成分分析
10.10.1 簡單圖像的PCA處理
10.10.2 真實圖像的主成分分析
10.11 本章總結(jié)
第11 章 分類器
11.1 常見分類器
11.2 k-最近鄰算法
11.3 決策樹
11.3.1 決策樹概覽
11.3.2 決策樹構(gòu)建
11.3.3 過擬合樹
11.3.4 拆分節(jié)點
11.4 支持向量機(jī)
11.4.1 基礎(chǔ)算法
11.4.2 支持向量機(jī)核函數(shù)
11.5 樸素貝葉斯
11.6 分類器的對比
11.7 本章總結(jié)
第12 章 集成學(xué)習(xí)
12.1 投票
12.2 決策樹的集成
12.2.1 裝袋算法
12.2.2 隨機(jī)森林
12.2.3 極端隨機(jī)樹集成
12.3 助推法
12.4 本章總結(jié)
第三部分 深度學(xué)習(xí)的基礎(chǔ)
第13 章 神經(jīng)網(wǎng)絡(luò)
13.1 生物神經(jīng)元
13.2 人工神經(jīng)元
13.2.1 感知器
13.2.2 現(xiàn)代人工神經(jīng)元
13.3 繪制神經(jīng)元
13.4 前饋網(wǎng)絡(luò)
13.5 神經(jīng)網(wǎng)絡(luò)圖
13.6 初始化權(quán)重
13.7 深度神經(jīng)網(wǎng)絡(luò)
13.8 全連接層
13.9 張量
13.10 防止坍縮
13.11 激活函數(shù)
13.11.1 直線函數(shù)
13.11.2 階躍函數(shù)
13.11.3 分段線性函數(shù)
13.11.4 平滑函數(shù)
13.11.5 激活函數(shù)圖像總結(jié)
13.11.6 比較激活函數(shù)
13.12 Softmax函數(shù)
13.13 本章總結(jié)
第14 章 反向傳播算法
14.1 訓(xùn)練過程概述
14.1.1 降低誤差
14.1.2 一種緩慢的學(xué)習(xí)算法
14.1.3 梯度下降
14.2 快速開始
14.3 微型神經(jīng)網(wǎng)絡(luò)中的反向傳播
14.3.1 尋找輸出神經(jīng)元的增量
14.3.2 使用來調(diào)整權(quán)重
14.3.3 其他神經(jīng)元的值
14.4 大型神經(jīng)網(wǎng)絡(luò)中的反向傳播算法
14.5 學(xué)習(xí)率
14.5.1 構(gòu)建二分類器
14.5.2 選擇學(xué)習(xí)率
14.5.3 更小的學(xué)習(xí)率
14.6 本章總結(jié)
第15 章 優(yōu)化器
15.1 用二維曲線表示誤差
15.2 調(diào)整學(xué)習(xí)率
15.2.1 恒定大小的更新
15.2.2 隨著時間的推移改變學(xué)習(xí)率
15.2.3 衰減調(diào)整策略
15.3 更新策略
15.3.1 批量梯度下降法
15.3.2 隨機(jī)梯度下降法
15.3.3 小批次梯度下降法
15.4 梯度下降的變體
15.4.1 動量
15.4.2 內(nèi)斯特羅夫動量
15.4.3 AdaGrad算法
15.4.4 Adadelta和RMSProp算法
15.4.5 Adam算法
15.5 優(yōu)化器的選擇
15.6 正則化
15.6.1 Dropout
15.6.2 BatchNorm
15.7 本章總結(jié)
第四部分 進(jìn)階知識
第16 章 卷積神經(jīng)網(wǎng)絡(luò)
16.1 初識卷積
16.1.1 顏色檢測
16.1.2 權(quán)重共享
16.1.3 大一點的卷積核
16.1.4 卷積核和特征
16.1.5 填充
16.2 多維卷積
16.3 多重卷積核
16.4 卷積層
16.4.1 一維卷積
16.4.2 11卷積
16.5 更改輸出大小
16.5.1 池化
16.5.2 跨步前進(jìn)
16.5.3 轉(zhuǎn)置卷積
16.6 卷積核的層次結(jié)構(gòu)
16.6.1 簡化假設(shè)
16.6.2 尋找面具
16.6.3 尋找眼睛、鼻子和嘴巴
16.6.4 應(yīng)用卷積核
16.7 本章總結(jié)
第17 章 卷積網(wǎng)絡(luò)實踐
17.1 手寫數(shù)字分類
17.2 VGG16
17.3 圖解卷積核(1)
17.4 圖解卷積核(2)
17.5 對抗樣本
17.6 本章總結(jié)
第18 章 自編碼器
18.1 編碼簡介
18.2 混合表示
18.3 最簡單的自編碼器
18.4 更好的自編碼器
18.5 探索自編碼器
18.5.1 探索潛在變量
18.5.2 參數(shù)空間
18.5.3 混合潛在變量
18.5.4 基于新輸入的預(yù)測
18.6 卷積自編碼器
18.6.1 混合潛在變量
18.6.2 基于新輸入的預(yù)測
18.7 去噪
18.8 可變自編碼器
18.8.1 潛在變量的分布
18.8.2 可變自編碼器結(jié)構(gòu)
18.9 探索VAE
18.9.1 使用MNIST樣本
18.9.2 使用兩個潛在變量
18.9.3 產(chǎn)生新的輸入
18.10 本章總結(jié)
第19 章 循環(huán)神經(jīng)網(wǎng)絡(luò)
19.1 處理語言
19.1.1 常見的NLP任務(wù)
19.1.2 文本數(shù)值化
19.1.3 微調(diào)和下游網(wǎng)絡(luò)
19.2 全連接預(yù)測
19.2.1 測試網(wǎng)絡(luò)
19.2.2 失敗的原因
19.3 循環(huán)神經(jīng)網(wǎng)絡(luò)
19.3.1 狀態(tài)
XVI
19.3.2 卷起圖表
19.3.3 實踐循環(huán)單元
19.3.4 訓(xùn)練循環(huán)神經(jīng)網(wǎng)絡(luò)
19.3.5 長短期記憶與門控循環(huán)網(wǎng)絡(luò)
19.4 使用循環(huán)神經(jīng)網(wǎng)絡(luò)
19.4.1 處理太陽黑子數(shù)據(jù)
19.4.2 生成文本
19.4.3 其他架構(gòu)
19.5 Seq2Seq
19.6 本章總結(jié)
第20 章 注意力機(jī)制和Transformer模型
20.1 嵌入
20.1.1 詞嵌入技術(shù)
20.1.2 ELMo模型
20.2 注意力機(jī)制
20.2.1 形象比喻
20.2.2 自注意力機(jī)制
20.2.3 Q/KV注意力機(jī)制
20.2.4 多頭注意力機(jī)制
20.2.5 層圖標(biāo)
20.3 Transformer模型
20.3.1 跳躍連接
20.3.2 Norm-Add
20.3.3 位置編碼
20.3.4 構(gòu)建Transformer模塊
20.3.5 運行Transformer模塊
20.4 BERT和GPT-2
20.4.1 BERT
20.4.2 GPT-2
20.4.3 生成器討論
20.4.4 數(shù)據(jù)中毒
20.5 本章總結(jié)
第21 章 強(qiáng)化學(xué)習(xí)
21.1 基本思想
21.2 學(xué)習(xí)新游戲
21.3 強(qiáng)化學(xué)習(xí)的結(jié)構(gòu)
21.3.1 步驟1:代理選擇操作
21.3.2 步驟2:環(huán)境做出反應(yīng)
21.3.3 步驟3:代理自我更新
21.3.4 回到全局
21.3.5 理解回報
21.4 Flippers
21.5 L-Learning
21.5.1 基礎(chǔ)知識
21.5.2 L-Learning算法
21.5.3 性能測試
21.5.4 不可預(yù)測性
21.6 Q-Learning
21.6.1 Q值和更新
21.6.2 Q-Learning策略
21.6.3 策略總覽
21.6.4 房間里的大象
21.6.5 Q-Learning的作用
21.7 SARSA
21.7.1 SARSA算法
21.7.2 SARSA的作用
21.7.3 Q-Learning與SARSA的比較
21.8 縱觀全局
21.9 本章總結(jié)
第22 章 生成對抗網(wǎng)絡(luò)
22.1 偽造籌碼
22.1.1 從經(jīng)驗中學(xué)習(xí)
22.1.2 訓(xùn)練生成器網(wǎng)絡(luò)
22.1.3 學(xué)習(xí)過程
22.1.4 理解對抗性
22.2 實現(xiàn)生成對抗網(wǎng)絡(luò)
22.2.1 鑒別器
22.2.2 生成器
22.2.3 訓(xùn)練生成對抗網(wǎng)絡(luò)
22.3 生成對抗網(wǎng)絡(luò)的作用
22.3.1 構(gòu)建鑒別器和生成器
22.3.2 訓(xùn)練網(wǎng)絡(luò)
22.3.3 測試網(wǎng)絡(luò)
22.4 深度卷積生成對抗網(wǎng)絡(luò)
22.5 挑戰(zhàn)
22.5.1 大樣本訓(xùn)練
22.5.2 模態(tài)崩潰
22.5.3 使用生成的數(shù)據(jù)訓(xùn)練
22.6 本章總結(jié)
第23 章 創(chuàng)意應(yīng)用
23.1 深夢系統(tǒng)
23.1.1 刺激卷積核
23.1.2 測試我們的算法
23.2 神經(jīng)風(fēng)格遷移
23.2.1 表現(xiàn)風(fēng)格
23.2.2 表現(xiàn)內(nèi)容
23.2.3 風(fēng)格和內(nèi)容
23.2.4 測試算法
23.3 生成本書更多內(nèi)容
23.4 本章總結(jié)
23.5 最后的思考
參考文獻(xiàn)
圖片來源
索引