Keras深度學(xué)習(xí):入門 實戰(zhàn)與進階
定 價:109 元
叢書名:智能系統(tǒng)與技術(shù)叢書
內(nèi)容介紹這是一本理論與實踐兼顧的深度學(xué)習(xí)著作,它通過精心的內(nèi)容組織和豐富的案例講解,能讓讀者零基礎(chǔ)入門,并迅速晉級為有一定理論基礎(chǔ)和項目實戰(zhàn)能力的高手。基礎(chǔ)方面,不僅介紹了Keras等各種深度學(xué)習(xí)框架的使用和開發(fā)環(huán)境的搭建,還對深度學(xué)習(xí)的基礎(chǔ)知識做了全面講解;理論方面,詳細講解了全連接神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、自編碼器和生成式對抗網(wǎng)絡(luò)等核心神經(jīng)網(wǎng)絡(luò)的原理和應(yīng)用;應(yīng)用層面,不僅講解了如何用Keras開發(fā)各種深度學(xué)習(xí)模型,而且還講解了深度學(xué)習(xí)在圖像處理和文本處理兩大核心場景的應(yīng)用;實戰(zhàn)方面,每個深度學(xué)習(xí)模型原理的背后都有精心設(shè)計的Keras實現(xiàn)代碼,每章都有多個綜合性案例,讀者可以在調(diào)試和執(zhí)行代碼的過程中掌握深度學(xué)習(xí)模型設(shè)計與開發(fā)的各種方法和技巧。本書內(nèi)容結(jié)構(gòu)合理,重點突出;寫作方式循序漸進,易于讀者理解;行文風(fēng)格幽默風(fēng)趣,讀起來不枯燥。
(1)作者經(jīng)驗豐富:資深A(yù)I技術(shù)專家和數(shù)據(jù)挖掘?qū)<,擁有超過14年技術(shù)研發(fā)和管理經(jīng)驗,連續(xù)6年被微軟評為數(shù)據(jù)科學(xué)和AI方向MVP。(2)零基礎(chǔ)快速入門:針對性內(nèi)容設(shè)計,結(jié)構(gòu)合理,內(nèi)容突出,零基礎(chǔ)讀者也能快速入門深度學(xué)習(xí)。(3)理論知識扎實:深度學(xué)習(xí)工具使用、基礎(chǔ)知識、神經(jīng)網(wǎng)絡(luò)、模型構(gòu)建等理論知識全部詳細講解。(4)實戰(zhàn)案例豐富:原理輔以Keras代碼,每章都有綜合案例及其代碼分析,結(jié)合生產(chǎn)環(huán)境展開。
為什么要寫這本書人工智能引領(lǐng)了一個新的研究和發(fā)展方向,機器學(xué)習(xí)和深度學(xué)習(xí)均屬于人工智能范疇,F(xiàn)在各個領(lǐng)域都處于運用深度學(xué)習(xí)技術(shù)進行業(yè)務(wù)創(chuàng)新和技術(shù)創(chuàng)新的階段。Keras是一個對零基礎(chǔ)用戶非常友好且簡單的深度學(xué)習(xí)框架,它是TensorFlow高級集成API,特點是能夠快速實現(xiàn)模型的搭建。模型快速搭建是高效進行科學(xué)研究的關(guān)鍵。本書涵蓋了全連接神經(jīng)網(wǎng)絡(luò)(MLP)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、自編碼器(AE)、生成式對抗網(wǎng)絡(luò)(GAN)等模型原理及Keras實踐,重點講解了如何對圖像數(shù)據(jù)和中文文本數(shù)據(jù)進行分析處理,以幫助讀者學(xué)會訓(xùn)練這些模型并實現(xiàn)真實的圖像處理和語言處理任務(wù)。本書由淺入深、循序漸進,盡可能用通俗易懂的語言講解深度學(xué)習(xí)各種模型的基本原理,在講解Keras實現(xiàn)深度學(xué)習(xí)的知識點時更注重方法和經(jīng)驗的傳遞,力求做到授之以漁,讓讀者能將本書所學(xué)應(yīng)用到日常學(xué)習(xí)或工作中。本書特色本書采用大量的實例,覆蓋了使用Keras進行深度學(xué)習(xí)建模的常用知識,同時對所用實例中的Keras代碼和模型效果均進行了深入解讀,以幫助讀者更好地將所學(xué)知識移植到各自的實際工作中。深度學(xué)習(xí)在實際工作中常用于圖像數(shù)據(jù)和文本數(shù)據(jù)的深度挖掘,本書也詳細闡述了如何對圖像數(shù)據(jù)和中文文本數(shù)據(jù)進行數(shù)據(jù)處理及轉(zhuǎn)換,以幫助初學(xué)者了解如何將原始數(shù)據(jù)處理成深度學(xué)習(xí)模型可以識別的數(shù)據(jù)。本書適用對象本書適合以下人員閱讀:高等院校相關(guān)專業(yè)師生;培訓(xùn)機構(gòu)的師生;數(shù)據(jù)分析、數(shù)據(jù)挖掘人員;人工智能、深度學(xué)習(xí)入門讀者;數(shù)據(jù)科學(xué)家;進行深度學(xué)習(xí)應(yīng)用研究的科研人員。如何閱讀本書全書一共14章,涵蓋了主流深度學(xué)習(xí)框架介紹、TensorFlow和Keras深度學(xué)習(xí)環(huán)境搭建,以及如何利用Keras開發(fā)深度學(xué)習(xí)模型。本書的重點是深度學(xué)習(xí)在圖像和文本方面的數(shù)據(jù)處理及應(yīng)用,各種深度學(xué)習(xí)網(wǎng)絡(luò)均有相應(yīng)的實例,目的是讓讀者既能通過本書學(xué)到深度學(xué)習(xí)理論,又能通過實例學(xué)習(xí)提升動手能力,將所學(xué)知識遷移到實際工作中。第1章首先介紹了機器學(xué)習(xí)與深度學(xué)習(xí)的區(qū)別及聯(lián)系,以及目前主流的深度學(xué)習(xí)框架。然后詳細介紹了如何安裝Python的科學(xué)計算環(huán)境Anaconda、R語言的IDE工具RStudio,以及如何在Anaconda和RStudio中安裝TensorFlow和Keras。后以深度學(xué)習(xí)中的入門數(shù)據(jù)集MNIST為例,介紹如何利用Keras構(gòu)建深度學(xué)習(xí)模型。第2章介紹了深度學(xué)習(xí)的基礎(chǔ)知識。首先介紹神經(jīng)網(wǎng)絡(luò)常用激活函數(shù)、網(wǎng)絡(luò)拓撲結(jié)構(gòu)及損失函數(shù),然后介紹網(wǎng)絡(luò)優(yōu)化的方法及如何防止模型過擬合,后通過一個綜合實例介紹如何使用技巧優(yōu)化深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),提升模型的預(yù)測能力。第3章詳細介紹了如何用Keras開發(fā)深度學(xué)習(xí)模型。內(nèi)容包括Keras模型的生命周期、Keras的兩種模型、模型可視化、Keras中的回調(diào)函數(shù)與模型的保存及序列化等。第4章介紹了深度學(xué)習(xí)的圖像數(shù)據(jù)預(yù)處理技術(shù)。首先重點介紹了圖像處理EBImage包的使用,包含圖像的讀取和保存、圖像處理等技術(shù),然后介紹了利用Keras如何進行圖像預(yù)處理,后通過一個綜合實例介紹了如何對小數(shù)據(jù)集的彩色花圖像進行批量讀取及處理,并建立多種深度學(xué)習(xí)模型來對比效果,及通過數(shù)據(jù)增強技術(shù)提升模型的預(yù)測能力。第5章~第9章分別詳細介紹了深度學(xué)習(xí)常用的神經(jīng)網(wǎng)絡(luò)模型:全連接神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、自編碼器和生成式對抗網(wǎng)絡(luò)。第5章通過多個實例引導(dǎo)讀者如何用全連接神經(jīng)網(wǎng)絡(luò)解決各種經(jīng)典的預(yù)測問題,包含波士頓房價預(yù)測的回歸問題、鳶尾花分類和彩色手寫數(shù)字圖像識別的多分類問題、印第安人糖尿病診斷和泰坦尼克號旅客生存預(yù)測的二分類問題。第6章首先介紹了卷積神經(jīng)網(wǎng)絡(luò)的基本原理及Keras實現(xiàn),并通過多個實例幫助讀者掌握卷積神經(jīng)網(wǎng)絡(luò)的使用,包含小數(shù)據(jù)集的圖像識別、彩色手寫數(shù)字圖像識別以及經(jīng)典的CIFAR-10圖像識別的多分類實例。第7章首先介紹了簡單循環(huán)網(wǎng)絡(luò)(SimpleRNN)的基本原理及Keras實現(xiàn),并利用SimpleRNN實現(xiàn)手寫數(shù)字識別及預(yù)測紐約出生人口數(shù)量。然后介紹了長短期記憶網(wǎng)絡(luò)(LSTM)的基本原理及Keras實現(xiàn),并利用LSTM實現(xiàn)股價預(yù)測。后介紹了門控循環(huán)單元網(wǎng)絡(luò)(GRU)的基本原理及Keras實現(xiàn),并基于GRU網(wǎng)絡(luò)對溫度進行預(yù)測。第8章介紹了自編碼器的基本結(jié)構(gòu)以及常用自編碼器(稀疏自編碼器、降噪自編碼器以及棧式自編碼器)的基本原理及Keras實現(xiàn),并利用兩個實例引導(dǎo)讀者將自編碼器應(yīng)用在不同的實際場景中。第9章首先介紹了生成式對抗網(wǎng)絡(luò)(GAN)的基本原理,然后給出了兩個實例:使用GAN生成手寫數(shù)字,深度卷積生成式對抗網(wǎng)絡(luò)。第10章~第13章詳細介紹了利用深度學(xué)習(xí)對文本數(shù)據(jù)進行預(yù)處理及建模的技術(shù),并重點介紹了對中文文本的處理及建模。第10章介紹了R語言用于文本挖掘的常用擴展包,包括tm包、tmcn包、Rwordseg包、jiebaR包以及tidytext包。第11章介紹了如何使用Keras處理文本數(shù)據(jù),包括文本分詞、獨熱編碼、分詞器和填充文本序列,還介紹了詞嵌入。第12章首先介紹IMDB影評數(shù)據(jù)集,接著利用機器學(xué)習(xí)進行情感
作者簡介(照片)謝佳標(biāo)資深A(yù)I技術(shù)專家和數(shù)據(jù)挖掘?qū)<,擁有超過14年的技術(shù)研發(fā)和管理經(jīng)驗。精通Python和Keras等深度學(xué)習(xí)框架,在數(shù)據(jù)挖掘和人工智能技術(shù)領(lǐng)域有非常深厚的積累。連續(xù)6年(2017~2022年)被微軟評為數(shù)據(jù)科學(xué)和AI方向價值專家(微軟MVP)。資深R語言技術(shù)專家,中國現(xiàn)場統(tǒng)計研究會大數(shù)據(jù)統(tǒng)計分會屆理事。歷屆中國R語言和數(shù)據(jù)科學(xué)大會特邀演講嘉賓,受邀在國內(nèi)多所高校舉行以數(shù)據(jù)主題的公益講座。著有多本技術(shù)暢銷書,如《R語言游戲數(shù)據(jù)分析與挖掘》《R語言與數(shù)據(jù)挖掘》。
前言第1章 準(zhǔn)備深度學(xué)習(xí)的環(huán)境11.1 機器學(xué)習(xí)與深度學(xué)習(xí)11.2 主流深度學(xué)習(xí)框架介紹41.2.1 TensorFlow41.2.2 Keras51.2.3 Caffe51.2.4 PyTorch61.2.5 Theano61.2.6 CNTK61.2.7 MXNet71.2.8 ONNX71.3 配置深度學(xué)習(xí)的軟件環(huán)境81.3.1 安裝Anaconda81.3.2 在Anaconda中安裝TensorFlow81.3.3 在Anaconda中安裝Keras101.3.4 安裝R和RStudio101.3.5 在RStudio中安裝TensorFlow121.3.6 在RStudio中安裝Keras121.4 Keras構(gòu)建深度學(xué)習(xí)模型131.4.1 MNIST數(shù)據(jù)集131.4.2 數(shù)據(jù)預(yù)處理141.4.3 模型建立及訓(xùn)練161.4.4 模型評估及預(yù)測181.5 本章小結(jié)22第2章 深度學(xué)習(xí)簡介232.1 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)232.1.1 神經(jīng)元232.1.2 激活函數(shù)242.1.3 神經(jīng)網(wǎng)絡(luò)的拓撲結(jié)構(gòu)302.1.4 神經(jīng)網(wǎng)絡(luò)的主要類型312.1.5 損失函數(shù)322.2 優(yōu)化網(wǎng)絡(luò)的方法332.2.1 梯度下降算法332.2.2 自適應(yīng)學(xué)習(xí)率算法372.3 防止模型過擬合422.3.1 過擬合與欠擬合422.3.2 正則化的方法432.3.3 數(shù)據(jù)拆分442.3.4 Dropout452.4 綜合實例:電信流失用戶預(yù)測462.4.1 數(shù)據(jù)預(yù)處理462.4.2 選擇優(yōu)化器472.4.3 增加內(nèi)部隱藏層神經(jīng)元數(shù)量482.4.4 采用正則化避免過擬合492.5 本章小結(jié)52第3章 如何用Keras開發(fā)深度學(xué)習(xí)模型533.1 Keras模型的生命周期533.1.1 數(shù)據(jù)預(yù)處理533.1.2 定義網(wǎng)絡(luò)563.1.3 編譯網(wǎng)絡(luò)583.1.4 訓(xùn)練網(wǎng)絡(luò)583.1.5 評估網(wǎng)絡(luò)603.1.6 做出預(yù)測613.2 Keras模型613.2.1 序貫?zāi)P?13.2.2 使用函數(shù)式API創(chuàng)建的模型633.3 模型可視化663.3.1 網(wǎng)絡(luò)拓撲可視化663.3.2 模型訓(xùn)練可視化673.3.3 TensorBoard可視化703.4 Keras中的回調(diào)函數(shù)773.4.1 回調(diào)函數(shù)介紹773.3.2 使用回調(diào)函數(shù)尋找模型803.5 模型保存及序列化823.5.1 使用HDF5格式保存模型833.5.2 使用JSON格式保存模型873.5.3 使用YAML格式保存模型883.6 本章小結(jié)88第4章 深度學(xué)習(xí)的圖像數(shù)據(jù)預(yù)處理894.1 圖像處理EBImage包894.1.1 圖像讀取與保存894.1.2 圖像對象和矩陣914.1.3 色彩管理944.1.4 圖像處理974.1.5 空間變換994.1.6 圖像濾波1024.1.7 形態(tài)運算1054.1.8 圖像分割1064.2 利用Keras進行圖像預(yù)處理1074.2.1 圖像讀取與保存1074.2.2 圖像生成器image_data_generator1104.2.3 image_data_generator實例1154.3 綜合實例:對彩色花圖像進行分類1184.3.1 圖像數(shù)據(jù)讀取及探索1184.3.2 MLP模型建立及預(yù)測1224.3.3 CNN模型建立與預(yù)測1244.3.4 利用數(shù)據(jù)增強改善CNN模型1264.4 本章小結(jié)128第5章 全連接神經(jīng)網(wǎng)絡(luò)的經(jīng)典實例1295.1 回歸問題實例:波士頓房價預(yù)測1295.1.1 波士頓房價數(shù)據(jù)描述1295.1.2 波士頓房價數(shù)據(jù)預(yù)處理1315.1.3 波士頓房價預(yù)測1315.2 多分類實例:鳶尾花分類1345.2.1 鳶尾花數(shù)據(jù)描述1345.2.2 鳶尾花數(shù)據(jù)預(yù)處理1365.2.3 鳶尾花分類建模1375.3 二分類實例:印第安人糖尿病診斷1395.3.1 印第安人糖尿病數(shù)據(jù)描述1395.3.2 印第安人糖尿病數(shù)據(jù)預(yù)處理1415.3.3 印第安人糖尿病診斷建模1425.4 二分類實例:泰坦尼克號上旅客生存預(yù)測1445.4.1 泰坦尼克號的旅客數(shù)據(jù)描述1455.4.2 泰坦尼克號的旅客數(shù)據(jù)預(yù)處理1465.4.3 生存預(yù)測建模1495.5 多分類實例:彩色手寫數(shù)字圖像識別1515.5.1 彩色手寫數(shù)字圖像數(shù)據(jù)描述1515.5.2 彩色手寫數(shù)字圖像數(shù)據(jù)預(yù)處理1525.5.3 彩色手寫數(shù)字圖像數(shù)據(jù)建模1555.6 本章小結(jié)158第6章 卷積神經(jīng)網(wǎng)絡(luò)及圖像分類1596.1 卷積神經(jīng)網(wǎng)絡(luò)原理1596.1.1 卷積層1616.1.2 卷積層的Keras實現(xiàn)1636.1.3 池化層1676.1.4 池化層的Keras實現(xiàn)1686.1.5 全連接層1716.2 多分類實例:小數(shù)據(jù)集的圖像識別1716.2.1 導(dǎo)入本地圖像數(shù)據(jù)1716.2.2 圖像數(shù)據(jù)預(yù)處理1736.2.3 建立全連接神經(jīng)網(wǎng)絡(luò)模型識別小數(shù)據(jù)集圖像1756.2.4 建立簡單卷積神經(jīng)網(wǎng)絡(luò)識別小數(shù)據(jù)集圖像1776.2.5 建立復(fù)雜卷積神經(jīng)網(wǎng)絡(luò)識別小數(shù)據(jù)集圖像1806.3 多分類實例:彩色手寫數(shù)字圖像識別1836.3.1 導(dǎo)入及處理本地手寫數(shù)字圖像1836.3.2 MNIST數(shù)據(jù)預(yù)處理1856.3.3 構(gòu)建簡單卷積神經(jīng)網(wǎng)絡(luò)識別彩色手寫數(shù)字1866.3.4 構(gòu)建復(fù)雜卷積神經(jīng)網(wǎng)絡(luò)識別彩色手寫數(shù)字1896.4 多分類實例:CIFAR-10圖像識別1926.4.1 CIFAR-10數(shù)據(jù)描述1926.4.2 加載CIFAR-10數(shù)據(jù)1926.4.3 CIFAR-10數(shù)據(jù)預(yù)處理1946.4.4 構(gòu)建簡單卷積神經(jīng)網(wǎng)絡(luò)識別CIFAR-10圖像1956.4.5 構(gòu)建復(fù)雜卷積神經(jīng)網(wǎng)絡(luò)識別CIFAR-10圖像1996.5 本章小結(jié)204第7章 循環(huán)神經(jīng)網(wǎng)絡(luò)2057.1 簡單循環(huán)網(wǎng)絡(luò)2057.1.1 簡單循環(huán)網(wǎng)絡(luò)基本原理2067.1.2 簡單循環(huán)網(wǎng)絡(luò)的Keras實現(xiàn)2077.1.3 多分類實例:SimpleRNN實現(xiàn)手寫數(shù)字識別2087.1.4 回歸問題實例:SimpleRNN預(yù)測紐約出生人口數(shù)量2117.2 長短期記憶網(wǎng)絡(luò)(LSTM)2167.2.1 LSTM基本原理2167.2.2 LSTM的Keras實現(xiàn)2187.2.3 回歸問題實例:LSTM預(yù)測股價2217.3 門控循環(huán)單元(GRU)2287.3.1 GRU基本原理2287.3.2 GRU的Keras實現(xiàn)2297.3.3 回歸問題實例:基于GRU網(wǎng)絡(luò)的溫度預(yù)測2307.4 本章小結(jié)235第8章 自編碼器2368.1 自編碼器介紹2368.1.1 自編碼器的基本結(jié)構(gòu)2378.1.2 使用Keras建立簡單自編碼器2388.1.3 稀疏自編碼器2428.1.4 降噪自編碼器2458.1.5 棧式自編碼器2488.2 實例:使用自編碼器預(yù)測信用風(fēng)險2528.2.1 數(shù)據(jù)理解2528.2.2 數(shù)據(jù)預(yù)處理2548.2.3 構(gòu)建自編碼器2548.2.4 模型訓(xùn)練2558.2.5 模型預(yù)測2558.3 實例:使用自編碼器建立推薦系統(tǒng)2588.3.1 數(shù)據(jù)理解2598.3.2 數(shù)據(jù)預(yù)處理2608.3.3 構(gòu)建自編碼器2618.3.4 模型訓(xùn)練2638.3.5 模型預(yù)測2638.4 本章小結(jié)264第9章 生成式對抗網(wǎng)絡(luò)2659.1 生成式對抗網(wǎng)絡(luò)簡介2659.2 實例:使用GAN生成手寫數(shù)字2689.2.1 數(shù)據(jù)準(zhǔn)備2689.2.2 構(gòu)建生成器2699.2.3 構(gòu)建判別器2719.2.4 生成GAN模型2719.2.5 訓(xùn)練GAN模型2739.3 實例:深度卷積生成式對抗網(wǎng)絡(luò)2779.3.1 構(gòu)建生成器2799.3.2 構(gòu)建判別器2809.3.3 編譯模型2819.3.4 訓(xùn)練DCGAN模型2829.4 本章小結(jié)285第10章 使用R語言進行文本挖掘28610.1 文本挖掘流程28610.2 相關(guān)R包簡介及安裝28710.2.1 tm包簡介及安裝28710.2.2 tmcn包簡介及安裝28710.2.3 Rwordseg包簡介及安裝28910.2.4 jiebaR包簡介及安裝29010.2.5 tidytext包簡介及安裝29010.3 tm包快速上手29010.3.1 數(shù)據(jù)讀寫29010.3.2 語料庫轉(zhuǎn)換29210.3.3 語料庫過濾29310.3.4 元數(shù)據(jù)管理29410.3.5 詞條-文檔關(guān)系矩陣29610.4 tmcn包快速上手29810.4.1 中文語料資源29810.4.2 中文編碼轉(zhuǎn)換30010.4.3 字符操作30110.5 Rwordseg包快速上手30210.5.1 中文分詞30210.5.2 添加和卸載自定義詞典30310.6 jiebaR包快速上手30510.6.1 分詞引擎30510.6.2 自定義詞典30810.6.3 停止詞過濾31210.6.4 關(guān)鍵詞提取31310.7 tidytext包快速上手31510.7.1 整潔文本格式31510.7.2 使用tidy處理中國四大名著32010.7.3 對中國四大名著進行詞頻統(tǒng)計32210.7.4 非整潔格式轉(zhuǎn)換32510.8 本章小結(jié)327第11章 如何使用Keras處理文本數(shù)據(jù)32811.1 使用text_to_word_sequence分詞32811.2 使用獨熱編碼32911.3 分詞器Tokenizer33111.4 使用pad_sequences填充文本序列33511.5 詞嵌入33711.5.1 學(xué)習(xí)詞嵌入33711.5.2 實例:學(xué)習(xí)詞嵌入33811.5.3 預(yù)訓(xùn)練詞嵌入34211.5.4 實例:預(yù)訓(xùn)練GloVe嵌入34311.6 本章小結(jié)348第12章 情感分析實例:IMDB影評情感分析34912.1 IMDB數(shù)據(jù)集34912.1.1 加載IMDB數(shù)據(jù)集34912.1.2 查看IMDB數(shù)據(jù)集35012.2 利用機器學(xué)習(xí)進行情感分析35212.2.1 數(shù)據(jù)預(yù)處理35212.2.2 機器學(xué)習(xí)預(yù)測情感35312.3 利用深度學(xué)習(xí)進行情感分析35612.3.1 數(shù)據(jù)預(yù)處理35612.3.2 多層感知器模型35712.3.3 卷積神經(jīng)網(wǎng)絡(luò)模型35912.3.4 RNN模型36112.3.5 LSTM模型36312.3.6 GRU模型36512.4 本章小結(jié)367第13章 中文文本分類實例:新浪新聞分類實例36813.1 SPORT數(shù)據(jù)集36813.2 利用機器學(xué)習(xí)進行文本分類37413.2.1 數(shù)據(jù)預(yù)處理37413.2.2 數(shù)據(jù)分區(qū)37613.2.3 機器學(xué)習(xí)建模37613.3 利用深度學(xué)習(xí)進行文本分類37813.3.1 數(shù)據(jù)預(yù)處理37813.3.2 多層感知器模型37913.3.3 一維卷積神經(jīng)網(wǎng)絡(luò)模型38113.3.4 RNN模型38313.3.5 LSTM模型38513.3.6 GRU模型38613.3.7 雙向LSTM模型38813.3.8 比較深度學(xué)習(xí)模型的預(yù)測效果38913.4 本章小結(jié)390第14章 通過預(yù)訓(xùn)練模型實現(xiàn)遷移學(xué)習(xí)39114.1 遷移學(xué)習(xí)概述39114.2 Keras預(yù)訓(xùn)練模型概述39314.3 VGGNet卷積網(wǎng)絡(luò)模型39314.3.1 VGGNet概述39414.3.2 加載預(yù)訓(xùn)練VGG16網(wǎng)絡(luò)39514.3.3 預(yù)測單張圖像內(nèi)容39714.3.4 預(yù)測多張圖像內(nèi)容40014.3.5 提取預(yù)訓(xùn)練網(wǎng)絡(luò)輸出特征實現(xiàn)花卉圖像分類器40214.4 ResNet卷積網(wǎng)絡(luò)模型41014.4.1 ResNet概述41014.4.2 ResNet50的Keras實現(xiàn)41114.5 本章小結(jié)413