注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)人工智能深度學(xué)習(xí)入門:基于Python的理論與實現(xiàn)+深度學(xué)習(xí)的數(shù)學(xué)+Python深度學(xué)習(xí)(套裝共3冊)

深度學(xué)習(xí)入門:基于Python的理論與實現(xiàn)+深度學(xué)習(xí)的數(shù)學(xué)+Python深度學(xué)習(xí)(套裝共3冊)

深度學(xué)習(xí)入門:基于Python的理論與實現(xiàn)+深度學(xué)習(xí)的數(shù)學(xué)+Python深度學(xué)習(xí)(套裝共3冊)

定 價:¥247.00

作 者: [日] 齋藤康毅,涌井良幸,涌井貞美,弗朗索瓦.肖萊,[Franc?ois ... 著
出版社: 人民郵電出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787115004796 出版時間: 2452-10-01 包裝: 平裝
開本: 16開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  《深度學(xué)習(xí)入門 基于Python的理論與實現(xiàn)》本書是深度學(xué)習(xí)真正意義上的入門書,深入淺出地剖析了深度學(xué)習(xí)的原理和相關(guān)技術(shù)。書中使用Python3,盡量不依賴外部庫或工具,從基本的數(shù)學(xué)知識出發(fā),帶領(lǐng)讀者從零創(chuàng)建一個經(jīng)典的深度學(xué)習(xí)網(wǎng)絡(luò),使讀者在此過程中逐步理解深度學(xué)習(xí)。書中不僅介紹了深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的概念、特征等基礎(chǔ)知識,對誤差反向傳播法、卷積神經(jīng)網(wǎng)絡(luò)等也有深入講解,此外還介紹了深度學(xué)習(xí)相關(guān)的實用技巧,自動駕駛、圖像生成、強化學(xué)習(xí)等方面的應(yīng)用,以及為什么加深層可以提高識別精度等疑難的問題。 本書適合深度學(xué)習(xí)初學(xué)者閱讀,也可作為高校教材使用?!渡疃葘W(xué)習(xí)的數(shù)學(xué)》基于豐富的圖示和具體示例,通俗易懂地介紹了深度學(xué)習(xí)相關(guān)的數(shù)學(xué)知識。第1章介紹神經(jīng)網(wǎng)絡(luò)的概況;第2章介紹理解神經(jīng)網(wǎng)絡(luò)所需的數(shù)學(xué)基礎(chǔ)知識;第3章介紹神經(jīng)網(wǎng)絡(luò)的*優(yōu)化;第4章介紹神經(jīng)網(wǎng)絡(luò)和誤差反向傳播法;第5章介紹深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)。書中使用Excel進行理論驗證,幫助讀者直觀地體驗深度學(xué)習(xí)的原理?!禤ython深度學(xué)習(xí)》本書由Keras之父、現(xiàn)任Google人工智能研究員的弗朗索瓦?肖萊(Franc.ois Chollet)執(zhí)筆,詳盡介紹了用Python和Keras進行深度學(xué)習(xí)的探索實踐,包括計算機視覺、自然語言處理、產(chǎn)生式模型等應(yīng)用。書中包含30多個代碼示例,步驟講解詳細透徹。由于本書立足于人工智能的可達性和大眾化,讀者無須具備機器學(xué)習(xí)相關(guān)背景知識即可展開閱讀。在學(xué)習(xí)完本書后,讀者將具備搭建自己的深度學(xué)習(xí)環(huán)境、建立圖像識別模型、生成圖像和文字等能力。

作者簡介

  《深度學(xué)習(xí)入門 基于Python的理論與實現(xiàn)》 齋藤康毅(作者)東京工業(yè)大學(xué)畢業(yè),并完成東京大學(xué)研究生院課程。現(xiàn)從事計算機視覺與機器學(xué)習(xí)相關(guān)的研究和開發(fā)工作。是Introducing Python、Python in Practice、The Elements of Computing Systems、Building Machine Learning Systems with Python的日文版譯者。 《深度學(xué)習(xí)的數(shù)學(xué)》涌井良幸(作者)1950年生于東京,畢業(yè)于東京教育大學(xué)(現(xiàn)筑波大學(xué))數(shù)學(xué)系,現(xiàn)為自由職業(yè)者。著有《用Excel學(xué)深度學(xué)習(xí)》(合著)、《統(tǒng)計學(xué)有什么用?》等。 涌井貞美(作者)1952年生于東京,完成東京大學(xué)理學(xué)系研究科碩士課程,現(xiàn)為自由職業(yè)者。著有《用Excel學(xué)深度學(xué)習(xí)》(合著)、《圖解貝葉斯統(tǒng)計入門》等。 《Python深度學(xué)習(xí)》本書由Keras之父、現(xiàn)任Google人工智能研究員的弗朗索瓦?肖萊(Franc.ois Chollet)執(zhí)筆,詳盡介紹了用Python和Keras進行深度學(xué)習(xí)的探索實踐,包括計算機視覺、自然語言處理、產(chǎn)生式模型等應(yīng)用。書中包含30多個代碼示例,步驟講解詳細透徹。由于本書立足于人工智能的可達性和大眾化,讀者無須具備機器學(xué)習(xí)相關(guān)背景知識即可展開閱讀。在學(xué)習(xí)完本書后,讀者將具備搭建自己的深度學(xué)習(xí)環(huán)境、建立圖像識別模型、生成圖像和文字等能力。

圖書目錄

《深度學(xué)習(xí)入門基于Python的理論與實現(xiàn)》
前言 xv
第1章Python入門 1
1.1 Python是什么 1
1.2 Python的安裝 2
1.3 Python解釋器 4
1.4 Python腳本文件 9
1.5 NumPy 11
1.6 Matplotlib 16
1.7 小結(jié) 19
第2章感知機 21
2.1 感知機是什么 21
2.2 簡單邏輯電路 23
2.3 感知機的實現(xiàn) 25
2.4 感知機的局限性 28
2.5 多層感知機 31
2.6 從與非門到計算機 35
2.7 小結(jié) 36
第3章神經(jīng)網(wǎng)絡(luò) 37
3.1 從感知機到神經(jīng)網(wǎng)絡(luò) 37
3.2 激活函數(shù) 42
3.3 多維數(shù)組的運算 50
3.4 3層神經(jīng)網(wǎng)絡(luò)的實現(xiàn) 56
3.5 輸出層的設(shè)計 63
3.6 手寫數(shù)字識別 69
3.7 小結(jié) 79
第4章神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí) 81
4.1 從數(shù)據(jù)中學(xué)習(xí) 81
4.2 損失函數(shù) 85
4.3 數(shù)值微分 94
4.4 梯度 100
4.5 學(xué)習(xí)算法的實現(xiàn) 109
4.6 小結(jié) 118
第5章誤差反向傳播法 121
5.1 計算圖 121
5.2 鏈式法則 126
5.3 反向傳播 130
5.4 簡單層的實現(xiàn) 135
5.5 激活函數(shù)層的實現(xiàn) 139
5.6 Affine/Softmax層的實現(xiàn) 144
5.7 誤差反向傳播法的實現(xiàn) 154
5.8 小結(jié) 161
第6章與學(xué)習(xí)相關(guān)的技巧 163
6.1 參數(shù)的更新 163
6.2 權(quán)重的初始值 176
6.3 BatchNormalization 184
6.4 正則化 188
6.5 超參數(shù)的驗證 195
6.6 小結(jié) 200
第7章卷積神經(jīng)網(wǎng)絡(luò) 201
7.1 整體結(jié)構(gòu) 201
7.2 卷積層 202
7.3 池化層 214
7.4 卷積層和池化層的實現(xiàn) 216
7.5 CNN的實現(xiàn) 224
7.6 CNN的可視化 228
7.7 具有代表性的CNN 231
7.8 小結(jié) 233
第8章深度學(xué)習(xí) 235
8.1 加深網(wǎng)絡(luò) 235
8.2 深度學(xué)習(xí)的小歷史 242
8.3 深度學(xué)習(xí)的高速化 248
8.4 深度學(xué)習(xí)的應(yīng)用案例 253
8.5 深度學(xué)習(xí)的未來 258
8.6 小結(jié) 264
附錄A Softmax-with-Loss層的計算圖 267
A.1 正向傳播 268
A.2 反向傳播 270
A.3 小結(jié) 277
參考文獻 279

《深度學(xué)習(xí)的數(shù)學(xué)》
第1章 神經(jīng)網(wǎng)絡(luò)的思想
1-1 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)2
1-2 神經(jīng)元工作的數(shù)學(xué)表示6
1-3 激活函數(shù):將神經(jīng)元的工作一般化12
1-4 什么是神經(jīng)網(wǎng)絡(luò)18
1-5 用惡魔來講解神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)23
1-6 將惡魔的工作翻譯為神經(jīng)網(wǎng)絡(luò)的語言31
1-7 網(wǎng)絡(luò)自學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)36
第2章 神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)基礎(chǔ)
2-1 神經(jīng)網(wǎng)絡(luò)所需的函數(shù)40
2-2 有助于理解神經(jīng)網(wǎng)絡(luò)的數(shù)列和遞推關(guān)系式46
2-3 神經(jīng)網(wǎng)絡(luò)中經(jīng)常用到的Σ符號51
2-4 有助于理解神經(jīng)網(wǎng)絡(luò)的向量基礎(chǔ)53
2-5 有助于理解神經(jīng)網(wǎng)絡(luò)的矩陣基礎(chǔ)61
2-6 神經(jīng)網(wǎng)絡(luò)的導(dǎo)數(shù)基礎(chǔ)65
2-7 神經(jīng)網(wǎng)絡(luò)的偏導(dǎo)數(shù)基礎(chǔ)72
2-8 誤差反向傳播法必需的鏈式法則76
2-9 梯度下降法的基礎(chǔ):多變量函數(shù)的近似公式80
2-10 梯度下降法的含義與公式83
2-11 用Excel體驗梯度下降法91
2-12 最優(yōu)化問題和回歸分析94
第3章 神經(jīng)網(wǎng)絡(luò)的最優(yōu)化
3-1 神經(jīng)網(wǎng)絡(luò)的參數(shù)和變量102
3-2 神經(jīng)網(wǎng)絡(luò)的變量的關(guān)系式111
3-3 學(xué)習(xí)數(shù)據(jù)和正解114
3-4 神經(jīng)網(wǎng)絡(luò)的代價函數(shù)119
3-5 用Excel體驗神經(jīng)網(wǎng)絡(luò)127
第4章 神經(jīng)網(wǎng)絡(luò)和誤差反向傳播法
4-1 梯度下降法的回顧134
4-2 神經(jīng)單元誤差141
4-3 神經(jīng)網(wǎng)絡(luò)和誤差反向傳播法146
4-4 用Excel體驗神經(jīng)網(wǎng)絡(luò)的誤差反向傳播法153
第5章 深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)
5-1 小惡魔來講解卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)168
5-2 將小惡魔的工作翻譯為卷積神經(jīng)網(wǎng)絡(luò)的語言174
5-3 卷積神經(jīng)網(wǎng)絡(luò)的變量關(guān)系式180
5-4 用Excel體驗卷積神經(jīng)網(wǎng)絡(luò)193
5-5 卷積神經(jīng)網(wǎng)絡(luò)和誤差反向傳播法200
5-6 用Excel體驗卷積神經(jīng)網(wǎng)絡(luò)的誤差反向傳播法212
附錄 
A 訓(xùn)練數(shù)據(jù)(1)222
B 訓(xùn)練數(shù)據(jù)(2)223
C 用數(shù)學(xué)式表示模式的相似度225

《Python深度學(xué)習(xí)》
第一部分 深度學(xué)習(xí)基礎(chǔ)
第1章什么是深度學(xué)習(xí) 2
1.1 人工智能、機器學(xué)習(xí)與深度學(xué)習(xí) 2
1.2 深度學(xué)習(xí)之前:機器學(xué)習(xí)簡史 11
1.3 為什么是深度學(xué)習(xí),為什么是現(xiàn)在 15
第2章神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)基礎(chǔ) 20
2.1 初識神經(jīng)網(wǎng)絡(luò) 20
2.2 神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)表示 23
2.3 神經(jīng)網(wǎng)絡(luò)的“齒輪”:張量運算 29
2.4 神經(jīng)網(wǎng)絡(luò)的“引擎”:基于梯度的優(yōu)化 36
2.5 回顧第一個例子 41
本章小結(jié) 42
第3章 神經(jīng)網(wǎng)絡(luò)入門 43
3.1 神經(jīng)網(wǎng)絡(luò)剖析 43
3.2 Keras簡介 46
3.3 建立深度學(xué)習(xí)工作站 49
3.4 電影評論分類:二分類問題 51
3.5 新聞分類:多分類問題 59
3.6 預(yù)測房價:回歸問題 66
本章小結(jié) 73
第4章 機器學(xué)習(xí)基礎(chǔ) 74
4.1 機器學(xué)習(xí)的四個分支 74
4.2 評估機器學(xué)習(xí)模型 76
4.3 數(shù)據(jù)預(yù)處理、特征工程和特征學(xué)習(xí) 80
4.4 過擬合與欠擬合 83
4.5 機器學(xué)習(xí)的通用工作流程 89
本章小結(jié) 92
第二部分 深度學(xué)習(xí)實踐
第5章 深度學(xué)習(xí)用于計算機視覺 94
5.1 卷積神經(jīng)網(wǎng)絡(luò)簡介 94
5.2 在小型數(shù)據(jù)集上從頭開始訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò) 102
5.3 使用預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò) 115
5.4 卷積神經(jīng)網(wǎng)絡(luò)的可視化 130
本章小結(jié) 146
第6章 深度學(xué)習(xí)用于文本和序列 147
6.1 處理文本數(shù)據(jù) 147
6.2 理解循環(huán)神經(jīng)網(wǎng)絡(luò) 162
6.3 循環(huán)神經(jīng)網(wǎng)絡(luò)的高級用法 172
6.4 用卷積神經(jīng)網(wǎng)絡(luò)處理序列 188
本章總結(jié) 195
第7章 高級的深度學(xué)習(xí)最佳實踐 196
7.1 不用Sequential模型的解決方案:Keras函數(shù)式API 196
7.2 使用Keras回調(diào)函數(shù)和TensorBoard來檢查并監(jiān)控深度學(xué)習(xí)模型 210
7.3 讓模型性能發(fā)揮到極致 219
本章總結(jié) 225
第8章 生成式深度學(xué)習(xí) 226
8.1 使用LSTM生成文本 227
8.2 DeepDream 235
8.3 神經(jīng)風(fēng)格遷移 241
8.4 用變分自編碼器生成圖像 249
8.5 生成式對抗網(wǎng)絡(luò)簡介 257
本章總結(jié) 264
第9章 總結(jié) 265
9.1 重點內(nèi)容回顧 265
9.2 深度學(xué)習(xí)的局限性 273
9.3 深度學(xué)習(xí)的未來 277
9.4 了解一個快速發(fā)展領(lǐng)域的最新進展 281
9.5 結(jié)束語 282
附錄A 在Ubuntu上安裝Keras及其依賴 283
附錄B 在EC2GPU實例上運行Jupyter筆記本 287

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.dappsexplained.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號