定 價:¥69.00
作 者: | (法)克里斯托弗-布雷斯 |
出版社: | 機械工業(yè)出版社 |
叢編項: | |
標 簽: | 程序設(shè)計 計算機/網(wǎng)絡(luò) |
ISBN: | 9787111588788 | 出版時間: | 2018-04-01 | 包裝: | 平裝-膠訂 |
開本: | 16開 | 頁數(shù): | 字數(shù): |
譯者序
原書前言
本書作者
原書致謝
第1 章 Theano 基礎(chǔ) //1
1.1 張量所需 //1
1.2 安裝和加載Theano //2
1.2.1 Conda 軟件包和環(huán)境管理器 // 2
1.2.2 在CPU 上安裝和運行Theano // 2
1.2.3 GPU 驅(qū)動和相關(guān)庫 // 3
1.2.4 在GPU 上安裝和運行Theano // 4
1.3 張量 //5
1.4 計算圖和符號計算 //8
1.5 張量操作 //11
1.5.1 維度操作算子 // 13
1.5.2 元素操作算子 // 14
1.5.3 約簡操作算子 // 16
1.5.4 線性代數(shù)算子 // 16
1.6 內(nèi)存和變量 //18
1.7 函數(shù)和自動微分 //20
1.8 符號計算中的循環(huán)運算 //22
1.9 配置、分析和調(diào)試 //26
1.10 小結(jié) //29
第2 章 基于前饋神經(jīng)網(wǎng)絡(luò)的手寫體數(shù)
字分類 //30
2.1 MNIST 數(shù)據(jù)集 // 30
2.2 訓練程序架構(gòu) // 32
2.3 分類損失函數(shù) // 33
2.4 單層線性模型 // 34
2.5 成本函數(shù)和誤差 // 35
2.6 反向傳播算法和隨機梯度下降 // 36
2.7 多層模型 // 37
2.8 卷積層和最大池化層 // 43
2.9 訓練 // 47
2.10 退出 // 52
2.11 推理 // 52
2.12 優(yōu)化和其他更新規(guī)則 // 52
2.13 延伸閱讀 // 56
2.14 小結(jié) // 57
第3 章 單詞的向量編碼 //58
3.1 編碼和嵌入 // 58
3.2 數(shù)據(jù)集 // 60
3.3 連續(xù)詞袋模型 // 62
3.4 模型訓練 // 66
3.5 可視化學習嵌入 // 68
3.6 嵌入評價—類比推理 // 70
3.7 嵌入評價—量化分析 // 72
3.8 單詞嵌入應(yīng)用 // 72
3.9 權(quán)重綁定 // 73
基于Theano 的深度學習:
構(gòu)建未來與當前的人工大腦
XIV
3.10 延伸閱讀 // 73
3.11 小結(jié) // 74
第4 章 基于遞歸神經(jīng)網(wǎng)絡(luò)的文本
生成 //75
4.1 RNN 所需 // 75
4.2 自然語言數(shù)據(jù)集 // 76
4.3 簡單遞歸網(wǎng)絡(luò) // 79
4.3.1 LSTM 網(wǎng)絡(luò) // 81
4.3.2 門控遞歸網(wǎng)絡(luò) // 83
4.4 自然語言性能評測 // 84
4.5 訓練損失比較 // 84
4.6 預(yù)測示例 // 86
4.7 RNN 的應(yīng)用 // 87
4.8 延伸閱讀 // 88
4.9 小結(jié) // 89
第5 章 基于雙向LSTM 的情感
分析 // 90
5.1 Keras 的安裝和配置 // 90
5.1.1 Keras 編程 // 91
5.1.2 SemEval 2013 數(shù)據(jù)集 // 93
5.2 文本數(shù)據(jù)預(yù)處理 // 94
5.3 模型架構(gòu)設(shè)計 // 96
5.3.1 單詞的向量表征 // 96
5.3.2 基于雙向LSTM 的語句表征 // 97
5.3.3 softmax 分類器的輸出概率 // 98
5.4 模型編譯與訓練 // 99
5.5 模型評估 // 99
5.6 模型保存與加載 // 100
5.7 示例運行 // 100
5.8 延伸閱讀 // 100
5.9 小結(jié) // 101
第6 章 基于空間變換網(wǎng)絡(luò)的
定位 // 102
6.1 基于Lasagne 的MNIST CNN 模型
// 102
6.2 定位網(wǎng)絡(luò) // 104
6.2.1 RNN 在圖像中的應(yīng)用 // 108
6.3 基于共定位的非監(jiān)督式學習 // 112
6.4 基于區(qū)域的定位網(wǎng)絡(luò) // 112
6.5 延伸閱讀 // 113
6.6 小結(jié) // 114
第7 章 基于殘差網(wǎng)絡(luò)的圖像
分類 // 115
7.1 自然圖像數(shù)據(jù)集 // 115
7.1.1 批處理標準化 // 116
7.1.2 全局平均池化 // 117
7.2 殘差連接 // 118
7.3 隨機深度 // 123
7.4 密集連接 // 124
7.5 多GPU // 125
7.6 數(shù)據(jù)增強 // 126
7.7 延伸閱讀 // 127
7.8 小結(jié) // 127
第8 章 基于編碼—解碼網(wǎng)絡(luò)的翻譯
與解釋 // 128
8.1 序列—序列網(wǎng)絡(luò)在自然語言處理
中的應(yīng)用 // 128
8.2 序列—序列網(wǎng)絡(luò)在語言翻譯中的
應(yīng)用 // 133
8.3 序列—序列網(wǎng)絡(luò)在聊天機器人中的
應(yīng)用 // 134
8.4 序列—序列網(wǎng)絡(luò)的效率提高 // 134
8.5 圖像反卷積 // 136
目 錄
XV
8.6 多模態(tài)深度學習 // 140
8.7 延伸閱讀 // 140
8.8 小結(jié) // 142
第9 章 基于注意力機制的相關(guān)輸入
或記憶選擇 // 143
9.1 注意力可微機制 // 143
9.1.1 基于注意力機制的最佳
翻譯 // 144
9.1.2 基于注意力機制的最佳圖像
注釋 // 145
9.2 神經(jīng)圖靈機中的信息存儲和
檢索 // 146
9.3 記憶網(wǎng)絡(luò) // 148
9.3.1 基于動態(tài)記憶網(wǎng)絡(luò)的情景
記憶 // 149
9.4 延伸閱讀 // 150
9.5 小結(jié) // 151
第10 章 基于先進遞歸神經(jīng)網(wǎng)絡(luò)的時
間序列預(yù)測 // 152
10.1 RNN 的退出 // 152
10.2 RNN 的深度學習方法 // 153
10.3 層疊遞歸網(wǎng)絡(luò) // 154
10.4 深度轉(zhuǎn)移遞歸網(wǎng)絡(luò) // 157
10.5 高速網(wǎng)絡(luò)設(shè)計原理 // 157
10.6 遞歸高速網(wǎng)絡(luò) // 158
10.7 延伸閱讀 // 159
10.8 小結(jié) // 159
第11 章 強化環(huán)境學習 // 160
11.1 強化學習任務(wù) // 160
11.2 仿真環(huán)境 // 161
11.3 Q 學習 // 164
11.4 深度Q 學習網(wǎng)絡(luò) // 166
11.5 訓練穩(wěn)定性 // 167
11.6 基于REINFORCE 算法的策略
梯度 // 169
11.7 延伸閱讀 // 171
11.8 小結(jié) // 172
第12 章 基于非監(jiān)督式網(wǎng)絡(luò)的特征
學習 // 173
12.1 生成模型 // 173
12.1.1 受限玻耳茲曼機 // 173
12.1.2 深度信念網(wǎng)絡(luò) // 177
12.1.3 生成性對抗網(wǎng)絡(luò) // 178
12.1.4 改進GAN // 182
12.2 半監(jiān)督式學習 // 182
12.3 延伸閱讀 // 183
12.4 小結(jié) // 184
第13 章 基于Theano 的深度學習
擴展 // 185
13.1 CPU 中Python 實現(xiàn)的Theano
操作 // 185
13.2 GPU 中Python 實現(xiàn)的Theano
操作 // 188
13.3 CPU 中C 實現(xiàn)的Theano 操作 //
190
13.4 GPU 中C 實現(xiàn)的Theano 操作 //
193
13.5 通過共享內(nèi)存的合并轉(zhuǎn)置,NVIDIA
并行 // 196
13.5.1 模型轉(zhuǎn)換 // 197
13.6 人工智能的未來發(fā)展 // 199
13.7 延伸閱讀 // 201
13.8 小結(jié) // 202