注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡人工智能Tensorflow 2.0神經(jīng)網(wǎng)絡實踐

Tensorflow 2.0神經(jīng)網(wǎng)絡實踐

Tensorflow 2.0神經(jīng)網(wǎng)絡實踐

定 價:¥89.00

作 者: [美] 保羅·加萊奧內(nèi)(Paolo Galeone) 著,閆龍川 白東霞 郭永和 李妍譯 譯
出版社: 機械工業(yè)出版社
叢編項: 智能系統(tǒng)與技術叢書
標 簽: 暫缺

購買這本書可以去


ISBN: 9787111659273 出版時間: 2020-07-01 包裝: 平裝
開本: 16開 頁數(shù): 264 字數(shù):  

內(nèi)容簡介

  本書通過聚焦于開發(fā)基于神經(jīng)網(wǎng)絡的解決方案來介紹機器學習,首先將從熟悉構建深度學習解決方案所需的概念和技術開始,然后介紹如何創(chuàng)建分類器、構建目標檢測和語義分割神經(jīng)網(wǎng)絡、訓練生成式模型,以及使用TF 2.0的工具,如TensorFlow Datasets和TensorFlow Hub,加速開發(fā)過程。學完本書之后,讀者將能夠使用TF 2.0開發(fā)任何機器學習問題的解決方案,并能將它們部署到生產(chǎn)環(huán)境之中。

作者簡介

  保羅·加萊奧內(nèi)(Paolo Galeone)是一位具有豐富實踐經(jīng)驗的計算機工程師。獲得碩士學位后,他加入了意大利博洛尼亞大學的計算機視覺實驗室并擔任研究員,在那里他豐富了自己在計算機視覺和機器學習領域的知識。目前,他領導著意大利ZURU科技公司的計算機視覺和機器學習實驗室。 2019年,谷歌授予他機器學習領域的谷歌開發(fā)技術專家(Google Developer Expert,GDE)稱號,以此認可他的專業(yè)技能。作為一名GDE,他通過寫博客、在會議上演講、參與開源項目以及回答Stack Overflow上面的問題,分享了他對機器學習和TensorFlow框架的熱愛。譯者簡介:閆龍川 碩士,國家電網(wǎng)有限公司信息通信分公司高級工程師,信息通信技術專家,主要從事電力信息通信系統(tǒng)運行技術研究工作,研究興趣包括深度學習、強化學習、自然語言處理、云計算及數(shù)據(jù)中心管理等。白東霞 博士,國家電網(wǎng)有限公司信息通信分公司高級工程師,主要從事電力信息系統(tǒng)運行測試技術研究工作,研究興趣包括人工智能、密碼理論等。郭永和 博士,國家電網(wǎng)有限公司信息通信分公司高級工程師,主要從事電力信息系統(tǒng)網(wǎng)絡安全技術研究工作,研究興趣包括機器學習、大數(shù)據(jù)分析、計算機體系結構、密碼技術等。李 妍 博士,國家電網(wǎng)有限公司信息通信分公司工程師,主要從事電力信息通信系統(tǒng)故障診斷技術研究工作,研究興趣包括機器學習、人工智能等。

圖書目錄

譯者序
前言
作者簡介
審校者簡介
第一部分 神經(jīng)網(wǎng)絡基礎
第1章 什么是機器學習2
1.1 數(shù)據(jù)集的重要性3
1.1.1 n維空間5
1.1.2 維度詛咒8
1.2 有監(jiān)督學習9
1.2.1 距離和相似性—k-NN算法10
1.2.2 參數(shù)模型11
1.2.3 評估模型性能—度量指標13
1.3 無監(jiān)督學習18
1.4 半監(jiān)督學習19
1.5 總結20
1.6 練習題20
第2章 神經(jīng)網(wǎng)絡與深度學習22
2.1 神經(jīng)網(wǎng)絡23
2.1.1 生物神經(jīng)元23
2.1.2 人工神經(jīng)元24
2.1.3 全連接層25
2.1.4 激活函數(shù)27
2.1.5 損失函數(shù)29
2.1.6 參數(shù)初始化30
2.2 優(yōu)化31
2.2.1 梯度下降法32
2.2.2 梯度下降優(yōu)化算法34
2.2.3 反向傳播和自動微分37
2.3 卷積神經(jīng)網(wǎng)絡39
2.3.1 卷積運算符39
2.3.2 二維卷積40
2.3.3 卷間的二維卷積41
2.3.4 1×1×D卷積44
2.4 正則化45
2.4.1 dropout45
2.4.2 數(shù)據(jù)擴充48
2.4.3 早期停止48
2.4.4 批量歸一化49
2.5 總結50
2.6 練習題51
第二部分 TensorFlow基礎
第3章 TensorFlow圖架構54
3.1 環(huán)境設置55
3.1.1 TensorFlow 1.x的環(huán)境設置56
3.1.2 TensorFlow 2.0的環(huán)境設置57
3.2 數(shù)據(jù)流圖58
3.2.1 主要結構—tf.Graph60
3.2.2 圖定義—從tf.Operation到tf.Tensor60
3.2.3 圖放置—tf.device64
3.2.4 圖執(zhí)行—tf.Session66
3.2.5 靜態(tài)圖中的變量69
3.3 模型定義和訓練72
3.3.1 用tf.layers定義模型72
3.3.2 自動微分—損失函數(shù)和優(yōu)化器75
3.4 用Python操作圖78
3.4.1 給占位符賦值79
3.4.2 總結記錄80
3.4.3 保存模型參數(shù)和模型選擇81
3.5 總結83
3.6 練習題85
第4章 TensorFlow 2.0架構86
4.1 重新學習這個框架87
4.2 Keras框架及其模型88
4.2.1 順序API90
4.2.2 函數(shù)式API92
4.2.3 子類方法93
4.3 eager執(zhí)行模式和新的特征94
4.3.1 基本示例94
4.3.2 函數(shù),而不是會話96
4.3.3 不再有全局的東西97
4.3.4 控制流99
4.3.5 GradientTape 101
4.3.6 定制訓練循環(huán)102
4.3.7 保存和恢復模型狀態(tài)105
4.3.8 總結記錄和指標度量107
4.3.9 AutoGraph111
4.4 代碼庫遷移115
4.5 總結117
4.6 練習題117
第5章 高效的數(shù)據(jù)輸入流水線和估計器API120
5.1 高效的數(shù)據(jù)輸入流水線121
5.1.1 輸入流水線的結構121
5.1.2 tf.data.Dataset對象122
5.1.3 性能優(yōu)化125
5.1.4 構建自己的數(shù)據(jù)集126
5.1.5 數(shù)據(jù)擴充127
5.1.6 TensroFlow 數(shù)據(jù)集—tdfs128
5.1.7 Keras整合130
5.1.8 eager整合131
5.2 估計器API132
5.2.1 數(shù)據(jù)輸入流水線134
5.2.2 定制估計器136
5.2.3 預制估計器139
5.3 總結140
5.4 練習題141
第三部分 神經(jīng)網(wǎng)絡應用
第6章 使用TensorFlow Hub進行圖像分類144
6.1 獲取數(shù)據(jù)145
6.2 遷移學習147
6.2.1 TensorFlow Hub149
6.2.2 使用Inception v3作為特征提取器150
6.2.3 使數(shù)據(jù)適應模型152
6.2.4 建立模型—hub.KerasLayer152
6.2.5 訓練與評估154
6.2.6 訓練速度155
6.3 微調(diào)156
6.3.1 何時微調(diào)157
6.3.2 TensorFlow Hub集成157
6.3.3 訓練和評估158
6.3.4 訓練速度159
6.4 總結159
6.5 練習題160
第7章 目標檢測162
7.1 獲取數(shù)據(jù)163
7.2 目標定位167
7.2.1 定位是一個回歸問題168
7.2.2 IoU173
7.2.3 平均精度175
7.2.4 平均精度均值175
7.2.5 改進訓練腳本176
7.3 分類和定位177
7.3.1 多任務學習177
7.3.2 雙頭網(wǎng)絡178
7.3.3 基于錨的檢測器180
7.3.4 錨框180
7.4 總結182
7.5 練習題182
第8章 語義分割和自定義數(shù)據(jù)集生成器184
8.1 語義分割184
8.1.1 挑戰(zhàn)185
8.1.2 反卷積—轉(zhuǎn)置卷積186
8.1.3 U-Net架構187
8.2 創(chuàng)建一個TensorFlow數(shù)據(jù)集生成器191
8.2.1 層次化結構192
8.2.2 數(shù)據(jù)集類和DatasetInfo193
8.2.3 創(chuàng)建數(shù)據(jù)集分割194
8.2.4 生成示例195
8.2.5 使用生成器198
8.3 模型訓練與評估198
8.3.1 數(shù)據(jù)準備199
8.3.2 訓練循環(huán)和Keras回調(diào)函數(shù)199
8.3.3 評估與推論201
8.4 總結203
8.5 練習題204
第9章 生成式對抗網(wǎng)絡206
9.1 了解GAN及其應用206
9.1.1 價值函數(shù)207
9.1.2 非飽和價值函數(shù)208
9.1.3 模型定義和訓練階段208
9.1.4 GAN的應用209
9.2 無條件的GAN211
9.2.1 準備數(shù)據(jù)211
9.2.2 定義生成器212
9.2.3 定義鑒別器213
9.2.4 定義損失函數(shù)214
9.2.5 無條件的GAN中的對抗訓練過程215
9.3 有條件的GAN219
9.3.1 為有條件的GAN獲取數(shù)據(jù)220
9.3.2 在有條件的GAN中定義生成器220
9.3.3 在有條件的GAN中定義鑒別器221
9.3.4 對抗訓練過程222
9.4 總結223
9.5 練習題224
第10章 在生產(chǎn)環(huán)境中部署模型226
10.1 SavedModel序列化格式226
10.1.1 特征227
10.1.2 通過Keras模型創(chuàng)建SavedModel 228
10.1.3 使用通用函數(shù)進行SavedModel轉(zhuǎn)換229
10.2 Python部署231
10.2.1 通用計算圖 231
10.2.2 Keras模型 233
10.2.3 平面圖234
10.3 支持部署的平臺235
10.3.1 TensorFlow.js236
10.3.2 Go綁定和tfgo240
10

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.dappsexplained.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號