注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡人工智能面向機器智能的TensorFlow實踐

面向機器智能的TensorFlow實踐

面向機器智能的TensorFlow實踐

定 價:¥69.00

作 者: [美] 山姆·亞伯拉罕(Sam Abrahams),丹尼亞爾·哈夫納(Danijar Hafner),埃里克·厄威特,阿里爾·斯卡爾皮內里 著;段菲,陳澎 譯
出版社: 機械工業(yè)出版社
叢編項: 智能系統(tǒng)與技術叢書
標 簽: 計算機/網(wǎng)絡 人工智能

購買這本書可以去


ISBN: 9787111563891 出版時間: 2017-05-01 包裝: 平裝
開本: 16開 頁數(shù): 212 字數(shù):  

內容簡介

  本書是一本*佳的TensorFlow入門指南。幾位作者都來自研發(fā)一線,他們用自己的寶貴經(jīng)驗,結合眾多高質量的代碼,生動講解TensorFlow的底層原理,并從實踐角度介紹如何將兩種常見模型——深度卷積網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡應用到圖像理解和自然語言處理的典型任務中。此外,還介紹了在模型部署和編程中可用的諸多實用技巧。全書分為四部分,共9章。第一部分(第1~2章)討論TensorFlow的設計模式以及選擇TensorFlow作為深度學習庫的優(yōu)勢和面臨的挑戰(zhàn),并給出詳細的安裝指南。第二部分(第3~4章)深入介紹TensorFlow API的基礎知識和機器學習基礎。第三部分(第5~6章)探討如何用TensorFlow實現(xiàn)高級深度模型,涉及卷積神經(jīng)網(wǎng)絡(或CNN)模型和循環(huán)神經(jīng)網(wǎng)絡(或RNN)模型。第四部分(第7~8章)探討TensorFlow API中*新推出的特性,包括如何準備用于部署的模型、一些有用的編程模式等。第9章給出一些進一步了解TensorFlow的學習資源。

作者簡介

  山姆·亞伯拉罕:數(shù)據(jù)科學家、工程師,富有經(jīng)驗的TensorFlow貢獻者。丹尼亞爾·哈夫納:谷歌軟件工程師埃里克·厄威特:高級軟件工程師阿里爾·斯卡爾皮內里:團隊負責人,高級Java開發(fā)者段菲,清華大學信號與信息處理專業(yè)博士,前三星電子中國研究院高級研究員,現(xiàn)為英特爾中國研究院高級研究員。研究方向是深度學習、計算機視覺、數(shù)據(jù)可視化。參與翻譯過《機器學習》《機器學習實踐:測試驅動的開發(fā)方法》《DirectX103D游戲編程深度探索》等多本圖書。

圖書目錄

譯者序
前言
第一部分 開啟TensorFlow之旅
第1章 引言2
1.1 無處不在的數(shù)據(jù)2
1.2 深度學習2
1.3 TensorFlow:一個現(xiàn)代的機器學習庫3
1.4 TensorFlow:技術概要3
1.5 何為TensorFlow4
1.5.1 解讀來自官網(wǎng)的單句描述4
1.5.2 單句描述未體現(xiàn)的內容6
1.6 何時使用TensorFlow7
1.7 TensorFlow的優(yōu)勢8
1.8 使用TensorFlow所面臨的挑戰(zhàn)9
1.9 高歌猛進9
第2章 安裝TensorFlow10
2.1 選擇安裝環(huán)境10
2.2 Jupyter Notebook與matplotlib12
2.3 創(chuàng)建Virtualenv環(huán)境12
2.4 TensorFlow的簡易安裝13
2.5 源碼構建及安裝實例:在64位Ubuntu Linux上安裝GPU版TensorFlow14
2.5.1 安裝依賴庫14
2.5.2 安裝Bazel15
2.5.3 安裝CUDA軟件(僅限NVIDIA GPU)16
2.5.4 從源碼構建和安裝TensorFlow18
2.6 安裝Jupyter Notebook20
2.7 安裝matplotlib20
2.8 測試TensorFlow、Jupyter Notebook及matplotlib21
2.9 本章小結23
第二部分 TensorFlow與機器學習基礎
第3章 TensorFlow基礎26
3.1 數(shù)據(jù)流圖簡介26
3.1.1 數(shù)據(jù)流圖基礎26
3.1.2 節(jié)點的依賴關系29
3.2 在TensorFlow中定義數(shù)據(jù)流圖33
3.2.1 構建第一個TensorFlow數(shù)據(jù)流圖33
3.2.2 張量思維39
3.2.3 張量的形狀43
3.2.4 TensorFlow的Operation44
3.2.5 TensorFlow的Graph對象46
3.2.6 TensorFlow Session48
3.2.7 利用占位節(jié)點添加輸入52
3.2.8 Variable對象53
3.3 通過名稱作用域組織數(shù)據(jù)流圖56
3.4 練習:綜合運用各種組件61
3.4.1 構建數(shù)據(jù)流圖63
3.4.2 運行數(shù)據(jù)流圖66
3.5 本章小結71
第4章 機器學習基礎72
4.1 有監(jiān)督學習簡介72
4.2 保存訓練檢查點74
4.3 線性回歸76
4.4 對數(shù)幾率回歸78
4.5 softmax分類83
4.6 多層神經(jīng)網(wǎng)絡85
4.7 梯度下降法與誤差反向傳播算法88
第三部分 用TensorFlow實現(xiàn)更高級的深度模型
第5章 目標識別與分類96
5.1 卷積神經(jīng)網(wǎng)絡97
5.2 卷積100
5.2.1 輸入和卷積核100
5.2.2 跨度102
5.2.3 邊界填充104
5.2.4 數(shù)據(jù)格式104
5.2.5 深入探討卷積核105
5.3 常見層107
5.3.1 卷積層108
5.3.2 激活函數(shù)108
5.3.3 池化層111
5.3.4 歸一化113
5.3.5 高級層114
5.4 圖像與TensorFlow116
5.4.1 加載圖像116
5.4.2 圖像格式117
5.4.3 圖像操作121
5.4.4 顏色127
5.5 CNN的實現(xiàn)129
5.5.1 Stanford Dogs數(shù)據(jù)集129
5.5.2 將圖像轉為TFRecord文件130
5.5.3 加載圖像133
5.5.4 模型134
5.5.5 訓練136
5.5.6 用TensorBoard調試濾波器137
5.6 本章小結139
第6章 循環(huán)神經(jīng)網(wǎng)絡與自然語言處理140
6.1 循環(huán)神經(jīng)網(wǎng)絡簡介140
6.1.1 時序的世界140
6.1.2 近似任意程序141
6.1.3 隨時間反向傳播142
6.1.4 序列的編碼和解碼143
6.1.5 實現(xiàn)第一個循環(huán)神經(jīng)網(wǎng)絡145
6.1.6 梯度消失與梯度爆炸145
6.1.7 長短時記憶網(wǎng)絡147
6.1.8 RNN結構的變種148
6.2 詞向量嵌入149
6.2.1 準備維基百科語料庫151
6.2.2 模型結構155
6.2.3 噪聲對比分類器156
6.2.4 訓練模型156
6.3 序列分類157
6.3.1 Imdb影評數(shù)據(jù)集158
6.3.2 使用詞向量嵌入159
6.3.3 序列標注模型159
6.3.4 來自最后相關活性值的softmax層161
6.3.5 梯度裁剪162
6.3.6 訓練模型163
6.4 序列標注164
6.4.1 OCR數(shù)據(jù)集164
6.4.2 時間步之間共享的soft-max層166
6.4.3 訓練模型169
6.4.4 雙向RNN171
6.5 預測編碼174
6.5.1 字符級語言建模174
6.5.2 ArXiv摘要API175
6.5.3 數(shù)據(jù)預處理177
6.5.4 預測編碼模型178
6.5.5 訓練模型182
6.5.6 生成相似序列185
6.6 本章小結188
第四部分 其他提示、技術與特性
第7章 產品環(huán)境中模型的部署190
7.1 搭建TensorFlow服務開發(fā)環(huán)境190
7.1.1 Docker鏡像190
7.1.2 Bazel工作區(qū)191
7.2 導出訓練好的模型192
7.3 定義服務器接口195
7.4 實現(xiàn)推斷服務器197
7.5 客戶端應用201
7.6 產品準備203
7.7 本章小結203
第8章 輔助函數(shù)、代碼結構和類204
8.1 確保目錄結構存在204
8.2 下載函數(shù)204
8.3 磁盤緩存修飾器205
8.4 屬性字典206
8.5 惰性屬性修飾器207
8.6 覆蓋數(shù)據(jù)流圖修飾器209
第9章 結語:其他資源212

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.dappsexplained.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號