注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡軟件工程及軟件方法學深度學習:理論、方法與PyTorch實踐

深度學習:理論、方法與PyTorch實踐

深度學習:理論、方法與PyTorch實踐

定 價:¥109.00

作 者: 翟中華,孟翔宇 著
出版社: 清華大學出版社
叢編項:
標 簽: 暫缺

ISBN: 9787302568483 出版時間: 2021-08-01 包裝:
開本: 16開 頁數(shù): 431 字數(shù):  

內容簡介

  本書深入淺出地講解深度學習,對復雜的概念深挖其本質,讓其簡單化;對簡單的概念深挖其聯(lián)系,使其豐富化。從理論知識到實戰(zhàn)項目,內容翔實。本書分為兩篇,基礎篇主要講解深度學習的理論知識,實戰(zhàn)篇是代碼實踐及應用?;A篇(第1~13章)包括由傳統(tǒng)機器學習到深度學習的過渡、圖像分類的數(shù)據(jù)驅動方法、Softmax損失函數(shù)、優(yōu)化方法與梯度、卷積神經(jīng)網(wǎng)絡的各種概念、卷積過程、卷積神經(jīng)網(wǎng)絡各種訓練技巧、梯度反傳、各種卷積網(wǎng)絡架構、遞歸神經(jīng)網(wǎng)絡和序列模型、基于深度學習的語言模型、生成模型、生成對抗網(wǎng)絡等內容;實戰(zhàn)篇(第14~19章)包括應用卷積神經(jīng)網(wǎng)絡進行圖像分類、各種網(wǎng)絡架構、網(wǎng)絡各層可視化、貓狗圖像識別、文本分類、GAN圖像生成等。本書適合人工智能專業(yè)的本科生、研究生,想轉型人工智能的IT從業(yè)者,以及想從零開始了解并掌握深度學習的讀者閱讀。

作者簡介

  翟中華,清華大學碩士畢業(yè),AI火箭營創(chuàng)始人、CEO,并擔任首席講師。曾在多家互聯(lián)網(wǎng)公司擔任CTO。在機器學習、深度學習、計算機視覺、自然語言處理等人工智能領域有著扎實的理論基礎和豐富的應用實踐經(jīng)驗。主講的“機器學習難點問題秒懂課堂”“深度學習入門系列講解”“基于深度學習的目標檢測”等課程累計學員50多萬人次,講課風格抽絲剝繭、深入淺出、以簡馭繁,能夠把復雜原理簡單化,把簡單原理內涵化,深受廣大學員好評。

圖書目錄

基礎篇
第1章 什么是深度學習
1.1 通過應用示例直觀理解深度學習
1.2 3個視角解釋深度學習
1.2.1 分層組合性
1.2.2 端到端學習
1.2.3 分布式表示
1.3 深度學習面臨的挑戰(zhàn)
1.3.1 深度學習的工作機制
1.3.2 非凸的問題
1.3.3 可解釋性的問題
第2章 圖像識別及K-NN算法
2.1 圖像分類
2.2 誤差分解和K-NN算法
2.2.1 誤差分解
2.2.2 K-NN算法運行過程
第3章 線性分類器
3.1 線性分類器用于圖像分類的3個觀點
3.1.1 線性分類的代數(shù)觀點
3.1.2 線性分類的視覺觀點
3.1.3 線性分類的幾何觀點
3.2 合頁損失函數(shù)原理推導及圖像分類舉例
3.2.1 合頁損失函數(shù)的概念
3.2.2 多分類合頁損失函數(shù)的推導
3.3 Softmax損失函數(shù)與多分類SVM損失函數(shù)的比較
3.3.1 Softmax分類與損失函數(shù)
3.3.2 Softmax損失函數(shù)與合頁損失函數(shù)的比較
第4章 優(yōu)化與梯度
4.1 梯度下降法工作原理及3種普通梯度下降法
4.1.1 梯度下降的概念
4.1.2 梯度下降法求解目標函數(shù)
4.1.3 學習率的重要性
4.1.4 3種梯度下降法
4.2 動量SGD和Nesterov加速梯度法
4.2.1 SGD存在的問題
4.2.2 動量法
4.2.3 Nesterov加速梯度法
4.3 自適應學習速率優(yōu)化方法
4.3.1 指數(shù)加權平均值處理數(shù)字序列
4.3.2 自適應學習速率AdaGrad方法
4.3.3 自適應學習速率RMSProp方法
4.3.4 自適應學習速率Adadelta方法
4.4 最強優(yōu)化方法Adam
4.4.1 為什么Adam性能如此卓越
4.4.2 偏差矯正
4.4.3 如何矯正偏差
第5章 卷積神經(jīng)網(wǎng)絡
5.1 卷積核
5.1.1 卷積核簡介
5.1.2 卷積核的作用
5.2 卷積神經(jīng)網(wǎng)絡中步長、填充和通道的概念
5.2.1 步長
5.2.2 填充
5.2.3 通道
5.3 快速推導卷積層特征圖尺寸計算公式
5.3.1 計算過程直觀展示
5.3.2 計算過程總結
5.4 極簡方法實現(xiàn)卷積層的誤差反傳
5.4.1 誤差反傳舉例說明
5.4.2 完全卷積過程簡介
5.4.3 把卷積過程寫成神經(jīng)網(wǎng)絡形式
5.4.4 應用計算圖的反向模式微分
5.5 極池化層的本質思想及其過程
5.5.1 池化層的分類
5.5.2 池化后圖像尺寸
第6章 卷積神經(jīng)網(wǎng)絡訓練技巧
6.1 ReLU激活函數(shù)的優(yōu)勢
6.1.1 為什么需要激活函數(shù)
6.1.2 主流激活函數(shù)介紹
6.2 內部協(xié)變量偏移
6.3 批歸一化
6.3.1 為什么需要批歸一化
6.3.2 批歸一化的工作原理
6.3.3 批歸一化的優(yōu)勢
6.4 Dropout正則化及其集成方法思想
6.4.1 特征共適應性
6.4.2 Dropout正則化思想
6.4.3 Dropout集成思想
6.4.4 預測時需要恢復Dropout的隨機性
第7章 卷積神經(jīng)網(wǎng)絡架構
7.1 掀起深度學習風暴的AlexNet網(wǎng)絡架構
7.1.1 卷積神經(jīng)網(wǎng)絡的開端LeNet
7.1.2 AlexNet架構
7.2 神經(jīng)網(wǎng)絡感受野及其計算
7.2.1 生物學中的感受野
7.2.2 CNN中的感受野
7.3 VGGNet網(wǎng)絡結構相比較AlexNet的優(yōu)勢
7.3.1 VGGNet簡介
7.3.2 VGGNet與AlexNet網(wǎng)絡結構對比
7.4 GoogLeNet1×1卷積核的深刻意義及其作用
7.4.1 深度神經(jīng)網(wǎng)絡的缺陷
7.4.2 多通道卷積中特征圖映射太多的問題
7.4.3 1×1卷積核卷積過程
7.5 GoogLeNet初始模塊設計指導思想
7.5.1 赫布學習規(guī)則
7.5.2 人工神經(jīng)網(wǎng)絡中的赫布學習規(guī)則
7.6 透徹理解GoogLeNet全景架構
7.7 ResNet關鍵結構恒等映射背后的思想及原理
7.8 全面理解ResNet全景架構
第8章 循環(huán)神經(jīng)網(wǎng)絡
8.1 為什么要用遞歸神經(jīng)網(wǎng)絡
8.1.1 為什么需要遞歸神經(jīng)網(wǎng)絡
8.1.2 RNN結構以及應用
8.2 RNN計算圖
8.3 RNN前向與反向傳播
8.3.1 前饋深度
8.3.2 循環(huán)深度
8.3.3 通過時間反向傳播
8.3.4 兩個和的反向傳播
8.3.5 梯度消失和梯度爆炸
8.4 長短期記憶(LSTM)及其變種的原理
8.4.1 LSTM網(wǎng)絡架構
8.4.2 LSTM變體一
8.4.3 LSTM變體二
8.4.4 LSTM變體三
第9章 基于深度學習的語言模型
9.1 詞的各種向量表示
9.2 通過詞向量度量詞的相似性
9.3 潛在語義分析LSA
9.3.1 潛在語義分析的過程
9.3.2 潛在語義分析的SVD分解
9.4 Word2Vec詞嵌入原理
9.4.1 Word2Vec的指導思想
9.4.2 skip-gram算法的框架
9.4.3 skip-gram算法的輸入訓練集
9.4.4 skip-gra

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.dappsexplained.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號