定 價(jià):¥49.00
作 者: | 宋立桓 著 |
出版社: | 清華大學(xué)出版社 |
叢編項(xiàng): | |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787302555513 | 出版時(shí)間: | 2020-06-01 | 包裝: | 平裝 |
開本: | 16開 | 頁數(shù): | 164 | 字?jǐn)?shù): |
目 錄
第1章 機(jī)器學(xué)習(xí)概述 1
1.1 什么是機(jī)器學(xué)習(xí) 1
1.2 機(jī)器學(xué)習(xí)的流程 3
1.2.1 數(shù)據(jù)收集 3
1.2.2 數(shù)據(jù)預(yù)處理 3
1.2.3 特征工程 4
1.2.4 模型構(gòu)建和訓(xùn)練 4
1.3 機(jī)器學(xué)習(xí)該如何學(xué) 5
1.3.1 AI時(shí)代首選Python 5
1.3.2 PyCharm可視化編輯器和Anaconda大禮包 7
1.3.3 掌握算法原理與掌握機(jī)器學(xué)習(xí)軟件庫同等重要 13
1.3.4 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的區(qū)別 13
1.4 機(jī)器學(xué)習(xí)分類 15
1.4.1 監(jiān)督學(xué)習(xí) 15
1.4.2 無監(jiān)督學(xué)習(xí) 16
1.4.3 強(qiáng)化學(xué)習(xí) 16
1.5 過擬合和欠擬合 17
1.5.1 過擬合 18
1.5.2 欠擬合 18
1.6 衡量機(jī)器學(xué)習(xí)模型的指標(biāo) 19
1.6.1 正確率、精確率和召回率 19
1.6.2 F1 score和ROC曲線 21
第2章 機(jī)器學(xué)習(xí)中的數(shù)據(jù)預(yù)處理 24
2.1 數(shù)據(jù)預(yù)處理的重要性和原則 24
2.2 數(shù)據(jù)預(yù)處理方法介紹 25
2.2.1 數(shù)據(jù)預(yù)處理案例——標(biāo)準(zhǔn)化、歸一化、二值化 25
2.2.2 數(shù)據(jù)預(yù)處理案例——缺失值補(bǔ)全、標(biāo)簽化 26
2.2.3 數(shù)據(jù)預(yù)處理案例——獨(dú)熱編碼 28
2.2.4 通過數(shù)據(jù)預(yù)處理提高模型準(zhǔn)確率 29
2.3 數(shù)據(jù)降維 31
2.3.1 什么叫數(shù)據(jù)降維 31
2.3.2 PCA主成分分析原理 31
2.3.3 PCA主成分分析實(shí)戰(zhàn)案例 33
第3章 k最近鄰算法 36
3.1 K最近鄰算法的原理 36
3.2 K最近鄰算法過程詳解 37
3.3 KNN算法的注意事項(xiàng) 39
3.3.1 k近鄰的k值該如何選取 39
3.3.2 距離的度量 39
3.3.3 特征歸一化的必要性 41
3.4 K最近鄰算法案例分享 42
3.4.1 電影分類kNN算法實(shí)戰(zhàn) 42
3.4.2 使用scikit-learn機(jī)器學(xué)習(xí)庫內(nèi)置的kNN算法實(shí)現(xiàn)水果識(shí)別器 44
3.5 KNN算法優(yōu)缺點(diǎn) 47
第4章 回歸算法 49
4.1 線性回歸 49
4.1.1 什么是線性回歸 49
4.1.2 最小二乘法 51
4.1.3 梯度下降法 52
4.2 線性回歸案例實(shí)戰(zhàn) 57
4.2.1 房價(jià)預(yù)測線性回歸模型案例一 57
4.2.2 房價(jià)預(yù)測線性回歸模型案例二 60
4.3 邏輯回歸 62
4.3.1 邏輯回歸概念和原理 62
4.3.2 邏輯回歸案例實(shí)戰(zhàn) 64
4.4 回歸算法總結(jié)和優(yōu)缺點(diǎn) 65
第5章 決策樹 66
5.1 決策樹概念 66
5.2 信息熵 68
5.3 信息增益與信息增益比 69
5.4 基尼系數(shù) 70
5.5 過擬合與剪枝 70
5.6 決策樹算法案例實(shí)戰(zhàn)——預(yù)測患者佩戴隱形眼鏡類型 71
5.7 決策樹算法實(shí)戰(zhàn)案例——電影喜好預(yù)測 73
5.8 總結(jié) 77
第6章 K-means聚類算法 78
6.1 何為聚類 78
6.2 K-MEANS算法思想和原理 79
6.3 K-MEANS算法涉及的參數(shù)和優(yōu)缺點(diǎn) 82
6.3.1 K-means涉及參數(shù) 82
6.3.2 K-means優(yōu)缺點(diǎn) 84
6.4 K-MEANS應(yīng)用場景 84
6.5 K-MEANS聚類算法實(shí)現(xiàn)鳶尾花數(shù)據(jù)的聚類 85
6.6 K-MEANS算法實(shí)現(xiàn)客戶價(jià)值分析 87
6.7 K-MEANS算法實(shí)現(xiàn)對亞洲足球隊(duì)做聚類 90
第7章 隨機(jī)森林 92
7.1 隨機(jī)森林概述 92
7.1.1 什么是隨機(jī)森林 92
7.1.2 隨機(jī)森林的優(yōu)缺點(diǎn) 93
7.2 隨機(jī)森林實(shí)戰(zhàn)——紅酒數(shù)據(jù)集案例 94
7.3 隨機(jī)森林算法實(shí)戰(zhàn)——泰坦尼克號(hào)生存預(yù)測 97
第8章 樸素貝葉斯算法 101
8.1 樸素貝葉斯算法概念和原理 101
8.2 貝葉斯算法實(shí)戰(zhàn)案例——曲奇餅 105
8.3 貝葉斯算法案例實(shí)戰(zhàn)——單詞拼寫糾錯(cuò) 106
8.4 貝葉斯算法案例實(shí)戰(zhàn)——識(shí)別中文垃圾郵件 109
8.5 貝葉斯算法案例實(shí)戰(zhàn)——鳶尾花分類預(yù)測 112
第9章 支持向量機(jī)SVM 116
9.1 支持向量機(jī)概述 116
9.2 工作原理 119
9.2.1 線性分類 119
9.2.2 線性不可分 120
9.2.3 核函數(shù) 122
9.3 SVM的核函數(shù)選擇和參數(shù)的調(diào)整 122
9.4 SVM算法案例實(shí)戰(zhàn)——波士頓房價(jià)分析 124
9.5 SVM算法案例實(shí)戰(zhàn)——鳶尾花分類 126
9.6 SVM算法優(yōu)缺點(diǎn) 128
第10章 神經(jīng)網(wǎng)絡(luò) 130
10.1 神經(jīng)網(wǎng)絡(luò)概念 130
10.1.1 神經(jīng)元 130
10.1.2 激活函數(shù) 132
10.1.3 神經(jīng)網(wǎng)絡(luò) 133
10.2 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 135
10.2.1 計(jì)算機(jī)識(shí)別圖像的過程 135
10.2.2 卷積神經(jīng)網(wǎng)絡(luò)詳解 136
10.3 用PYTHON實(shí)現(xiàn)自己的神經(jīng)網(wǎng)絡(luò)案例 138
10.4 多層神經(jīng)網(wǎng)絡(luò)基于SKLEARN的實(shí)現(xiàn)案例 141
10.5 使用KERAS框架實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)案例 145
10.5.1 Keras深度學(xué)習(xí)框架簡介和安裝 145
10.5.2 Keras實(shí)現(xiàn)多層感知器模型MLP 146
10.5.3 Keras實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)CNN 149
第11章 人臉識(shí)別入門實(shí)踐 151
11.1 人臉識(shí)別簡介 151
11.1.1 什么是人臉識(shí)別 151
11.1.2 人臉識(shí)別過程步驟 153
11.2 人臉檢測和關(guān)鍵點(diǎn)定位實(shí)戰(zhàn) 156
11.3 人臉表情分析——情緒識(shí)別實(shí)戰(zhàn) 160
11.4 我能認(rèn)識(shí)你——人臉識(shí)別實(shí)戰(zhàn) 161