注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能實(shí)用機(jī)器學(xué)習(xí)

實(shí)用機(jī)器學(xué)習(xí)

實(shí)用機(jī)器學(xué)習(xí)

定 價(jià):¥79.00

作 者: 孫亮,黃倩 著
出版社: 人民郵電出版社
叢編項(xiàng):
標(biāo) 簽: 計(jì)算機(jī)/網(wǎng)絡(luò) 人工智能

ISBN: 9787115446466 出版時(shí)間: 2017-03-01 包裝: 平裝
開本: 16開 頁數(shù): 338 字?jǐn)?shù):  

內(nèi)容簡介

  大數(shù)據(jù)時(shí)代為機(jī)器學(xué)習(xí)的應(yīng)用提供了廣闊的空間,各行各業(yè)涉及數(shù)據(jù)分析的工作都需要使用機(jī)器學(xué)習(xí)算法。本書圍繞實(shí)際數(shù)據(jù)分析的流程展開,著重介紹數(shù)據(jù)探索、數(shù)據(jù)預(yù)處理和常用的機(jī)器學(xué)習(xí)算法模型。本書從解決實(shí)際問題的角度出發(fā),介紹回歸算法、分類算法、推薦算法、排序算法和集成學(xué)習(xí)算法。在介紹每種機(jī)器學(xué)習(xí)算法模型時(shí),書中不但闡述基本原理,而且討論模型的評價(jià)與選擇。為方便讀者學(xué)習(xí)各種算法,本書介紹了R語言中相應(yīng)的軟件包并給出了示例程序。本書的一大特色就是貼近工程實(shí)踐。首先,本書僅側(cè)重介紹當(dāng)前工業(yè)界常用的機(jī)器學(xué)習(xí)算法,而不追求知識內(nèi)容的覆蓋面;其次,本書在介紹每類機(jī)器學(xué)習(xí)算法時(shí),力求通俗易懂地闡述算法思想,而不追求理論的深度,讓讀者借助代碼獲得直觀的體驗(yàn)。

作者簡介

  孫亮,阿里巴巴數(shù)據(jù)科學(xué)與技術(shù)研究院高級專家。曾任微軟Azure機(jī)器學(xué)習(xí)(Azure Machine Learning)部門高級數(shù)據(jù)科學(xué)家,先后畢業(yè)于南京大學(xué)計(jì)算機(jī)系(1999-2003)、中國科學(xué)院軟件研究所(2003-2006)、美國亞利桑那州立大學(xué)計(jì)算機(jī)系(2006-2011),研究興趣包括機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘及其實(shí)際應(yīng)用等。近年來參加了KDD Cup、Heritage HealthPrize等多項(xiàng)數(shù)據(jù)挖掘競賽并多次取得優(yōu)異成績。在IEEE T-PAMI、NIPS、ICML、SIGKDD等機(jī)器學(xué)習(xí)領(lǐng)域的知名國際期刊和國際會(huì)議上發(fā)表論文近20篇,著有機(jī)器學(xué)習(xí)英文專著1部。 黃倩,河海大學(xué)副研究員,先后畢業(yè)于南京大學(xué)計(jì)算機(jī)系(1999-2003)、中國科學(xué)院計(jì)算技術(shù)研究所(2003-2010),研究興趣包括多媒體大數(shù)據(jù)處理、機(jī)器學(xué)習(xí)、云計(jì)算等。參加過多個(gè)973、863、國家自然科學(xué)基金項(xiàng)目的研究,參與過AVS、H.265 HEVC等國內(nèi)外視頻壓縮標(biāo)準(zhǔn)的制訂?,F(xiàn)主持包括國家自然科學(xué)基金在內(nèi)的多個(gè)國家、省市級項(xiàng)目,并獲南京市江寧區(qū)首批高層次創(chuàng)業(yè)人才“創(chuàng)聚工程”項(xiàng)目資助。在相關(guān)領(lǐng)域的知名國際期刊和國際會(huì)議上發(fā)表論文逾20篇,出版譯著4本,參編專著1部。

圖書目錄

第1章 引論 1
1.1 什么是機(jī)器學(xué)習(xí) 1
1.2 機(jī)器學(xué)習(xí)算法的分類 2
1.3 實(shí)際應(yīng)用 3
1.3.1 病人住院時(shí)間預(yù)測 3
1.3.2 信用分?jǐn)?shù)估計(jì) 4
1.3.3 Netflix上的影片推薦 4
1.3.4 酒店推薦 5
1.3.5 討論 6
1.4 本書概述 7
1.4.1 本書結(jié)構(gòu) 9
1.4.2 閱讀材料及其他資源 10
第2章 R語言 12
2.1 R的簡單介紹 12
2.2 R的初步體驗(yàn) 13
2.3 基本語法 14
2.3.1 語句 14
2.3.2 函數(shù) 17
2.4 常用數(shù)據(jù)結(jié)構(gòu) 19
2.4.1 向量 19
2.4.2 因子 23
2.4.3 矩陣 24
2.4.4 數(shù)據(jù)框 26
2.4.5 列表 29
2.4.6 下標(biāo)系統(tǒng) 33
2.5 公式對象和apply函數(shù) 34
2.6 R軟件包 36
2.6.1 軟件包的安裝 37
2.6.2 軟件包的使用 38
2.6.3 軟件包的開發(fā) 38
2.7 網(wǎng)絡(luò)資源 38
第3章 數(shù)學(xué)基礎(chǔ) 39
3.1 概率 39
3.1.1 基本概念 39
3.1.2 基本公式 40
3.1.3 常用分布 42
3.1.4 隨機(jī)向量及其分布 43
3.1.5 隨機(jī)變量的數(shù)字特征 46
3.1.6 隨機(jī)向量的數(shù)字特征 48
3.2 統(tǒng)計(jì) 49
3.2.1 常用數(shù)據(jù)特征 49
3.2.2 參數(shù)估計(jì) 52
3.3 矩陣 54
3.3.1 基本概念 54
3.3.2 基本運(yùn)算 56
3.3.3 特征值與特征向量 57
3.3.4 矩陣分解 60
3.3.5 主成分分析 62
3.3.6 R中矩陣的計(jì)算 68
第4章 數(shù)據(jù)探索和預(yù)處理 74
4.1 數(shù)據(jù)類型 74
4.2 數(shù)據(jù)探索 75
4.2.1 常用統(tǒng)計(jì)量 76
4.2.2 使用R實(shí)際探索數(shù)據(jù) 76
4.3 數(shù)據(jù)預(yù)處理 82
4.3.1 缺失值的處理 82
4.3.2 數(shù)據(jù)的標(biāo)準(zhǔn)化 83
4.3.3 刪除已有變量 85
4.3.4 數(shù)據(jù)的變換 86
4.3.5 構(gòu)建新的變量:啞變量 86
4.3.6 離群數(shù)據(jù)的處理 88
4.4 數(shù)據(jù)可視化 89
4.4.1 直方圖 89
4.4.2 柱狀圖 92
4.4.3 莖葉圖 95
4.4.4 箱線圖 96
4.4.5 散點(diǎn)圖 100
第5章 回歸分析 104
5.1 回歸分析的基本思想 104
5.2 線性回歸和最小二乘法 105
5.2.1 最小二乘法的幾何解釋 106
5.2.2 線性回歸和極大似然估計(jì) 107
5.3 嶺回歸和Lasso 108
5.3.1 嶺回歸 108
5.3.2 Lasso與稀疏解 110
5.3.3 Elastic Net 114
5.4 回歸算法的評價(jià)和選取 114
5.4.1 均方差和均方根誤差 114
5.4.2 可決系數(shù) 114
5.4.3 偏差-方差權(quán)衡 115
5.5 案例分析 118
5.5.1 數(shù)據(jù)導(dǎo)入和探索 118
5.5.2 數(shù)據(jù)預(yù)處理 120
5.5.3 將數(shù)據(jù)集分成訓(xùn)練集和測試集 121
5.5.4 建立一個(gè)簡單的線性回歸模型 121
5.5.5 建立嶺回歸和Lasso模型 122
5.5.6 選取合適的模型 124
5.5.7 構(gòu)造新的變量 126
5.6 小結(jié) 126
第6章 分類算法 127
6.1 分類的基本思想 127
6.2 決策樹 130
6.2.1 基本原理 130
6.2.2 決策樹學(xué)習(xí) 131
6.2.3 過擬合和剪枝 138
6.2.4 實(shí)際使用 139
6.2.5 討論 148
6.3 邏輯回歸 148
6.3.1 sigmoid函數(shù)的性質(zhì) 148
6.3.2 通過極大似然估計(jì)來估計(jì)參數(shù) 149
6.3.3 牛頓法 151
6.3.4 正則化項(xiàng)的引入 153
6.3.5 實(shí)際使用 154
6.4 支持向量機(jī) 161
6.4.1 基本思想:最大化分類間隔 161
6.4.2 最大分類間隔的數(shù)學(xué)表示 163
6.4.3 如何處理線性不可分的數(shù)據(jù) 164
6.4.4 Hinge損失函數(shù) 166
6.4.5 對偶問題 168
6.4.6 非線性支持向量機(jī)和核技巧 170
6.4.7 實(shí)際使用 173
6.5 損失函數(shù)和不同的分類算法 175
6.5.1 損失函數(shù) 175
6.5.2 正則化項(xiàng) 178
6.6 交叉檢驗(yàn)和caret包 180
6.6.1 模型選擇和交叉檢驗(yàn) 180
6.6.2 在R中實(shí)現(xiàn)交叉檢驗(yàn)以及caret包 182
6.7 分類算法的評價(jià)和比較 192
6.7.1 準(zhǔn)確率 193
6.7.2 混淆矩陣 193
6.7.3 精確率、召回率和F1度量 195
6.7.4 ROC曲線和AUC 196
6.7.5 R中評價(jià)標(biāo)準(zhǔn)的計(jì)算 199
6.8 不平衡分類問題 201
6.8.1 使用不同的算法評價(jià)標(biāo)準(zhǔn) 201
6.8.2 樣本權(quán)值 201
6.8.3 取樣方法 202
6.8.4 代價(jià)敏感學(xué)習(xí) 203
第7章 推薦算法 205
7.1 推薦系統(tǒng)基礎(chǔ) 205
7.1.1 常用符號 208
7.1.2 推薦算法的評價(jià)標(biāo)準(zhǔn) 209
7.2 基于內(nèi)容的推薦算法 210
7.3 基于矩陣分解的算法 211
7.3.1 無矩陣分解的基準(zhǔn)方法 211
7.3.2 基于奇異值分解的推薦算法 212
7.3.3 基于SVD推薦算法的變體 216
7.4 基于鄰域的推薦算法 222
7.4.1 基于用戶的鄰域推薦算法 223
7.4.2 基于商品的鄰域推薦算法 225
7.4.3 混合算法 226
7.4.4 相似度的計(jì)算 227
7.5 R中recommenderlab的實(shí)際 使用 232
7.6 推薦算法的評價(jià)和選取 250
第8章 排序?qū)W習(xí) 253
8.1 排序?qū)W習(xí)簡介 253
8.1.1 解決排序問題的基本思路 254
8.1.2 構(gòu)造特征 255
8.1.3 獲取相關(guān)度分?jǐn)?shù) 256
8.1.4 數(shù)學(xué)符號 257
8.2 排序算法的評價(jià) 257
8.2.1 MAP 258
8.2.2 DCG 260
8.2.3 NDCG 261
8.2.4 討論 261
8.3 逐點(diǎn)方法 262
8.3.1 基于SVM的逐點(diǎn)排序方法 263
8.3.2 逐點(diǎn)方法討論 264
8.4 逐對方法 265
8.4.1 Ranking SVM算法 265
8.4.2 IR-SVM算法 266
8.4.3 RankNet算法 267
8.4.4 LambdaRank算法 271
8.4.5 LambdaMART算法 273
8.5 逐列方法 279
8.5.1 SVMmap算法 279
8.5.2 討論 283
第9章 集成學(xué)習(xí) 284
9.1 集成學(xué)習(xí)簡介 284
9.2 bagging簡介 285
9.3 隨機(jī)森林 289
9.3.1 訓(xùn)練隨機(jī)森林的基本流程 289
9.3.2 利用隨機(jī)森林估計(jì)變量的 重要性 290
9.3.3 隨機(jī)森林的實(shí)際使用 291
9.4 boosting簡介 300
9.4.1 boosting和指數(shù)損失函數(shù) 301
9.4.2 AdaBoost算法 302
9.4.3 AdaBoost的實(shí)際使用 306
9.4.4 討論 311
9.5 提升決策樹和梯度提升算法 311
9.5.1 提升決策樹和梯度提升算法的基本原理 311
9.5.2 如何避免過擬合 315
9.5.3 gbm包的實(shí)際使用 318
9.5.4 討論 327
9.6 學(xué)習(xí)器的聚合及stacking 328
9.6.1 簡單平均 328
9.6.2 加權(quán)平均 329
9.6.3 stacking的基本思想及應(yīng)用 329
9.7 小結(jié) 331
參考文獻(xiàn) 332
索引 334

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.dappsexplained.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號