注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書人文社科社會科學統(tǒng)計學統(tǒng)計學習必學的十個問題:理論與實踐

統(tǒng)計學習必學的十個問題:理論與實踐

統(tǒng)計學習必學的十個問題:理論與實踐

定 價:¥49.80

作 者: 李軒涯,張暐 著
出版社: 清華大學出版社
叢編項:
標 簽: 暫缺

ISBN: 9787302577171 出版時間: 2021-06-01 包裝: 平裝
開本: 16開 頁數(shù): 145 字數(shù):  

內(nèi)容簡介

  統(tǒng)計學習是機器學習的重要分支,本書兼顧了數(shù)學上的理解和代碼實踐,內(nèi)容主要包括基礎知識和統(tǒng)計學習模型。第1章、第2章結合VC維介紹過擬合的本質(zhì),并介紹手動特征選擇的辦法;第3章、第4章從最簡單的線性模型出發(fā)經(jīng)過概率統(tǒng)計的解讀而得到分類和回歸算法;第5章討論了不依賴于假設分布的非參數(shù)模型;第6章將核方法作為一種非線性拓展的技巧介紹如何將該方法應用到很多算法中,并且引出了著名的高斯過程;第7章以混合高斯作為軟分配聚類的代表性方法,從而引出著名的EM算法;第8章討論了機器學習的集成算法;第9章介紹的線性和非線性降維方法將會解決維度災難問題,并且不同于單純的特征選擇;第10章討論了不依賴于獨立同分布假設的時間序列算法。本書適合對于統(tǒng)計學習感興趣的大學生、工程師閱讀參考。閱讀本書需要具備基礎的Python編程技術和基本的數(shù)學知識。

作者簡介

  李軒涯,單位:百度公司,職務、職稱:高級工程師,性別:男,年齡:33,專業(yè):計算機科學與技術,學歷:博士,研究成果:中國計算機學會杰出會員、常務理事,中國計算機實踐教育聯(lián)合會副理事長?,F(xiàn)主管百度校企合作、校企聯(lián)合人才培養(yǎng)、校園粉絲生態(tài)圈,幫助百度技術、人才及產(chǎn)品品牌在高校領域的推廣與影響力傳播。

圖書目錄

第1章 防止過擬合
1.1 過擬合和欠擬合的背后
1.2 性能度量和損失函數(shù)
1.3 假設空間和VC維
1.4 偏差方差分解的意義
1.5 正則化和參數(shù)綁定
1.6 使用scikit-learn
第2章 特征選擇
2.1 包裹法Warpper
2.2 過濾法Filter
2.3 嵌入法Embedded
2.4 使用scikit-learn
第3章 回歸算法中的貝葉斯
3.1 快速理解判別式模型和生成式模型
3.2 極大似然估計和平方損失
3.3 最大后驗估計和正則化
3.4 貝葉斯線性估計
3.5 使用scikit-learn
第4章 分類算法中的貝葉斯
4.1 廣義線性模型下的sigmoid函數(shù)和softmax函數(shù)
4.2 對數(shù)損失和交叉熵
4.3 邏輯回歸的多項式拓展和正則化
4.4 樸素貝葉斯分類器
4.5 拉普拉斯平滑和連續(xù)特征取值的處理方法
4.6 使用scikit-learn
第5章 非參數(shù)模型
5.1 K近鄰與距離度量
5.2 K近鄰與kd樹
5.3 決策樹和條件嫡
5.4 決策樹的剪枝
5.5 連續(xù)特征取值的處理方法和基尼指數(shù)
5.6 回歸樹
5.7 使用scikit-learn
第6章 核方法
6.1 核方法的本質(zhì)
6.2 對偶表示和拉格朗日乘子法
6.3 常見算法的核化拓展
6.4 高斯過程
6.5 使用scikit-learn
第7章 混合高斯:比高斯分布更強大
7.1 聚類的重要問題
7.2 潛變量與K均值
7.3 混合高斯和極大似然估計的失效
7.4 EM算法的核心步驟
7.5 使用scikit-learn
第8章 模型組合策略
8.1 Bagging和隨機森林
8.2 Boosting的基本框架
8.3 Adaboost
8.4 GBDT和XGBoost
8.5 使用scikit-learn
第9章 核化降維和學習流形
9.1 線性降維
9.2 核化線性降維
9.3 流形學習
9.4 使用scikit-learn
第10章 處理時間序列
10.1 概率圖模型和隱變量
10.2 高階馬爾可夫模型
10.3 隱馬爾可夫模型
10.4 隱馬爾可夫模型的EM算法
10.5 使用scikit-learn
參考文獻

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.dappsexplained.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號