Info
🌱 來自: statistics
Statistical Machine Learning
監督學習
-
1 機器學習及監督學習概論
-
1.1 機器學習
-
1.2 機器學習的分類
-
1.3 機器學習方法三要素
-
1.4 模型評估與模型選擇
-
1.5 正規化與交叉驗證
-
1.6 泛化能力
-
1.7 生成模型與判別模型
-
1.8 監督學習應用
-
- 感知機
-
2.1 感知機模型
-
2.2 感知機學習策略
-
2.3 感知機學習演算法
-
- k 近鄰法
-
3.1 k 近鄰演算法
-
3.2 k 近鄰模型
-
3.3 k 近鄰法的實現:kd 樹
-
- 單純貝氏法
-
4.1 單純貝氏法的學習與分類
-
4.2 單純貝氏法的參數估計
-
- 決策樹
-
5.1 決策樹模型與學習
-
5.2 特徵選擇
-
5.3 決策樹的生成
-
5.4 決策樹的剪枝
-
5.5 CART 演算法
-
- 邏輯回歸與最大熵模型
-
6.1 邏輯回歸模型
-
6.2 最大熵模型
-
6.3 模型學習的最佳化演算法
-
- 支持向量機
-
7.1 線性可分支持向量機與硬間隔最大化
-
7.2 線性支持向量機與軟間隔最大化
-
7.3 非線性支持向量機與核函數
-
7.4 序列最小最佳化演算法
-
- 提升方法
-
8.1 提升方法AdaBoost 演算法
-
8.2 AdaBoost 演算法的訓練誤差分析
-
8.3 AdaBoost 演算法的解釋
-
8.4 提升樹
-
- EM 演算法及其推廣
-
9.1 EM 演算法的引入
-
9.2 EM 演算法的收斂性
-
9.3 EM 演算法在高斯混合模型學習中的應用
-
9.4 EM 演算法的推廣
-
- 隱馬可夫模型
-
10.1 隱馬可夫模型的基本概念
-
10.2 機率計算演算法
-
10.3 學習演算法
-
10.4 預測演算法
-
- 條件隨機場
-
11.1 機率 ✖ 無向圖模型
-
11.2 條件隨機場的定義與形式
-
11.3 條件隨機場的機率計算問題
-
11.4 條件隨機場的學習演算法
-
11.5 條件隨機場的預測演算法
-
- 監督學習方法總結
第2篇 無監督學習
-
- 無監督學習概論
-
13.1 無監督學習基本原理
-
13.2 基本問題
-
13.3 機器學習三要素
-
13.4 無監督學習方法
-
- 聚類方法
-
14.1 聚類的基本概念
-
14.2 層次聚類
-
14.3 k 均值聚類
-
- 奇異值分解
-
15.1 奇異值分解的定義與性質
-
15.2 奇異值分解的計算
-
15.3 奇異值分解與矩陣近似
-
- 主成分分析
-
16.1 整體主成分分析
-
16.2 樣本主成分分析
-
- 潛在語義分析
-
17.1 單字向量空間與話題向量空間
-
17.2 潛在語義分析演算法
-
17.3 非負矩陣分解演算法
-
- 機率潛在語義分析
-
18.1 機率潛在語義分析模型
-
18.2 機率潛在語義分析的演算法
-
- 馬可夫鏈蒙地卡羅法
-
19.1 蒙地卡羅法
-
19.2 馬可夫鏈
-
19.3 馬可夫鏈蒙地卡羅法
-
19.4 Metropolis-Hastings 演算法
-
19.5 吉布斯抽樣
-
- 潛在狄利克雷分配
-
20.1 狄利克雷分佈
-
20.2 潛在狄利克雷分配模型
-
20.3 LDA 的吉布斯抽樣演算法
-
20.4 LDA 的變分EM 演算法
-
- PageRank 演算法
-
21.1 PageRank 的定義
-
21.2 PageRank 的計算
-
- 無監督學習方法總結
-
22.1 無監督學習方法的關係和特點
-
22.2 話題模型之間的關係和特點
-
◎ 第3篇 深度學習
-
- 前饋神經網路
-
23.1 前饋神經網路的模型
-
23.2 前饋神經網路的學習演算法
-
23.3 前饋神經網路學習的正規化
-
- 卷積神經網路
-
24.1 卷積神經網路的模型
-
24.2 卷積神經網路的學習演算法
-
24.3 影像分類中的應用
-
- 循環神經網路
-
25.1 簡單循環神經網路
-
25.2 常用循環神經網路
-
25.3 自然語言生成中的應用
-
- 序列到序列模型
-
26.1 序列到序列基本模型
-
26.2 RNN Search 模型
-
26.3 Transformer 模型
-
- 預訓練語言模型
-
27.1 GPT 模型
-
27.2 BERT 模型
-
- 生成對抗網路
-
28.1 GAN 基本模型
-
28.2 影像生成中的應用
-
- 深度學習方法複習
-
29.1 深度學習的模型
-
29.2 深度學習的方法
-
29.3 深度學習的最佳化演算法
-
29.4 深度學習的優缺點