Professional Documents
Culture Documents
手把手带你学懂 SVM PDF
手把手带你学懂 SVM PDF
手把手带你学懂 SVM PDF
最⼤间隔边界
正样本 划分超平⾯
+
不是⽀持向量,分类正确, + +
+ + 最⼤间隔边界
且满⾜⼤间隔约束
+ +
+ +
+ + -
+ +
- +
+
⽀持向量,分类正确, + -
且满⾜⼤间隔约束 -
- -
+ + -
- - -
负样本
- -
- -
⽀持向量,分类正确, -
但不满⾜⼤间隔约束 +
-
- - -
- -
+ - -
⽀持向量,
-
恰好位于划分超平⾯, -
且不满⾜⼤间隔约束 -
0
+
⽀持向量,分类错误,
且不满⾜⼤间隔约束
⽀持向量,分类错误,
且不满⾜⼤间隔约束
⼿把⼿带你学懂 SVM
https://haomood.github.io/homepage/
zhangh0214@gmail.com
2.0
间隔:离划分超平⾯最近的样本
到划分超平⾯的距离的两倍
最⼤化间隔
拉格朗⽇乘⼦法 拉格朗⽇乘⼦法
- 属于凸⼆次规划; 特征映射
- 属于凸⼆次规划;
- 具有全局最⼩;
(硬间隔)线性 SVM 的对偶型 (硬间隔)核化 SVM 的对偶型 - m 个优化变量;
- m 个优化变量;
- m + 2 项不等式约束
- m + 2 项不等式约束 线性核
拉格朗⽇乘⼦法 拉格朗⽇乘⼦法
等价推导 等价推导
1 / 118
SVM -
SVM
LAMDA
240
2016 CVPR
https://haomood.github.io/homepage/ “ ”
SVM SVM
SVM SVM
SVM
SVM
SVM SVM
SVM
“ ”
60 60
SVM
“ ” “ ”
60 70 80
( )
2 / 118
SVM -
60 60
SVM
)
SVM
“ ”
SVM
SVM
SVM “
SVM ”
SVM
SVM
SVM SVM
SVM
SVM SVM
SVM
SVM
4 4 SVM
SVM 5
6
SVM SVM
Scikit-learn SVM LibLinear
LibSVM 5 LibLinear LibSVM SVM
3 / 118
SVM -
zhangh0214@gmail.com
4 / 118
SVM -
SVM
1 . SVM
1.1
1.2
1.3
1.4
1.5
1.6
2 . SVM
2.1
2.2 SVM
2.3
2.4
3 . SVM
3.1
3.2
3.3
3.4
3.5
3.6
4 . SVM
4.1 SVM
4.2 SVM
4.3
4.4 SVM
4.5
4.6
5 . SVM
5.1 Pegasos
5.2
5.3 DCD
5.4 SMO
5.5
6 . SVR
6.1
6.2 -
6.3 SVR
6.3 SVR
6.5
6.6
7 . SVM
7.1 Platt
7.2 SVM
5 / 118
SVM -
1 . SVM
1.1
Binary Classification SVM
Training Set
“ ” “ ” “ ”
“ “ Assignment
1
Hypothesis
Prediction
Linear
Parameters
1
0
6 / 118
SVM -
sign(s)
0 s
-1
6 4
2 2
Normal Vector
Intercept
7 / 118
SVM -
正样本 +
+ 划分超平⾯
+
+ +
+
+ +
+ + -
- -
-
- - -
- 负样本
- -
1.2
3
对样本进⾏局部扰动
划分超平⾯
正样本 +
+
+
+ +
+
+ +
+ + 对样本进⾏局部扰动
-
- -
-
- - -
负样本
- - -
8 / 118
SVM -
SVM “ ” “ ”
SVM “ ”
SVM 3
Training Error 0
Generation Error Testing Error
3
3
3
Robust SVM
“ ”
60 60
SVM
“ ” “ ”
60 70 80
1
“ ”
60
60
SVM “ ”
SVM Margin
9 / 118
SVM -
12 11
超平⾯
5 2 2
10 / 118
SVM -
划分超平⾯
正样本 +
+
+
+ +
+
+ +
+ + -
离划分超平⾯ - -
最近的样本 -
- - -
间隔为该距离 - 负样本
- -
的两倍
“ ”
“ ”
min
max “ ” “ ”
min max SVM
1.1
11 / 118
SVM -
5
6
划分超平⾯
正样本 +
+
+
+ +
+
+ +
+ + -
间隔为该距离 - -
-
的两倍 - - -
- 负样本
- -
离划分超平⾯
最近的样本
min max
min max
x2
划分超平⾯ 恰好位于最近的正负样本正中间
正样本 +
+
+
+ +
+
+ +
+ +
离划分超平⾯ -
最近的正样本 - -
-
- - -
- 负样本
- -
0 x1
间隔为最近的正负样本 离划分超平⾯
到划分超平⾯距离之和 最近的负样本
1.3
12 / 118
SVM -
18 18
max min 18
18
18 18
Scaling
18
18
Scaling
18
24
13 / 118
SVM -
18 18
18
18 18 max min 29
min 29 18 29
x min
min 29 SVM Primal Form of Hard Margin Linear SVM
SVM x x
SVM
30 29
14 / 118
SVM -
SVM 30 29 8
最⼤间隔边界
划分超平⾯ 恰好位于最近的正负样本正中间
正样本 + 最⼤间隔边界
+
+
+ +
+
+ +
+ +
离划分超平⾯ -
最近的正样本 - -
-
- - -
- 负样本
- -
间隔为最近的正负样本 离划分超平⾯
到划分超平⾯距离之和 最近的负样本
1.4
Convex Optimization
Convex Function
Convex Set
9
“ ” “ ”
“ ” “ ”
15 / 118
SVM -
10
x2 x2
0x1
x1
10 $\mathbb R^2$
Above On
11 Concave Function
11 Wikipedia
16 / 118
SVM -
Linear Function
Quadratic Function
12 12
0 0 0
12 $f(x):= ax^2 + bx + c$
“ ” “ ”
17 / 118
SVM -
13 [ , 2016]
Gradient Descent
Deep Learning
Loss Function
14 “ ”
Momentum Dropout
18 / 118
SVM -
1.5
1.2
Linear Programming LP 15 15 3
Quadratic Programming QP
19 / 118
SVM -
15
39
1.4
Convex Quadratic Programming
13
SVM 30
SVM
SVM 30 39
20 / 118
SVM -
SVM 30 39
1 0
1.6
16 SVM
不同的模型有
不同的归纳偏好
对数⼏率回归
……
⾮线性可分
找到
⼆分类问题
(硬间隔)线性 SVM 的基本型
是凸⼆次规划,具有全局最⼩值
线性规划
⽬标函数为线性函数、
约束为线性不等式 凸⼆次规划
⽬标函数为
优化问题 ⼆次规划 凸⼆次函数
⽬标函数为⼆次函数、
约束为线性不等式 ⾮凸⼆次规划
⽬标函数为
…… ⾮凸⼆次函数
16 1
SVM
SVM
21 / 118
SVM -
SVM
22 / 118
SVM -
2 . SVM
1 SVM 1
SVM
13
Lagrange Multipliers SVM
2.1
(1).
Primal Problem
(2).
49
49
49 51
49 51
51 49
23 / 118
SVM -
max
max
0
max
max max
min 0
(3).
51 49 51 max
min max
min min
max Dual
Problem
min max
24 / 118
SVM -
“ ”
min max
max min x
58
60
57
57
Slater [Boyd & Vandenberghe, 2004]
SVM Slater
49 SVM SVM
(4). KKT
Complementary Slackness
52 53
52
55 KKT
25 / 118
SVM -
2.2 SVM
SVM
SVM
2.1 SVM 2.1
(1).
SVM 49
(2).
50 SVM SVM
(3).
53
65 min
Matrix Cookbook [Petersen & Petersen, 2008]
26 / 118
SVM -
KKT
27 / 118
SVM -
min
82
SVM
SVM
SVM 39
28 / 118
SVM -
1 0
1.5
SVM 39
29 / 118
SVM -
2.3
(4). KKT
2.1 KKT
SVM
KKT
KKT 17
Support Vector
2.3
30 / 118
SVM -
x2
最⼤间隔边界
划分超平⾯ 恰好位于最近的正负样本正中间
正样本 + 最⼤间隔边界
+
+
不是⽀持向量 + +
+
+ +
⽀持向量: +
离划分超平⾯ + -
最近的正样本 - -
-
- - -
- 负样本
- -
0 x1
间隔为最近的正负样本
到划分超平⾯距离之和 ⽀持向量:
离划分超平⾯
最近的负样本
17
2 SVM
31 / 118
SVM -
Robust
SVM
Parametric Model
Non-parametric
Model “ ”
SVM
1.2
18
32 / 118
SVM -
18
1.2
SVM
SVM
SVM
19 (a)
SVM
19 (b) SVM
SVM Outlier
对数⼏率回归的划分超平⾯
SVM 和对数⼏率回归
的划分超平⾯ SVM 的划分超平⾯
正样本 正样本
+ +
⽀持向量 ⽀持向量
负样本 负样本
- -
⽀持向量 ⽀持向量
(a) (b)
19 SVM
33 / 118
SVM -
2.4
20
⽀持向量是距离划分超平⾯最近的样本,
落在最⼤间隔边界上
(硬间隔)线性 (硬间隔)线性
⽀持向量
SVM 的基本型 SVM 的对偶型
d + 1 个优化变量 m 个优化变量 参数 仅由⽀持向量决定,
对应的样本
m 项不等式约束 m + 2 项不等式约束 与训练集的其他样本⽆关
构造优化基本型
构造拉格朗⽇函数
拉格朗⽇乘⼦法
交换 min、max
顺序得到对偶型
利⽤ KKT 条件
得到主问题最优值
20 2
3 min max
Slater Slater
1 SVM SVM
SVM
SVM
34 / 118
SVM -
3 . SVM
2 SVM SVM
3.1
1 2 1
Hopfield NP
Gradient Back-propagation
Statistical Learning SVM
2010
35 / 118
SVM -
21 [ , 2016]
21 (c)
SVM
36 / 118
SVM -
22 [ , 2016]
21 (b) 21
(c)
22
23
37 / 118
SVM -
SVM
Feature Engineering
……
38 / 118
SVM -
Black Box
Distributed
Representations [Bengio et al., 2013]
3.2
SVM SVM 21 (c)
SVM
“ ”
SVM
SVM
105 SVM
Primal Form of Hard Margin Kernelized SVM
Kernel Trick
39 / 118
SVM -
SVM Dual
Form of Hard Margin Kernelized SVM
“ ”
40 / 118
SVM -
Taylor's Formula
41 / 118
SVM -
SVM
SVM
3.3
3.2 3.2
SVM SVM
3.2
(1).
(2). 1 1
SVM SVM
0 1 4.4
42 / 118
SVM -
(1). (2).
(3).
(1). (2).
3.2
SVM 0
43 / 118
SVM -
3 Sigmoid
Chi-Squared Kernel Histogram Intersection Kernel
SVM
SVM
SVM
SVM
Mercer Mercer
44 / 118
SVM -
SVM
[Lanckriet et al.,
2004]
45 / 118
SVM -
Trace 4
3.4
2.3 SVM
SVM
SVM
SVM
SVM
46 / 118
SVM -
Representer Theorem
Weight Decay
111
111
47 / 118
SVM -
3.5
Logistic
Regression Sigmoid
Sigmoid 24
24 Sigmoid [ , 2016]
48 / 118
SVM -
sklearn.linear_model.LogisticRegression
SVM
Kernel Logistic Regression
148
150
49 / 118
SVM -
SVM SVM
0 x
SVM Sklearn
3.6
50 / 118
SVM -
25
线性核
多项式核
RBF 核
(硬间隔)线性 (硬间隔)核化
核函数
SVM 的对偶型 SVM 的对偶型
……
⾃定义核函数
核⽅法 核函数组合
决策树
⾮线性划分边界
深度学习
⾮线性可分问题
特征映射到
核化对数⼏率回归
线性可分空间
对数⼏率回归
25 3
SVM ︎ 2 SVM
︎ ︎
SVM
SVM
51 / 118
SVM -
4 . SVM
1 2 SVM 3 SVM
SVM SVM 0 “ ” “ ”
0
26
0 “ ”
划分超平⾯ A
正样本 +
+
+ 噪声样本
+ +
+
+ + + 划分超平⾯ B
+ + -
- -
-
- - -
- 负样本
- -
26 0
1.2
60
60
4.1 SVM
SVM
1.1 SVM
52 / 118
SVM -
SVM
True 1 False
0
162
162 SVM
SVM 162
59 40
0 1
Slack Variable
27 27
53 / 118
SVM -
最⼤间隔边界
正样本 划分超平⾯
+
+ +
分类正确, + + 最⼤间隔边界
且满⾜⼤间隔约束 + +
+ + + - +
+ +
- +
+ + -
分类正确, -
且满⾜⼤间隔约束 - -
+ + -
- - -
- 负样本
- - -
分类正确, + -
-
但不满⾜⼤间隔约束 - -
-
- -
+ - -
恰好位于划分超平⾯, -
且不满⾜⼤间隔约束 -
-
0 +
分类错误,
且不满⾜⼤间隔约束
分类错误,
且不满⾜⼤间隔约束
27
SVM
28
28
0
28
54 / 118
SVM -
28 C Scikit-learn
SVM
SVM
︎ SVM 39
SVM 39
1 0
4.2 SVM
55 / 118
SVM -
(1).
SVM 49
(2).
50 SVM SVM
50
53
SVM
SVM Slater
168 min
56 / 118
SVM -
KKT
57 / 118
SVM -
min
142
58 / 118
SVM -
SVM
SVM
︎ SVM 39
SVM 39
59 / 118
SVM -
4.3
(4). KKT
2.1 KKT
SVM
SVM KKT
60 / 118
SVM -
KKT 29
4.1
4 29 29
4 SVM
61 / 118
SVM -
最⼤间隔边界
正样本 划分超平⾯
+
不是⽀持向量,分类正确, + +
+
且满⾜⼤间隔约束 + 最⼤间隔边界
+ +
+ + + - +
+ +
- +
+ + -
⽀持向量,分类正确,
-
且满⾜⼤间隔约束 - -
+ + -
- - -
- 负样本
- - -
⽀持向量,分类正确, -
+
但不满⾜⼤间隔约束 -
- - -
- -
⽀持向量, + - -
-
恰好位于划分超平⾯, -
且不满⾜⼤间隔约束 -
0 +
⽀持向量,分类错误,
且不满⾜⼤间隔约束
⽀持向量,分类错误,
且不满⾜⼤间隔约束
29 SVM
62 / 118
SVM -
Robust
KKT
SVM
SVM
4.4 SVM
SVM SVM SVM
SVM
30
63 / 118
SVM -
训练集 超参数
训练阶段
软间隔⾼斯核 SVM 的对偶型
优化算法
⽀持向量 系数 参数
预测阶段
预测
待预测样本
预测结果
30 SVM
SVM 3.1
SVM 31
31 SVM Scikit-learn
SVM SVM
32 SVM
64 / 118
SVM -
32 SVM Scikit-learn
4.1
0 1
0
33
65 / 118
SVM -
正样本 +
+
+
+ +
+
+ +
+ + -
- -
-
- - -
- 负样本
⽀持向量 - -
⽀持向量
33
SVM
-NN
-NN SVM
-NN SVM
-NN
SVM
1.2
SVM
SVM
66 / 118
SVM -
33
SVM
SVM
SVM
SVM
SVM
SVM x
C SVM
Grid Search x 34
SVM
sklean.model_selection.GridSearchCV
34
34 Scikit-learn
67 / 118
SVM -
SVM
Hold-out
(1).
(2).
35 -
35 K- K=10 [ , 2016]
- Leave-One-Out Cross
Validation LOOCV (1).
(2).
SVM
SVM SVM
SVM
68 / 118
SVM -
4.3
0
0 1 1
SVM
4.5
4.1
SVM
206
69 / 118
SVM -
206 0
Hinge Loss
211 209
Empirical Risk “ ” “ ” “ ”
36
36
70 / 118
SVM -
36 [ , 2016]
SVM
1.1
1 0
37 0/1
37 0/1 0
0/1
0/1
0/1 Surrogate Loss
0/1
0/1 0 0/1
38
71 / 118
SVM -
37 [ , 2016]
38
37
0/1
0/1 SVM
SVM
SVM
“ ” SVM
4.3 +
3.4 125
“ ”
SVM SVM
SVM
SVM 7.1
SVM
72 / 118
SVM -
SVM
SVM SVM
SVM
SVM
7.1
SVM SVM
SVM SVM
SVM 5
SVM SVM
4.6
SVM Vladimir N. Vapnik Alexey Ya. Chervonenkis 1963
SVM VC [Boser et al., 1992]
SVM [Cortes & Vapnik, 1995]
[Cortes & Vapnik, 1995] Support Vector Networks
Vladimir N. Vapnik “Nothing is more practical than a good theory.” [Vapnik, 2000]
39 4 39 4
39 SVM
SVM
SVM
73 / 118
SVM -
构造优化基本型
间隔:离划分超平⾯最近的样本
到划分超平⾯的距离的两倍
构造拉格朗⽇函数
最⼤化间隔
交换 min、max
顺序得到对偶型 特征映射
- 属于凸⼆次规划; - 属于凸⼆次规划;
- 具有全局最⼩; - 具有全局最⼩;
硬间隔线性 SVM 的基本型 硬间隔核化 SVM 的基本型
利⽤ KKT 条件 - d + 1 个优化变量; - + 1 个优化变量;
得到主问题最优值 ! - m 项不等式约束 - m 项不等式约束
线性映射
拉格朗⽇乘⼦法 拉格朗⽇乘⼦法
- 属于凸⼆次规划; 特征映射
- 属于凸⼆次规划;
- 具有全局最⼩;
硬间隔线性 SVM 的对偶型 ! 硬间隔核化 SVM 的对偶型 ! - m 个优化变量;
- m 个优化变量;
- m + 2 项不等式约束
- m + 2 项不等式约束 线性核
⽀持向量是距离划分超平⾯最近的样本,
落在最⼤间隔边界上
假设函数可以写作⽀持向量对应核函数的
线性组合
拉格朗⽇乘⼦法 拉格朗⽇乘⼦法
等价推导 等价推导
样本 i 分类正确,恰好位于最⼤间隔边界
样本 i 分类正确,位于最⼤间隔带内部
⽀持向量:
对应的样本
样本 i 恰好位于划分超平⾯
样本 i 分类错误,位于最⼤间隔带内部或之外
线性核
核函数 多项式核
⾼斯核
39 4
5 SVM
SVM
74 / 118
SVM -
“ ”
60
60 SVM
60
60
60
39 SVM SVM
SVM
SVM
75 / 118
SVM -
SVM
SVM
SVM SVM
SVM SVM
SVM
SVM SVM 40
SVM SVM
40 Scikit-learn
76 / 118
SVM -
5 . SVM
4 SVM SVM 4
SVM
cvxopt https://cvxopt.org/index.html cvxopt.solvers.qp()
SVM
5.1 Pegasos
SVM 4.5 SVM
Subgradient
77 / 118
SVM -
ReLU
ReLU
Pegasos Primal Estimated sub-GrAdient SOlver for Svm [Shalev-Shwartz et al., 2011]
SVM Pegasos
Pegasos
78 / 118
SVM -
Learning Rate “ ”
Pegasos
Pegasos 41
训练集 超参数
训练阶段
初始化参数
随机选择样本
学习率
更新参数
更新参数
参数
预测阶段
待预测样本 预测
预测结果
41 Pegasos
5.2
5.1 Pegasos SVM SVM
SVM DCD Dual Coordinate Descent [Hsieh et al., 2008]
SMO Sequential Minimal Optimization [Platt, 1998] SVM
SVM SVM LibLinear [Fan et al., 2008]
79 / 118
SVM -
42
80 / 118
SVM -
5.3 DCD
DCD SVM
SVM
SVM SVM
1 SVM
SVM
(1).
81 / 118
SVM -
(2).
240
82 / 118
SVM -
(3).
(4).
83 / 118
SVM -
训练集 超参数
训练阶段
数据集处理
初始化拉格朗⽇乘⼦
初始化参数
选择优化参数
得到优化参数的最优值
根据约束进⾏调整
更新参数
更新参数
参数
预测阶段
数据处理
待预测样本
预测
预测结果
51 DCD
5.4 SMO
SMO SVM
84 / 118
SVM -
SVM
DCD DCD
DCD SVM DCD
SVM
SMO SMO
SMO DCD
SMO
(1).
85 / 118
SVM -
86 / 118
SVM -
(2).
87 / 118
SVM -
259
(3).
52 52
88 / 118
SVM -
52 (a)
52 (b)
52 (c)
52 (d)
52 (a) 52 (b)
52 (c) 52 (d)
C C C C
0 L H C 0 L H C 0 L H C 0 L H C
52 SMO
(4).
89 / 118
SVM -
276 278
280
KKT
90 / 118
SVM -
训练集 超参数
训练阶段
核函数矩阵
初始化拉格朗⽇乘⼦
初始化参数
选择优化参数
计算样本 u 的误差项
计算样本 v 的误差项
更新拉格朗⽇乘⼦
否 是
计算约束范围 计算约束范围
根据约束进⾏调整
更新拉格朗⽇乘⼦
计算参数候选值
是 否
是 否
更新拉格朗⽇乘⼦
⽀持向量 系数 参数
91 / 118
SVM -
⽀持向量 系数 参数
预测阶段
预测
待预测样本
预测结果
53 SMO
SMO
SMO
SMO KKT
5.5
54
92 / 118
SVM -
梯度下降 次梯度下降
合⻚损失 Pegasos
软间隔线性
SVM 的基本型
软间隔线性
DCD
SVM 的对偶型
坐标下降
软间隔核化
SMO
SVM 的对偶型
54 5
SVM
SVM SMO
LibLinear [Fan et al., 2008] LibSVM [Chang & Lin, 2011] SVM SVM
LibLinear DCD LibSVM SMO
93 / 118
SVM -
6 . SVR
5 SVM SVM
SVR Support Vector Regression [Drucker et al., 1996]
6.1
Linear Regression
MSE
Euclidean Distance
sklearn.linear_model.LinearRegression
sklearn.linear_model.Ridge
LASSO sklearn.linear_model.Lasso
0
94 / 118
SVM -
MAE SVR
3.5 + SVM
+
Kernel Ridge Regression
DCD 5.3
95 / 118
SVM -
sklearn.kernel_ridge.KernelRidge
96 / 118
SVM -
6.2 -
MSE
MSE MAE
MSE MAE 0
4.5 “ ” SVM
“ ” SVR
0 0
55
55 SVR 2ε [ , 2016]
97 / 118
SVM -
- MSE 56 MSE -
MSE - -
Outlier - MAE
56 ε- MSE
- - SVR
SVM - SVR
6.3 SVR
4.5 SVM
SVM SVR -
SVR - SVR
98 / 118
SVM -
SVM -
SVR
SVR
57
间隔带上边界
回归超平⾯
位于间隔带之上
间隔带下边界
位于间隔带上边界
位于间隔带内部
位于间隔带下边界
位于间隔带之下
57 SVR
99 / 118
SVM -
- SVR
SVR Primal Form of Kernelized SVR
SVR
SVR
SVR 39
100 / 118
SVM -
SVR 39
1 0
6.3 SVR
2.2 4.2 SVM
SVM SVM SVM
2.1
(1).
SVR 45
101 / 118
SVM -
(2).
46 SVR SVR
46
SVR
49
min
102 / 118
SVM -
KKT
103 / 118
SVM -
min
x SVR
Dual Form of Kernelized SVR
SVR
SVR
SVR 39
104 / 118
SVM -
SVR 39
Spectral
Decomposition
0
0
6.5
105 / 118
SVM -
(4). KKT
2.1 KKT
SVR
106 / 118
SVM -
4 SVR KKT
KKT 58
6.2
KKT 58
6.2
KKT
107 / 118
SVM -
6 58
6 SVR
间隔带上边界
回归超平⾯
⽀持向量,位于间隔带之上
间隔带下边界
⽀持向量,位于间隔带上边界
⾮⽀持向量,位于间隔带内部
⽀持向量,位于间隔带下边界
⽀持向量,位于间隔带之下
58 SVR
108 / 118
SVM -
KKT
SVR
SVR
59 SVR 60
SVR
109 / 118
SVM -
59 SVR Scikit-learn
60 SVR Wikipedia
6.6
110 / 118
SVM -
61 61 SVR
SVR
SVR
拉格朗⽇乘⼦法 拉格朗⽇乘⼦法
等价推导 等价推导
⽀持向量 对应的样本,位于间隔带边界或之外
线性核
核函数 多项式核
⾼斯核
61
- “ ” SVR
6.5 + 6.1
MSE “ ”
SVR
SVR
SVR
62 SVR
SVR
111 / 118
SVM -
63 SVR
SVR SVR SVR
112 / 118
SVM -
7 . SVM
SVM
7.1 Platt
SVM
SVM Sigmoid
Sigmoid sign
Sigmoid
Platt Platt
Scaling [Platt, 1999]
Platt SVM
SVM Platt
113 / 118
SVM -
7.2 SVM
5 Multiclass Classification
0-9 10
7 OvO OvR
OvR
7 OvO OvR
SVM
SVM
SVM [Weston & Watkins, 1999]
SVM
SVM
114 / 118
SVM -
SVM
SVM SVM
SVM SVM
SVM
SVM
SVM
+1
SVM
115 / 118
SVM -
116 / 118
SVM -
[Bengio et al., 2013] Yoshua Bengio, Aaron C. Courville, Pascal Vincent. Representation learning: A review and
new perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8): 1798-1828, 2013.
[Boser et al., 1992] Bernhard E. Boser, Isabelle Guyon, Vladimir Vapnik. A training algorithm for optimal
margin classifiers. COLT: 144-152, 1992.
[Boyd & Vandenberghe, 2004] Stephen Boyd, Lieven Vandenberghe. Convex Optimization. Cambridge
University Press, 2004.
[Burges, 1998] Christopher J. C. Burges. A tutorial on support vector machines for pattern recognition. Data
Mining and Knowledge Discovery. 2(2): 121-167, 1998.
[Chang & Lin, 2011] Chih-Chung Chang, Chih-Jen Lin. LibSVM: A library for support vector machines. ACM
Transactions on Intelligent Systems and Technology, 2(3): 27:1-27:27, 2011.
[Cortes & Vapnik, 1995] Corinna Cortes, Vladimir Vapnik. Support-vector networks. Machine Learning, 20(3):
273-297, 1995.
[Cristianini & Shawe-Taylor, 2000] Nello Cristianini, John Shawe-Taylor. An Introduction to Support Vector
Machines and Other Kernel-based Learning Methods. Cambridge University Press, 2000.
[Drucker et al., 1996] Harris Drucker, Christopher J. C. Burges, Linda Kaufman, Alexander J. Smola, Vladimir
Vapnik. Support vector regression machines. NIPS: 155–161, 1996.
[Fan et al., 2008] Rong-En Fan, Kai-Wei Chang, Cho-Jui Hsieh, Xiang-Rui Wang, Chih-Jen Lin. LIBLINEAR: A
library for large linear classification. Journal of Machine Learning Research, 9(8): 1871–1874, 2008.
[He et al., 2016] Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun. Deep residual learning for image
recognition. CVPR: 770-778, 2016.
[Hofmann et al., 2008] Thomas Hofmann, Bernhard Schölkopf, Alexander J. Smola. Kernel methods in machine
learning. The Annals of Statistics, 1171–1220, 2008.
[Hsieh et al., 2008] Cho-Jui Hsieh, Kai-Wei Chang, Chih-Jen Lin, S. Sathiya Keerthi, S. Sundararajan. A dual
coordinate descent method for large-scale linear SVM. ICML: 408-415, 2008.
[Huang et al., 2017] Gao Huang, Yixuan Li, Geoff Pleiss, Zhuang Liu, John E. Hopcroft, Kilian Q. Weinberger.
Snapshot ensembles: Train 1, get M for free. ICLR, 2017.
[Lanckriet et al., 2004] Gert R. G. Lanckriet, Nello Cristianini, Peter L. Bartlett, Laurent El Ghaoui, Michael I.
Jordan. Learning the kernel matrix with semidefinite programming. Journal of Machine Learning Research,
5(1): 27–72, 2004.
[Li et al., 2021] Fei-Fei Li, Ranjay Krishna, Danfei Xu. CS231n: Convolutional Neural Networks for Visual
Recognition. Stanford, 2021.
[Lin, 2017] Hsuan-Tien Lin. Machine Learning Techniques. National Taiwan University, 2017.
[Minsky & Papert, 1969] Marvin Minsky, Seymour Papert. Perceptrons: an Introduction to Computational
Geometry. MIT Press, 1969.
[Murphy, 2012] Kevin P. Murphy. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.
[Ng et al., 2022] Andrew Ng, Carlos Guestrin, Moses Charikar. CS 229: Machine Learning. Stanford, 2022.
117 / 118
SVM -
[Osuna et al., 1997] Edgar Osuna, Robert Freund, Federico Girosi. An improved training algorithm for vector
machines. NNSP: 276-285, 1997.
[Petersen & Petersen, 2008] Kaare B. Pedersen, Michael S. Pedersen. The matrix cookbook. Technical University
of Denmark, 2008.
[Platt, 1998] John Platt. Sequential minimal optimization: A fast algorithm for training support vector machines.
Micriosoft Research, 1998.
[Platt, 1999] John Platt. Probabilistic outputs for support vector machines and comparisons to regularized
likelihood methods. Advances in Large Margin Classifiers, 10(3): 61–74, 1999.
[Radford et al., 2021] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini
Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, Ilya Sutskever.
Learning transferable visual models from natural language supervision. ICML: 8748-8763, 2021.
[Rahimi & Recht, 2007] Ali Rahimi, Benjamin Recht. Random features for large-scale kernel machines. NIPS:
1177–1184, 2007.
[Scholkopf & Smola, 2001] Bernhard Schölkopf, Alexander Johannes Smola. Learning with Kernels: Support
Vector Machines, Regularization, Optimization, and Beyond. MIT press, 2001.
[Shalev-Shwartz et al., 2011] Shai Shalev-Shwartz, Yoram Singer, Nathan Srebro, Andrew Cotter. Pegasos:
Primal estimated sub-gradient solver for SVM. Mathematical Programming, 127(1): 3–30, 2011.
[Tang, 2013] Yichuan Tang. Deep learning using support vector machines. CoRR abs/1306.0239, 2013.
[Tsang et al., 2005] Ivor W. Tsang, James T. Kwok, Pak-Ming Cheung. Core vector machines: Fast SVM training
on very large data sets. Journal of Machine Learning Research, 6(4): 363– 392, 2005.
[Vapnik, 2000] Vladimir Vapnik. The Nature of Statistical Learning Theory. Statistics for Engineering and
Information Science, Springer, 2000.
[Weston & Watkins, 1999] Jason Weston, Chris Watkins. Support vector machines for multi-class pattern
recognition. ESANN: 219–224, 1999.
[Williams & Seeger, 2001] Christopher K. I. Williams, Matthias W. Seeger. Using the Nyström method to speed
up kernel machines. NIPS: 682–688, 2001.
[ , 2020] , , . . , 2020.
[ , 2016] . . , 2016.
118 / 118