SVM
2020-03-01 439浏览
- 1.SVM 推导 51174500137 徐文起
- 2.PROPOSER : Vladimir Vapnik
- 3.“STREET”
- 4.“STREET”
- 5.DECISION ROLE Vector he street ? On the left or right side of t
- 6.DECISION ROLEQuestion:which and which
- 7.SOME ADDTION CONSTRAIN
- 8.Demo
- 9.What if ?
- 10.Vapnik-Chervonenkis Dimension VC 维
- 11.机器学习的基础架构 用 VC 维来度量 假设空间的复杂度
- 12.Vapnik-Chervonenkis Dimensio 在二分类情况 下,这是一个 “对分”
- 13.Vapnik-Chervonenkis Dimensio
- 14.Vapnik-Chervonenkis Dimensio
- 15.Vapnik-Chervonenkis Dimensio 如果我们有这样一个 4 个数据点的示例集呢? 有两种标记结果是“直线方程”没有办法产生的
- 16.Vapnik-Chervonenkis Dimensio 泛化误差 (不可预知) 经验误差 (可计算) 基于 VC 维的泛化误差界公式
- 17.基于 VC 维的泛化误差界公式 Vapnik-Chervonenkis Dimensio 结构误差 尽量寻找一个使得泛化误差最小的 VC 维,以此来决 定应该使用多复杂的假设空间或模型 当所选择的 VC 维较大时,可以考虑使用更多的训练 样本来提高泛化能力
- 18.非线性 SVM 无法用一条直线将 样本正确分类 一个线性可分的 高维特征空间
- 19.非线性 SVM
- 20.非线性 SVM 原始问题 对偶问题 替 代
- 21.非线性 SVM 对偶问题 求解后得到
- 22.非线性 SVM 基本思路:设计或找寻一个核函数 绕过特征映射,避免计算高维内积的困难 任何一个核函数都隐式地定义了一个 RKHS (再生核希尔伯特空 间) !
- 23.齐次二次多项式核 函数 非线性 SVM 一个核函数对应的特征映射和再生希尔伯特空间都不是唯一的!
- 24.非线性 SVM 核函数还可以通过函数组合得到: 均为核函数 “ 核函数的选择”是非线性 SVM 性格好坏的关键!
- 25.非线性 SVM 齐次多项式 kernel 非齐次多项式 kernel 《 A Tutorial on Support Vector Machines for Pattern Recognition 》
- 26.非线性 SVM 将高斯核函数代入决策超平面 ,可得到 每个样本都对应 一个高斯分布
- 27.非线性 SVM VC 维越大,泛化 性能越差 SVM 的 VC 维越大,但是泛化性能很好? 最大间隔化的作 用! SVM 通过最大化分类间隔来控制假设空间的 VC 维,使得学习器即 使在高维特征空间,其 VC 维也会比特征空间的维数要低很多,从而保证 了较较 好的推广能力! 较较较 较较 较
- 28.非线性 SVM 《支持向量机导论》
- 29.软间隔 511174500024 黄小菊
- 30.目录 为什么提出软间隔 如何在模型中实现软间隔 支持向量 正则化问题
- 31.为什么提出软间隔
- 32.如何在模型中实现软间隔
- 33.如何在模型中实现软间隔
- 34.如何在模型中实现软间隔
- 35.如何在模型中实现软间隔 KKT 条件:
- 36.支持向量
- 37.正则化问题
- 38.SMO-Sequential Minimal Optimization 赵丽梅 51174500061
- 39.论文 Sequential MinimalOptimization:A Fast Alg orithm for Training Support Vector Machine s ——John C.Platt
- 40.SMO 概念 定义目标函数 : (xi, yi) :训练样本数据 xi :样本特征 yi∈{−1,1} :样本标签 C :容错率,由自己设定 。 C 如果较大,分错的点就比较少,但是会产生过拟 合 N 个参数: (α1,α2,α3,...,αN)
- 41.SMO 基本思想 将原问题分解为一系列小规 模凸二次规划问题而获得原 问题解 每次启发式的选择两个拉格 朗日乘子,同时固定其它拉 格朗日乘子来找到这两个拉 格朗日乘子的最优值,直到 达到停止条件
- 42.定义目标函数 定义符号:
- 43.定义目标函数 化简目标函数
- 44.定义目标函数 化简目标函数(视为一个二元函数)
- 45.定义目标函数 化简目标函数(视为一元函数)
- 46.定义目标函数 对一元函数求极值点
- 47.定义目标函数 假设 SVM 超平面的模型为 将推导出的 w 的表达式带入得 表示样本 xi 的预测值 ,yi 表示样本 xi 的真实值,定义 Ei 表示 预测值与真实值之差为: f(xi)
- 48.定义目标函数 化简 得: 带入 并记 得: 这里假定 >0
- 49.对原始解修剪 约束条件:
- 50.对原始解修剪 经过上述约束的修剪,最优解可以记为 求解 由于其他 N-2 个变量固定,由 可得: :
- 51.临界情况 ( 1 )大部分情况下, (2) (3) 极值在可行域边界处取得 极值在可行域边界处取得
- 52.启发式选择变量 KKT 条件 定理:对于任何两个乘子,只要其中一个不满足 KKT 条 件,那么目标函数在一步迭代后值会减小 Osuna
- 53.启发式选择变量 第一个变量的选择——外循环 1 、遍历整个样本集,选择违反 着依据相关规则选择第二个变量 KKT 条件的 αi 作为第一个变量 ,接 2 、遍历完整个样本集后,遍历非边界样本集中违反 为第一个变量,接着依据相关规则选择第二个变量 KKT 的 αi 作 3 、在整个样本集与非边界样本集上来回切换,寻找违反 的 αi 作为第一个变量。 4 、直到遍历整个样本集后,没有违反 KKT 条件 KKT 条件 αi ,然后退出。
- 54.启发式选择变量 第二个变量的选择——内循环 确定了第一个变 量后,选择使两个变量对应样本之间差距最大的变量作为第二个变量。
- 55.阈值 b 的计算 每完成对两个变量的优化后,要对 系到 f(x) 的计算 1. 如果 得: b 的值进行更新,因为 b 的值关 ,结合 KKT 条件以及
- 56.阈值 b 的计算 - 推导
- 57.阈值 b 的计算 2. 如果 3. 如果同时不满足 ,则有 ,则 以及它们之间 的数都满足 KKT 条件,这时选择它们的中点。
- 58.支持向量回归 (SVR) 51174500004 陈彪
- 59.支持向量回归 (SVR) 支持向量回归 : 与传统不同 , 支持向量回归 , 假设我们能 容忍 f(x) 与 y 之间最多有 ϵ 的误差 , 即仅当 f(x) 与 y 之间的 差别绝对值大于 ϵ 时才计算损失 . 如图 1 所示 , 这相当于以 f (x) 为中心 , 构建一个宽度为 2ϵ 的隔离带 , 若训练样本落入 此隔离带 , 则认为是被预测正确的 .
- 60.支持向量回归 (SVR)
- 61.支持向量回归 (SVR)
- 62.支持向量回归 (SVR)
- 63.支持向量回归 (SVR)
- 64.支持向量回归 (SVR)
- 65.支持向量回归 (SVR)
- 66.支持向量回归 (SVR)
- 67.支持向量回归 (SVR)
- 68.支持向量回归 (SVR)
- 69.支持向量回归 (SVR)
- 70.支持向量回归 (SVR)
- 71.支持向量回归 (SVR)
- 72.支持向量回归 (SVR)
- 73.支持向量回归 (SVR)
- 74.支持向量回归 (SVR)
- 75.支持向量回归 (SVR)
- 76.支持向量回归 (SVR) SVR 算法的使用
- 77.支持向量回归 (SVR)
- 78.支持向量回归 (SVR)
- 79.支持向量回归 (SVR)
- 80.支持向量回归 (SVR)
- 81.支持向量回归 (SVR)
- 82.支持向量回归 (SVR)
- 83.支持向量机的实现 MATLAB 为例 (Statistics and Machine Learning Toolbox™ ) 训练支持向量机的步骤 1) Transform predictors (input data) to a high-dimensional feature sp ace. 2) Solve a quadratic optimization problem to fit an optimal hyperplan e to classify the transformed features into two classes
- 84.KernelFunction 支持向量机的实现 Support Vector Machines for Binary Classification Training an SVM Classifier SVMModel = fitcsvm(X,Y,'KernelFunction','rbf',... 'Standardize',true,'ClassNames',{'negClass','posClass’}); X — Matrix of predictor data Y — Array of class labels with each row corresponding to the value of the cor responding row in X KernelFunction - Kernel Function 'Standardize -Flag indicating whether the software should standardize the predictor s before training the classifier. ClassNames - Distinguishes between the negative and positive classes, or specifies which classes to include in the data
- 85.支持向量机的实现 [label,score] = predict(SVMModel,newX); Using a Gaussian Kernel
- 86.支持向量机的实现 Using a Gaussian Kernel
- 87.支持向量机的实现 Using a Gaussian Kernel
- 88.支持向量机的实现 Using Custom Kernel
- 89.支持向量机的实现 Using Custom Kernel
- 90.支持向量机的实现 Using Custom Kernel
- 91.支持向量机的实现 scikit-learn svm
- 92.支持向量机的实现
- 93.支持向量机的实现
- 94.支持向量机的实现
- 95.Thank you