当前位置: 首页 > news >正文

专业积分商城网站建设绍兴网站建设做网站

专业积分商城网站建设,绍兴网站建设做网站,做酒店网站设计,网站系统说明书SVM是一种二元分类模型(当然它也可以处理回归问题)#xff0c;它通过训练样本寻找分隔两类样本的最优决策边界(超平面)#xff0c;使得两类样本距离决策边界的距离最远(例如H3)。其中距离决策边界最近的样本称为支持向量(即深色的苹果和香蕉)#xff0c;支持向量所在的与决策…SVM是一种二元分类模型(当然它也可以处理回归问题)它通过训练样本寻找分隔两类样本的最优决策边界(超平面)使得两类样本距离决策边界的距离最远(例如H3)。其中距离决策边界最近的样本称为支持向量(即深色的苹果和香蕉)支持向量所在的与决策平面平行的平面称为支撑平面(虚线)支撑平面与决策平面的距离称为间隔(margin)SVM寻找最优决策边界实际上就是要最大化(最大可信度)两个支撑平面的间隔(决策平面位于两者的中间)。SVM 模型根据数据集的差异可以分为三种类型线性可分 硬间隔最大化 线性可分SVM线性不可分(有噪音) 软间隔最大化 线性 SVM(引入松弛变量和惩罚函数)非线性可分 软间隔最大化 核函数 非线性 SVM一、线性可分(硬间隔最大化)假设决策超平面为: W·X b 0正类支撑平面为: W·X b γ由对称关系可知负类支撑平面为: W·X b -γ由于平面等比例缩放依然属于同一平面, 即 5W·X 5b 5 与 W·X b 1 是同一个平面所以前面的假设可以更简洁地表示为(按γ等比例缩放)决策平面: W·X b 0正类的支撑平面: W·X b 1负类的支撑平面: W·X b -1要求满足以下规则计算两个支撑平面的距离(margin)由两平面距离公式可知平面 W·X b 1 0 与平面 W·X b -1 0的距离为所以要最大化margin相当于要最小化 ||w|| 即等价于最终的优化问题(目标函数)变成:二、线性不可分(软间隔最大化)当训练数据含有噪音数据时如果进行硬间隔最大化可能会导致间隔过小甚至无法求解。此时我们引入松弛变量(Slack Variable)ξ (epsilon ξ≥0) 将原来的不等式约束变为松弛变量相当于为支撑平面提供了一个容错的区间允许噪音数据存在(误分类样本)当松弛变量越大那么容错范围越大反之当ξ0等价于硬间隔最大化。当然我们不能无限制地容错为了调和“间隔最大化”和“区分最大化”我们引入惩罚参数C目标函数变成说明相当于将“经验风险最小化问题”转变为引入了置信风险的“结构风险最小化问题”说明ξ_i≥0 与 hinge lossmax(0,1-y_i (w^T x_ib)) 实际上是等价的。当C 越大模型对误分类的惩罚越大相当于分类更精确但同时会牺牲间隔距离可能导致过拟合。当C 越小模型对误分类的惩罚越少相当于更倾向于间隔距离最大化以提升泛化能力但同时牺牲了分割性可能导致欠拟合。构造广义拉格朗日函数由于第一步针对α和β的最大化含有约束条件为了更方便求解问题我们将求解原问题转化为求解其对偶问题(由于满足KKT条件所以对偶问题的解与原问题的解相等)即拉格朗日极大极小值问题分别对w、b、ξ 求偏导等于0得代入L消除w、b、ξ、β 得问题的最终表达式通过SMO算法求解α的最优解(将大优化问题分解为多个小优化问题即只有两个变量的二次规划子问题)求得最优 α* 后可以求得对应的w* 、b*:所以可知决策函数为备注因为α_i*g(w,b,ξ)0 所以只有当g 0时(样本为支持向量)α0其余情况α0因此决策函数只与支持向量有关。三、非线性可分有时候数据集可能是非线性可分的此时需要将原始特征映射φ到更高维的特征空间使得样本在高维特征空间内线性可分然后通过学习线性分类器的方法找到高维空间下的分类超平面。然而直接将原始特征映射到高维特征再进行计算并不容易当原始特征非常多时映射后的维数也会非常高此时计算量会非常大甚至出现“维数灾难”,为了避免直接在高维空间进行计算我们引入核函数解决。K(x,y)核函数的作用在低维空间的计算结果与映射到高维空间后的表现等效核函数可以理解为对高维空间的一种隐式映射。例子x (x1, x2, x3); y (y1, y2, y3).定义映射 φ(x) (x1x1, x1x2, x1x3, x2x1, x2x2, x2x3, x3x1, x3x2, x3x3), 将3维映射到9维定义核函数K(x, y ) ()².假设 x (1, 2, 3); y (4, 5, 6). 那么φ(x) (1, 2, 3, 2, 4, 6, 3, 6, 9)φ(y) (16, 20, 24, 20, 25, 30, 24, 30, 36) 16 40 72 40 100 180 72 180 324 1024使用核函数快速计算K(x, y) (4108)² 32² 1024引入核函数后的目标函数变为决策函数四、常用核函数线性核径向基函数核(RBFSVM最常用的核函数)备注γ决定RBF核的非线性程度γ越大分类边界的非线性表达能力越突出但可能导致过拟合相反γ越小分类边界越倾向于线性边界即更接近低维空间。这就是为什么sklearn的SVM中gamma默认是1/n_features因为特征越多越能线性可分所以核函数的非线性能力相应可以降低。多项式核(Polynomial kernel多用于NLP问题)五、SVM调参方式以RBF-SVM为例主要涉及惩罚参数C和核参数γ。常用的调参方式是基于交叉验证的网格搜索(GridSearchCV)即尝试不同的(C,γ)组合选择交叉验证精度最高的组合作为最优参数。六、多分类(one vs one)将k个类进行两两配对产生k(k-1)/2个分类器(只需在对应两类的样本中进行训练)所有分类器对新样本进行预测得票最多的类别为预测分类结果。七、SVM优点泛化能力强(优化目标是结构风险最小化即具有正则项能有效防止过拟合)通过核函数对高维空间的隐式映射能有效解决非线性问题。八、SVM缺点对于大规模数据训练由于计算量较大训练效率较低。(究其根本核化的SVM本身的时间复杂度 O(nm^2) 就是二次时间m是样本数n是特征数。当数据量较大的时候还面临空间复杂度的问题cache的储存可能不够)模型解释性较弱无法给出概率结果。本身是一个二分类模型对于多分类问题比较乏力需要采用one vs one, one vs all。对于非线性问题核函数的选择以及调参比较麻烦。九、应用场景小样本、非线性、高维十、SVM与逻辑回归的比较逻辑回归收敛于任何可以将样本分隔的决策边界(虽然是最大似然估计但本质关心的只是会不会发生)而SVM则选择间隔最大化的分界作为决策边界这通常意味着SVM具有更好的泛化能力SVM可以通过引入非线性核解决非线性问题SVM(尤其是核化的SVM)相比逻辑回归需要更大的计算成本SVM 无法直接给出概率解释(需要通过代价高昂的五折交叉验证方法计算概率)逻辑回归可以直接给出概率解释。十一、算法选择特征数很大(特征≥10000或接近样本数)使用逻辑回归或者线性核SVM特征数少样本数适中(特征≤1000样本≤10000)使用RBF-SVM特征数少但样本数很大增加特征然后使用逻辑回归或线性核SVM注意: SVM对特征缩放敏感所以必须要对特征进行归一化或标准化处理。因为SVM是一种跟距离计算有关的模型如果不进行特征缩放那么具有较大范围值的特征对距离的影响会比其他特征更大另外核函数往往涉及向量内积的计算特征缩放可以有效避免数值问题(溢出)转载请注明出处:
http://www.huolong8.cn/news/97332/

相关文章:

  • 怎样做医疗保健网站互联网公司排名类比
  • 如何创建企业网站营销目标包括哪些内容
  • 取外贸网站域名经验品质好物推荐怎么上
  • 株洲网站建设开发个人网站和企业网站
  • 一级a做爰片在线看免播放器网站青岛建设网站公司
  • 云相册网站怎么做中铁建设集团内网登录
  • 网站建设电脑大多怎么办自己写的html放入wordpress
  • 网站建设环境软件有哪些商丘做网站用什么程序
  • 建站快车加盟重庆建设网站哪个好
  • 档案网站建设经验网站建设基本问题
  • 南宁网站建设蓝云哪个网站可以看一级a做爰片t
  • 网站开发工作时间长沙如何优化排名
  • 东莞好的网站建设公司网站有限公司免费
  • 河南城源建设工程有限公司网站wordpress 文章自定义
  • 青岛谁做网站多少钱精准推广引流5000客源
  • 网站内容的设计群晖系统可以做网站吗
  • 网站开发怎么拉客户浙江银安建设有限公司网站
  • 网络最火游戏排行榜百度免费优化
  • 石家庄网站建设石家庄在WordPress
  • 商城网站前期推广校园网站建设的用处
  • 用me做后缀的网站游戏怎么开发
  • wordpress主题栏是什么意思seo排名优化课程
  • 三亚官方网站建设手机wordpress怎么保存图片
  • 北京网站建站台州律师网站建设
  • 哪些网站可以做招商广告没有域名的网站
  • 程序员帮忙做放贷网站苏州保洁公司招聘保洁区域经理
  • 绵阳网站开发做视频解析网站犯法吗
  • h5自响应式网站模版门户网站建设的报价
  • 南昌市建设工程质量监督站网站wordpress首页不显示页面
  • 澄海网站建设部署个人网站