机器学习中常见的损失函数

  损失函数是机器学习中常用于优化模型的目标函数,无论是在分类问题,还是回归问题,都是通过损失函数最小化来求得我们的学习模型的。损失函数分为经验风险损失函数和结构风险损失函数。经验风险损失函数是指预测结果和实际结果的差别,结构风险损失函数是指经验风险损失函数加上正则项。通常表示为:

  

  θ*是我们通过损失函数最小化要求得的参数,一般都是通过梯度下降法来求得

1、0-1损失函数

  0-1损失函数的表达式如下,常见于感知机模型中,预测正确则损失为0,预测错误则损失为1:

  

2、绝对值损失函数

  

3、log对数损失函数  

  对数损失函数最常见的应用就是在逻辑回归中,其表达式如下:

  

4、平方损失函数

  平方损失函数常见于回归问题中,如线性回归,其表达式如下:

  

5、指数损失函数

  指数损失函数常见于Adaboost算法中,其表达式如下:

  

6、Hinge损失函数

  Hinge损失函数常见与SVM中,有点类似于0-1损失函数,不同的是对于分类错误的点,其损失值不再是固定值1,而是和样本点离超平面的距离有关。其表达式如下;

  

  其中l 是hinge函数,其标准形式如下:

  

  除此之外还有一些不怎么常见的损失函数,比如在GBDT中的Huber损失函数等

  

原文地址:https://www.cnblogs.com/jiangxinyang/p/9251196.html

时间: 2024-10-26 12:43:06

机器学习中常见的损失函数的相关文章

机器学习中常见的最优化算法

我们每个人都会在我们的生活或者工作中遇到各种各样的最优化问题,比如每个企业和个人都要考虑的一个问题"在一定成本下,如何使利润最大化"等.最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称.随着学习的深入,博主越来越发现最优化方法的重要性,学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解,比如我们现在学习的机器学习算法,大部分的机器学习算法的本质都是建立优化模型,通过最优化方法对目标函数(或损失函数)进行优

机器学习中常见的过拟合解决方法

在机器学习中,我们将模型在训练集上的误差称之为训练误差,又称之为经验误差,在新的数据集(比如测试集)上的误差称之为泛化误差,泛化误差也可以说是在模型在总体样本上的误差.对于一个好的模型应该是经验误差约等于泛化误差,也就是经验误差要收敛于泛化误差,根据霍夫丁不等式可知经验误差在一定条件下是可以收敛于泛化误差的. 当机器学习模型对训练集学习的太好的时候(再学习数据集的通性的时候,也学习了数据集上的特性,这些特性是会影响模型在新的数据集上的表达能力的,也就是泛化能力),此时表现为经验误差很小,当往往此

机器学习中常见优化方法汇总

http://www.scipy-lectures.org/advanced/mathematical_optimization/index.html#a-review-of-the-different-optimizers 机器学习中数学优化专门用于解决寻找一个函数的最小值的问题.这里的函数被称为cost function或者objective function,或者energy:损失函数或者目标函数. 更进一步,在机器学习优化中,我们并不依赖于被优化的函数的数学解析表达式,我们通过使用$sc

机器学习中目标函数、损失函数、代价函数之间的区别和联系

首先给出结论:损失函数和代价函数是同一个东西,目标函数是一个与他们相关但更广的概念,对于目标函数来说在有约束条件下的最小化就是损失函数(loss function) 举个例子解释一下:(图片来自Andrew Ng Machine Learning公开课视频) 上面三个图的函数依次为 , , .我们是想用这三个函数分别来拟合Price,Price的真实值记为 .我们给定 ,这三个函数都会输出一个 ,这个输出的 与真实值 可能是相同的,也可能是不同的,为了表示我们拟合的好坏,我们就用一个函数来度量拟

机器学习中常见的专业术语

模型(model):计算机层面的认知 学习算法(learning algorithm),从数据中产生模型的方法 数据集(data set):一组记录的合集 示例(instance):对于某个对象的描述 样本(sample):也叫示例 属性(attribute):对象的某方面表现或特征 特征(feature):同属性 属性值(attribute value):属性上的取值 属性空间(attribute space):属性张成的空间 样本空间/输入空间(samplespace):同属性空间 特征向量

(转)机器学习中的损失函数

损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好.损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分.模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子: 其中,前面的均值函数表示的是经验风险函数,L代表的是损失函数,后面的ΦΦ是正则化项(regularizer)或者叫惩罚项(penalty term),它可以是L1,也可以是L2,或

机器学习项目中常见的误区

http://blog.jobbole.com/86131/ 机器学习项目中常见的误区 2015/04/22 · IT技术 · 机器学习 分享到:7 2015 Oracle技术嘉年华 Java实现图片水印 学写一个字 前端性能优化-基础知识认知 本文由 伯乐在线 - ruan.answer 翻译,Daetalus 校稿.未经许可,禁止转载!英文出处:machinelearningmastery.欢迎加入翻译组. 在最近的一次报告中,Ben Hamner向我们介绍了他和他的同事在Kaggle比赛中

机器学习中的目标函数、损失函数、代价函数有什么区别?

作者:zzanswer链接:https://www.zhihu.com/question/52398145/answer/209358209来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 谢谢评论区 @阿萨姆 老师的建议,完善下答案: 首先给出结论:损失函数和代价函数是同一个东西,目标函数是一个与他们相关但更广的概念,对于目标函数来说在有约束条件下的最小化就是损失函数(loss function). 举个例子解释一下:(图片来自Andrew Ng Machine

机器学习中的Bias(偏差),Error(误差),和Variance(方差)有什么区别和联系?

原文:http://www.zhihu.com/question/27068705 机器学习中的Bias(偏差),Error(误差),和Variance(方差)有什么区别和联系?修改 最近在学习机器学习,在学到交叉验证的时候,有一块内容特别的让我困惑,Error可以理解为在测试数据上跑出来的不准确率 ,即为 (1-准确率). 在训练数据上面,我们可以进行交叉验证(Cross-Validation).一种方法叫做K-fold Cross Validation (K折交叉验证), K折交叉验证,初始