关于损失函数的一些个人理解

刺骨的言语ヽ痛彻心扉 2022-04-18 02:47 355阅读 0赞

关于损失函数的一些个人理解

1、损失函数的定义:量化不同的错误到底有多坏

2、SVM损失函数

真实分类的得分要比其他分类的得分高出足够的安全边距,那么损失为0,也就是有足够的能力进行分类了,并且大于足够的阈值后,即能够正确分类了,算法就不管了不再继续了。

一开始用一些很小的随机值来初始化并在第一次迭代时损失函数等于C-1

(1)hinge损失(合页损失)是SVM损失函数的一种,对微小的错误并不在意,但出现很多错误就扩大错误,以纠正的更加正确。

(2)平方hinge损失函数,将错误的分类变得更加大,一点都不想要错误的分类。

3、softmax loss或交叉熵损失

一般用于softmax分类器或者多项式逻辑斯蒂回归

经过softmax后能够得到一个概率分布,softmax的输出向量S是一个概率分布(映射到(0,1)区间)

因为找到log(单调函数)的最大值相对简单,所以用log函数,加负号是因为loss函数是衡量坏的程度而不是好的程度。

并且softmax loss会将正确的分值推向无穷大,错误的推向无穷小,总是不断尝试提高正确的分值,降低错误的分值,使每一个数据点都越来越好,同时也增强了分类器的鲁棒性。

softmax loss公式如下:

SouthEast

Sj是softmax输出向量S的第j个值,表示这个样本属于第j个类的概率。

cross entropy loss的公式如下:

SouthEast 1

当cross entropy的输入P是softmax函数的输出时,cross entropy损失=softmax loss

也就是说:softmax函数的输出作为输入——>cross entropy loss =softmax loss.

并且在二分类中,用sigmoid将输入映射到(0,1)区间;而在多分类中用softmax将输入映射到(0,1)区间

发表评论

表情:
评论列表 (有 0 条评论,355人围观)

还没有评论,来说两句吧...

相关阅读

    相关 个人关于学习一些总结

    仅仅是个人学习过程中的一些感触而已 1. 技术更新迭代非常快,不能一味追新。更重要的是注重基础,把基础打牢。 2. 编程语言非常多,而且每次新语言都会有一些非常诱人的新特

    相关 关于 函数指针 一些理解

       对于函数指针之类的问题,很多人都是很怕的,虽然有时候用的并不是很多,但是还是讲一下自己的理解吧!    也有一个简单的原则就是:还记得有一部电视剧是《向左走向右走》么?