平方损失函数

曾经终败给现在 2024-04-17 21:34 165阅读 0赞

一、简介

损失函数是一个非负实数函数,用来量化模型预测和真实标签之间的差异。

其中,平方损失函数经常用在预测标签y为实数值的任务中,一般不适用于分类问题

平方损失函数公式,y为真实值,\\bar\{y\}为预测值:

J(\\theta)=\\frac\{1\}\{2\}(y-\\bar\{y\})^2 (1)

二、为什么回归问题中损失函数可以用平方形式?(平方损失函数的由来)

基础准备:

  • 正态分布 X\\sim N(\\mu ,\\sigma ^\{2\}) ,连续型随机变量X的概率密度为:
    f(x)=\\frac\{1\}\{\\sqrt\{2\\pi \\sigma \}\} e^\{-\\frac\{(x-\\mu )^\{2\}\}\{2 \\sigma^\{2\}\}\} (2)
  • 设总体X的概率密度为f(x,\\theta ),其中\\theta为未知参数,(x\_\{1\},x\_\{2\},...,x\_\{n\})是一次试验中所获得的样本观察值,则似然函数为
    L(\\theta ,x\_\{1\},x\_\{2\},\\cdot\\cdot\\cdot ,x\_\{n\})=\\prod\_\{n\}^\{j=1\}f(x\_\{j\},\\theta ) (3)

证明:

y为真实值,\\bar\{y\}为预测值,x为输入,\\epsilon为误差

则:

\\left\\\{\\begin\{matrix\} y^\{(i)\}-\\bar\{y^\{(i)\}\}=\\epsilon ^\{(i)\}\\\\ y^\{(i)\} = \\theta^Tx^\{(i)\} \\end\{matrix\}\\right.

整理可得:
y^\{(i)\} = \\theta^Tx^\{(i)\} + \\epsilon^\{(i)\}

假设\\epsilon^\{(i)\} \\thicksim \\mathcal\{N\}(0,\\sigma^2),分布是均值为0,方差为\\sigma^2的正态分布,那么根据公式(2)可得,的概率密度为:

f(\\epsilon^\{(i)\})=\\frac\{1\}\{\\sqrt\{2\\pi\}\\sigma\}\\mathrm\{exp\}\\biggl(-\\frac\{(\\epsilon^\{(i)\})^2\}\{2\\sigma^2\}\\biggl)

整理后等价于:

f(y^\{(i)\}|x^\{(i)\};\\theta)=\\frac\{1\}\{\\sqrt\{2\\pi\}\\sigma\}\\mathrm\{exp\}\\biggl(-\\frac\{(y^\{(i)\}-\\theta^Tx^\{(i)\})^2\}\{2\\sigma^2\}\\bigg)

根据似然函数的定义得:

\\begin\{align\*\} L(\\theta) &= \\prod\_\{i=1\}^nf(y^\{(i)\}|x^\{(i)\};\\theta) \\\\ &= \\prod\_\{i=1\}^n\\frac\{1\}\{\\sqrt\{2\\pi\}\\sigma\}\\mathrm\{exp\}\\biggl(-\\frac\{(y^\{(i)\}-\\theta^Tx^\{(i)\})^2\}\{2\\sigma^2\}\\biggr) \\end\{align\*\}

两边同取log,得:

\\begin\{align\*\} \\mathrm\{log\}L(\\theta) &=\\mathrm\{log\}\\prod\_\{i=1\}^n\\frac\{1\}\{\\sqrt\{2\\pi\}\\sigma\}\\mathrm\{exp\}\\bigg(-\\frac\{(y^\{(i)\}-\\theta^Tx^\{(i)\})^2\}\{2\\sigma^2\}\\bigg) \\\\&= \\sum\_\{i=1\}^n\\mathrm\{log\}\\frac\{1\}\{\\sqrt\{2\\pi\}\\sigma\}\\mathrm\{exp\}\\bigg(-\\frac\{(y^\{(i)\}-\\theta^Tx^\{(i)\})^2\}\{2\\sigma^2\}\\bigg) \\\\ &=-n\\mathrm\{log\}\{\\sqrt\{2\\pi\}\\sigma\}-\\frac\{1\}\{\\sigma^2\}\\cdot\\frac\{1\}\{2\}\\sum\_\{i=1\}^n(y^\{(i)\}-\\theta^Tx^\{(i)\})^2\\end\{align\*\}

为了让似然函数尽可能打,需要让 \\frac\{1\}\{2\}\\sum\_\{i=1\}^n(y^\{(i)\}-\\theta^Tx^\{(i)\})^2尽可能小,(其余部分都为定值);

也就等价于\\frac\{1\}\{2\}\\cdot(y-\\bar\{y\})^2最小化。

我们把这个函数称为损失函数J(\\theta ),在训练模型时,通过训练来找到使J(\\theta )最小的\\theta值。

发表评论

表情:
评论列表 (有 0 条评论,165人围观)

还没有评论,来说两句吧...

相关阅读

    相关 平方损失函数

    一、简介 **损失函数**是一个非负实数函数,**用来量化模型预测和真实标签之间的差异。** 其中,**平方损失函数**经常用在**预测标签y为实数值**的任务中,...

    相关 人工智能:损失函数(Loss Function)【平方损失(正态分布)、交叉熵损失(二项分布)、合页损失、对比损失】【衡量模型预测值和真实值的差异】【总体样本->值域分布律->似然函数->损失函数

    损失函数(Loss Function):是定义在单个样本上的,是指一个样本的误差。 代价函数(Cost Function):是定义在整个训练集上的,是所有样本误差的平均,也就

    相关 常见损失函数

    机器学习中的所有算法都依赖于最小化或最大化一个函数,称之为目标函数,最小化的这组函数被称为损失函数。损失函数是衡量预测模型预测期望结果表现的指标。寻找函数最小值的最常用方法是梯

    相关 常见损失函数

    机器学习中的所有算法都依赖于最小化或最大化一个函数,称之为目标函数,最小化的这组函数被称为损失函数。损失函数是衡量预测模型预测期望结果表现的指标。寻找函数最小值的最常用方法是梯

    相关 损失函数

    交叉熵损失函数 多分类的情况,[来源][Link 1] ![这里写图片描述][70] l1 loss l2 loss hinge loss [L

    相关 pytorch损失函数

    > 学习深度学习的过程中一直会遇到损失函数,均方损失函数、交叉熵损失函数、负对数似然损失函数 > 有些时候觉得有点不清晰,所以总结、梳理一下,加深自己的理解 MSELo

    相关 损失函数

    深度学习中常见的损失函数分为两种:分类损失和回归损失                   ![1603578-20190718102755224-1925395869.png