期望交叉熵过滤器(交叉熵损失函数计算参数)

2024-02-02 22:28:03 来源:高信仪器仪表网 作者:admin

本篇文章给大家谈谈期望交叉熵过滤器,以及交叉熵损失函数计算参数对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 今天给各位分享期望交叉熵过滤器的知识,其中也会对交叉熵损失函数计算参数进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

  1. Pytorch-交叉熵
  2. 解开“交叉熵”的神秘面纱
  3. [损失函数]——交叉熵

1、Pytorch-交叉熵

Pytorch中计算的交叉熵并不是采用 这种方式计算得到的,而是交叉熵的另外一种方式计算得到的: 它是交叉熵的另外一种方式。

pytorch中有计算交叉熵损失的接口,即 F.cross_entropy() ,不过该接口包含了Softmax函数、log函数、交叉熵损失函数。也就是说 F.cross_entropy() = F.softmax() torch.log() F.nnl_loss() 。

根据交叉熵的计算公式,loss的最终计算等式为: 运算结果和pytorch内置的交叉熵函数相同:结果为:除了 torch.nn.CrosEntropyLoss() 函数外还有一个计算交叉熵的函数 torch.nn.BCELoss() 。

函数作用:CrossEntropy 是交叉熵的意思,故而 CrossEntropyLoss 的作用是计算交叉熵。

2、解开“交叉熵”的神秘面纱

计算交叉熵,比之前的小了许多。交叉熵将模型的预测和正式分布下对应的标签进行比较。 随着预测的越来越准确,交叉熵的值越来越小 。如果预测完美,那么交叉熵变为0。所以交叉熵能够作为分类模型的损失函数。

3、[损失函数]——交叉熵

和pytorch的内置函数计算结果相同。 另外,需要注意的是, 当使用交叉熵作为损失函数的时候,标签不能为onehot形式,只能是一维的向量 ,例如,当batch size是5时,这一个batch的标签只能时[0,1,4,2,6]这样的形式。

说起交叉熵损失函数「Cross Entropy Loss」,脑海中立马浮现出它的公式: 我们已经对这个交叉熵函数非常熟悉,大多数情况下都是直接拿来使用就好。

交叉熵损失函数公式:假设X是一个离散型随机变量,其取值集合为X,概率分布函数为p(x)=Pr(X=x),x∈X。

交叉熵损失函数也称为对数损失或者logistic损失。当模型产生了预测值之后,将对类别的预测概率与真实值(由0或1组成)进行不比较,计算所产生的损失,然后基于此损失设置对数形式的惩罚项。

损失函数:一般而言,当一种信息出现概率更高的时候,表明它被传播得更广泛,或者说,被引用的程度更高。我们可以认为,从信息传播的角度来看,信息熵可以表示信息的价值。

到此,以上就是小编对于期望交叉熵过滤器的问题就介绍到这了,希望介绍关于期望交叉熵过滤器的3点解答对大家有用。

[免责声明]本文来源于网络,不代表本站立场,如转载内容涉及版权等问题,请联系邮箱:3801085100#qq.com,#换成@即可,我们会予以删除相关文章,保证您的权利。 转载请注明出处:http://www.gaoxin1718.com/article/4318.html

高信仪器仪表网APP,分享赚金币换豪礼

相关文章

  • 日榜
  • 周榜
  • 月榜