专栏名称: 机器学习初学者
号主黄博Github全球排名前90,3.6万Star!致力于为初学者提供学习路线和基础资料,公众号可以当作随身小抄,文章很全,建议收藏!点击菜单可以进入学习!
今天看啥  ›  专栏  ›  机器学习初学者

【深度学习】语义分割中的 loss function 最全面汇总

机器学习初学者  · 公众号  ·  · 2024-09-01 12:00

文章预览

作者丨程序员阿德@知乎(已授权) 来源丨https://zhuanlan.zhihu.com/p/101773544 编辑丨极市平台 导读   本文总结了语义分割中的5个损失函数,详细介绍每个损失函数的使用场景以及特点。 目录: cross entropy loss weighted loss focal loss dice soft loss soft iou loss 总结 1、cross entropy loss 用于图像语义分割任务的最常用损失函数是像素级别的交叉熵损失,这种损失会逐个检查每个像素,将对每个像素类别的预测结果(概率分布向量)与我们的独热编码标签向量进行比较。 假设我们需要对每个像素的预测类别有5个,则预测的概率分布向量长度为5: 每个像素对应的损失函数为: 整个图像的损失就是对每个像素的损失求平均值。 特别注意的是, binary entropy loss 是针对类别只有两个的情况,简称 bce loss ,损失函数公式为: 2、weighted loss 由于交叉熵损失会分别评估每个像 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览