定期分享机器学习领域原创文章,公众号内容涵盖了机器学习算法和python数据分析等文章,目前监督学习方法的文章应有尽有,非监督学习的原创文章一直在更新,欢迎机器学习爱好者和从业者的加入,互相学习,共同成长。
今天看啥  ›  专栏  ›  机器学习算法那些事

最全的损失函数汇总

机器学习算法那些事  · 公众号  ·  · 2024-07-28 12:11

文章预览

作者:mingo_敏 编辑:深度学习自然语言处理 链接: https://blog.csdn.net/shanglianlm/article/details/85019768 tensorflow和pytorch很多都是相似的,这里以pytorch为例。 19种损失函数 1. L1范数损失 L1Loss 计算 output 和 target 之差的绝对值。 torch.nn.L1Loss(reduction= 'mean' ) 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。 2 均方误差损失 MSELoss 计算 output 和 target 之差的均方差。 torch.nn.MSELoss(reduction= 'mean' ) 参数: reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。 3 交叉熵损失 CrossEntropyLoss 当训练有 C 个类别的分类问题时很有效. 可选参数 weight 必须是一个1维 Tensor, 权重将被分配给各个类别. 对于不平衡的训练集非常有效。 在多分类任务中,经常采用 softmax 激活函数+交叉熵损失函数,因为交 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览