专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
目录
相关文章推荐
研之成理  ·  EPFL Sci. Adv. : ... ·  3 天前  
今天看啥  ›  专栏  ›  PaperWeekly

AAAI 2025 | UC Berkeley、阿里提出NMT,四行代码解决搜推任务中的目标冲突问题

PaperWeekly  · 公众号  · 科研  · 2025-01-05 23:48
    

主要观点总结

本文介绍了工业界中目标冲突问题的背景及常见解决方案,提出了一种被称为NMT的方法来解决多目标学习中的建模问题。NMT方法旨在解决高优先级目标不受破坏的前提下,最大化次有目标的效果。文章详细阐述了NMT方法的原理、实现过程以及实验验证。该方法包括两个阶段:首先优化高优先级任务,然后在高优先级任务的约束下优化低优先级任务。此外,文章还讨论了如何将该方法扩展到任意数量的任务,并提供了代码实现的部分内容。最后,文章鼓励个人或团队在PaperWeekly平台上分享原创内容,让知识真正流动起来。

关键观点总结

关键观点1: 工业界中的目标冲突问题

在工业界实际的搜广推系统中,一个模型通常需要兼顾多个目标,如CTR、相关性、商业化效率等。实践中发现,绝大多数目标之间都存在目标冲突的问题,多个目标之间往往不能兼得。

关键观点2: 多目标学习的常见解决方案

多目标学习策略(Multi-task Learning, MTL)是常见的解决方案,但在权重调整上存在问题,并且无法考虑到目标的优先级。

关键观点3: NMT方法的原理

NMT方法通过拉格朗日乘子法解决带约束的优化问题,不需要调整参数,就可以实现在高优先级目标不受破坏的前提下,最大化次有目标的效果。

关键观点4: NMT方法的实现过程

NMT方法分为两个阶段:优化主要任务,迭代优化剩余任务。该方法可以自然地扩展到任意数量的任务。

关键观点5: 分享原创内容鼓励

PaperWeekly鼓励个人或团队在其平台上分享原创内容,让知识真正流动起来。稿件基本要求包括原创性、清晰配图和无版权问题。


文章预览

©PaperWeekly 原创 · 作者 |  咕咕 背景:工业界中的目标冲突问题 在工业界实际的搜广推系统中,一个模型通常需要兼顾多个目标。例如,在通用搜索场景中,需要兼顾 CTR、相关性、商业化效率等目标;在电商推荐中,需要同时兼顾成交效率、丰富性等目标。 在实践中,我们发现,绝大多数目标之间或多或少都存在目标冲突的问题,多个目标之间往往不能兼得。例如,在电商推荐系统中,如果希望最大化成交效率,通常在丰富性上会有较大的损失。一个更常见的例子是广告收入和自然流量效率之间的矛盾,两者的此消彼长几乎存在于所有广告系统中。 常见的解决方案是一个多目标学习策略(Multi-task Learning, MTL),即在损失函数中,同时加入多个目标的 loss,并使用 loss 的权重来调整不同目标对模型带来的影响。然而,权重调整是一个费心费力的工 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览