专栏名称: AI有道
一个有情怀、有良心的公众号。AI领域机器学习、深度学习等知识集中营,干货满满。期待与你共同进步!
今天看啥  ›  专栏  ›  AI有道

吴恩达团队新作!

AI有道  · 公众号  ·  · 2024-08-07 10:54

文章预览

来源 | 机器之心 本研究评估了先进多模态基础模型在 10 个数据集上的多样本上下文学习,揭示了持续的性能提升。批量查询显著降低了每个示例的延迟和推理成本而不牺牲性能。这些发现表明: 利用大量演示示例可以快速适应新任务和新领域,而无需传统的微调 。 论文地址:https://arxiv.org/abs/2405.09798 代码地址:https://github.com/stanfordmlgroup/ManyICL 背景介绍 在近期的多模态基础模型(Multimodal Foundation Model)研究中,上下文学习(In-Context Learning, ICL)已被证明是提高模型性能的有效方法之一。 然而,受限于基础模型的上下文长度,尤其是对于需要大量视觉 token 来表示图片的多模态基础模型,已有的相关研究只局限于在上下文中提供少量样本。 令人激动的是,最新的技术进步大大增加了模型的上下文长度,这为探索使用更多示例进行上下文学习提供了 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览