文章预览
导读 密歇根大学和南加州大学学者提出了一个多模态模型无关的元学习框架(Multimodal Model-Agnostic Meta-Learning,MMAML),该框架同时利用基于模型的元学习方法和模型无关的元学习方法,能够根据识别的模式调整其元学习先验参数,从而实现更高效的快速自适应。 作者 | Risto Vuoria et al. 编译 | Xiaowen https://papers.nips.cc/paper/8296-multimodal-model-agnostic-meta-learning-via-task-aware-modulation.pdf 【论文回顾】 模型无关的元学习者的目标是从相似的任务中获取元学习的参数,在很少的梯度更新后适应相同分布的新任务。由于模型选择的灵活性,这些框架在各种领域(如少样本图像分类和强化学习)显示了诱人的性能。然而,这些框架的一个重要限制是,它们寻求在整个任务分布中共享一个
………………………………