文章预览
本文 约3000字 ,建议阅读 6 分钟 来自华为和清华的研究者率让多模态生成的内容个性化。 Stable Diffusion、Midjourney 和 Sora 等文生图/视频模型获得惊人的效果,但他们对于不同的人生成的结果都一样,不具备个性化。下面这篇论文中,来自华为和清华的研究者率先让多模态生成的内容个性化,使生成的内容更懂用户,更具吸引力。 论文标题: PMG: Personalized Multimodal Generation with Large Language Models 收录会议: ACM Web Conference 2024 论文链接: https://arxiv.org/abs/2404.08677 代码链接: https://github.com/mindspore-lab/models/tree/master/research/huawei-noah/PMG 个性化生成指的是将用户的偏好作为依据进行生成,让用户更容易对生成的内容产生兴趣。图 1 展示了其在聊天软件中的应用场景,当用户输入“很好玩!”时,聊天软件能够捕捉用户开心、快乐的情绪,并自动生成笑脸表情
………………………………