专栏名称: 我爱计算机视觉
关注计算机视觉与机器学习技术的最前沿,“有价值有深度”,分享开源技术与最新论文解读,传播CVML技术的业内最佳实践。www.52cv.net 微博:计算机视觉与机器学习,QQ群:928997753,52CV君个人账号:Your-Word。
今天看啥  ›  专栏  ›  我爱计算机视觉

字节、华师、华科联合提出TextSquare,8B参数量的文字多模态大模型指标逼近GPT4V

我爱计算机视觉  · 公众号  ·  · 2024-04-25 12:52
关注公众号,发现CV技术之美引言近期多模态大模型(MLLM)在文本中心的VQA领域取得了显著进展,尤其是多个闭源的例如GPT4V和Gemini,甚至在某些方面展现了超越人类的能力。但是开源模型的性能还远远落后于闭源模型,最近许多开创性的研究例如MonKey、LLaVAR、TG-Doc、ShareGPT4V等已开始关注指令微调数据不足的问题,尽管这些努力取得了显著的效果,但仍存在一些问题,图像描述数据和VQA数据属于不同的领域,图像内容呈现的粒度和范围存在不一致性。此外,合成数据的规模相对较小,使得MLLM无法充分发挥潜力。论文地址:https://arxiv.org/abs/2404.12803为了减少这一差距,来自字节跳动&华东师大&华中科大的研究员提出了一种新的策略,称为Square,即从先进的闭源MLLMs中获得大量高质量的以文本中心的VQA数据,并构建了一个千万级指令微调数据集(Square-10M) ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照