文章预览
来源:PaperWeekly 本文 约3800字 ,建议阅读 9分钟 本文还对广泛的模型进行的评估揭示了显著的性能差距,突出了当前模型在复杂图像感知方面的缺陷,并强调了进一步提高的需求。 32 个标注者,29,429 条标注数据,图像平均分辨率 200✖️1500,当前最难最大的纯手工标注图像感知 benchmark 来了!现有模型没有一个在总分上取得 60% 以上的准确率。 论文链接: https://arxiv.org/abs/2408.13257 项目主页: https://mme-realworld.github.io/ 代码链接: https://github.com/yfzhang114/MME-RealWorld 01 主要发现 在真实世界任务上,Qwen2-vl 和 InternVL2 在中文感知和推理任务上表现明显好于闭源模型比如 Claude 3.5,国内用户可以首选这两个。 英文版二者的感知能力 Qwen2-vl > InternVL2 > 其他,但是推理还是闭源模型 Claude 3.5 更胜一筹。 闭源模型比如 Gpt-4o 对于高分图像的能力被高估了
………………………………