商城首页欢迎来到中国正版软件门户

您的位置:首页 > 业界资讯 >中科大等意外发现:大模型不看图也能正确回答视觉问题!

中科大等意外发现:大模型不看图也能正确回答视觉问题!

  发布于2024-12-24 阅读(0)

扫一扫,手机访问

想了解更多AIGC的内容:

请访问:51CTO AI.x社区

https://www.51cto.com/aigc/

大模型不看图,竟也能正确回答视觉问题?!

中科大、香港中文大学、上海AI Lab的研究团队团队意外发现了这一离奇现象。

他们首先看到了GPT-4V、GeminiPro、Qwen1.5-72B、Yi-VL-34B等大模型,不管是闭源还是开源,语言模型还是多模态,竟然只根据在多模态基准MMMU测试中的问题和选项文本,就能获得不错的成绩。

中科大等意外发现:大模型不看图也能正确回答视觉问题!

△蓝色表示能看到图的LVLMs,橘色和绿色分别表示只接收问题和选项文本的LLMs和LVLMs

(LLM:大语言模型;LVLMs:多模态大模型)

不知道的还以为是大模型的隐藏技能被发现了。

有网友发出灵魂拷问:我们评估多模态模型的方法正确吗?

中科大等意外发现:大模型不看图也能正确回答视觉问题!

这一结果也激起了研究者们的好奇,于是他们决定对此展开进一步探究。

大模型隐藏技能被发现?

针对现有的评估样本和评估过程,研究人员认为造成这种现象的两个主要问题。

第一,一些多模态评估样本缺少对视觉内容的依赖性。

这种问题反映了现有的benchmark中的不合理之处。这个问题包含了两种情况:

一种是有些评估样本的答案可以被蕴含在了题目和选项中从而免去了看图的必要。

比如会有这种问题,这个圆形土圈是什么形状?

中科大等意外发现:大模型不看图也能正确回答视觉问题!

另外一种则是有些评估样本可以直接被语言大模型利用嵌入的丰富世界知识进行解答而无需依赖图片。

比如下图中的问题:内布拉斯加州的首府是什么?

中科大等意外发现:大模型不看图也能正确回答视觉问题!

第二,现有评估过程未考虑语言和多模态大模型训练过程中的数据泄露问题。

LVLM通常由一个vision encoder,一个语言模型基座,以及一个视觉-语言连接件组成。而且现有的多模态benchmark中有大量的评估样本是从单模态的文本语料中转化过来的(比如从考试题目中转化而来)

因此如果大语言模型的训练数据中无意间泄露了多模态benchmark中转化不充分的评估样本,就会影响LVLMs之间的公平比较。

为了定量观察大语言模型中广泛存在的泄露现象,研究者们采用了22个大语言模型在6个公开benchmark上进行评估。

这些大语言模型包含了2个闭源模型(GPT4-Turbo以及GeminiPro)和20个大小、架构各异的开源模型(比如Qwen系列,LLaMA2系列,Baichuan系列,Mixtral-8x7B等),并且使用了2-shot推理策略来减少拒绝回答的情况以及对齐回答的格式。

中科大等意外发现:大模型不看图也能正确回答视觉问题!

结果看到,闭源模型GeminiPro和开源模型Qwen1.5-72B在极具挑战性的MMMU基准上可以分别取得42.7和42.4的惊人成绩,一度逼近GeminiPro-Vision (44.4),LLaVA-Next-34B (47.0)和Yi-VL-34B (43.2)等多模态模型在能看到图片情况下的表现。

进一步的,他们还定量观察多模态大模型在训练过程中的数据泄露情况:屏蔽了LVLM的图片输入从而只根据文本问题和选项来进行评估(标记为LVLM-text)。

中科大等意外发现:大模型不看图也能正确回答视觉问题!

可以看到,像Sphinx-X-MoE和Monkey-Chat经过多模态训练后在不看图的情况下相比原始大模型在MMMU基准上可以分别提升惊人的17.9和12.6,而它们即使进一步在看到图片的情况下也只能获得1.2和4.7的性能提升。

中科大等意外发现:大模型不看图也能正确回答视觉问题!

GPT-4在新基准上没有及格

为了解决上述问题从而进行更公平和准确的评估,研究者们设计了一个多模态评估基准MMStar——

包含了1,500个具有视觉依赖性的高质量评估样本,涵盖了样本均衡的粗略感知、精细感知,实例推理、逻辑推理、科学技术、数学这六个核心能力以及18个详细的能力维度。

中科大等意外发现:大模型不看图也能正确回答视觉问题!

伴随着MMStar benchmark,作者们还提出了multi-modal gain (MG)和 multi-modal leakage (ML)两个评估指标来反映出LVLMs在多模训练过程中的真实性能增益和数据泄露程度。

中科大等意外发现:大模型不看图也能正确回答视觉问题!

随后,为了检验所提出的MMStar质量,他们进行了三项评估。

1)用22个大语言模型只根据MMStar中的问题和选型进行了评估,结果显示,他们的表现都接近于随机选择,这表明MMStar在现有大模型训练语料中有着很少的数据泄露。

中科大等意外发现:大模型不看图也能正确回答视觉问题!

2)评估16个多模态模型在MMStar上的性能。

高分辨率设置下的GPT4V取得了57.1的最高平均性能(但还是没有及格)

开源模型中InternLM-Xcomposer2取得了平均性能为55.4的好成绩,LLaVA-Next在数学维度上的表现要略优于GPT4V和GeminiPro-Vision。

值得注意的是,没有多模态大模型能够在精细感知(FP),逻辑推理(LR),科学技术(ST)以及数学(MA)上及格。

中科大等意外发现:大模型不看图也能正确回答视觉问题!

3)用16个LVLMs在6个公开benchmark以及所提的MMStar上对MG和ML指标进行了广泛评估。

中科大等意外发现:大模型不看图也能正确回答视觉问题!

可以看到,而MMStar展示出了最少的平均数据泄漏程度。

研究团队相信,这种跨模型间的ML指标对社区之后检验新开发的多模态benchmarks也是有益的。

论文链接:https://arxiv.org/pdf/2403.20330.pdf
项目链接:https://mmstar-benchmark.github.io/

https://huggingface.co/datasets/Lin-Chen/MMStar

代码链接:https://github.com/MMStar-Benchmark/MMStar


想了解更多AIGC的内容:

请访问:51CTO AI.x社区

https://www.51cto.com/aigc/

本文转载于:https://www.51cto.com/article/785473.html 如有侵犯,请联系admin@zhengruan.com删除

最新发布

相关推荐

热门关注