Bengio团队提出多模态新基准,直指Claude 3.5和GPT-4o弱点
作者:行情 •更新时间:2025-07-31 09:55:11•阅读 1052

AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
本文作者张天宇,就读于加拿大Mila人工智能研究所,师从图灵奖得主Yoshua Bengio教授。博士期间的主要工作聚焦于多模态、GFlowNet、多智能体强化学习、AI于气候变化的应用。目前已在ICML、ICLR、ICASSP等机器学习顶会发表论文。代表作为Large-scale Contrastive Language-Audio Pretraining with Feature Fusion and Keyword-to-Caption Augmentation (CLAP)。
想要达成通用人工智能 AGI 的终极目标,首先要达成的是 模型要能完**类所能轻松做到的任务。为了做到这一点,大模型开发的关键指导之一便是 如何让机器像人类一样思考和推理。诸如注意力机制和思维链(Chain-of-Thought)等技术正是由此产生的灵感。然而,可能很多人并没有意识到,很多对人类来说 很简单的认知任务也往往伴随着 非常复杂的推理过程。举个栗子,请大家试试根据下方的图片填补被遮挡的文字空白:
对大多数中文母语者而言,这个任务应该不难,相信大家不需要几秒钟就可以得到答案。但想从露出的部分文字推断完整文字仍然需要十分复杂的推理过程:当代神经科学研究表明,复原 被部分遮挡物体需要能进行高级决策的前额叶皮质的高度参与。
我们知道,当前的视觉语言模型(Vision-Language Models, VLM)可以非常精确地进行物体识别和文字识别。但是,当被遮挡的部分是文字;当模型的光学字符识别(OCR)失效;当仅有的关键信息只有被遮挡文字的几个像素,模型能够模拟人类的推理过程完成这一任务吗?
为此,来自图灵奖得主 Yoshua Bengio的团队提出了全新的视觉问答任务: 视觉字幕恢复(Visual Caption Restoration,VCR)。让我们借由这个任务对视觉语言模型的推理能力一探究竟: 当前的视觉语言模型距离人类的认知水平还有多长的路要走?
- 论文标题:VCR: Visual Caption Restoration
- 论文链接:arxiv.org/abs/2406.06462
- 代码仓库:github.com/tianyu-z/VCR (点击阅读原文即可直达,包含评用于模型评测和预训练的数据生成代码)
- Hugging Face 链接:huggingface.co/vcr-org
VCR 数据集简介
为了开发 VCR 任务,研究人员构建了一个 由图像 - 文字生成 VCR 合成图像的流程。在该流程中可以通过 控制遮住文字的白色矩形大小来改变图像中文本的可见性,从而 控制任务难度。
借由该数据生成流程,研究人员通过 维基百科的主图 - 介绍对生成了 VCR-wiki 数据集。对两种语言均设置 “ 简单” 和 “ 困难” 两个难度级别。其中:
- “简单” 难度 VCR 任务 能使得 OCR 模型失效;
- “困难” 难度 VCR 任务则 对每个被遮挡的文本只保留上下各 1-2 个像素的高度,但依然能让对应语言的使用者完成任务。
每种语言和难度中,测试集和验证集各有 5000 个样本,剩下的样本都在训练集中。
难度进一步提升后,人类 vs 模型
文章开头的例子对人类而言只是一个小挑战,不能很好地展示人类做这个任务的极限水平以及人类在解题的时候运用的思维和技巧。下面展示了一个 “困难” 难度的 VCR 任务样例。读者可以更专注地尝试自己填补下方被遮挡的文字空白。
人类是如何补全被部分遮挡的文字的?
教育学和认知科学中有一个概念叫做 元认知(meta-cognition)。在设计 AI 的时候,我们人类作为教师,可以通过 监控自己的思维过程当作参考来帮助作为模型的学生提高学习效率。因此,思考 “人类是如何完成 VCR 任务的” 可以对模型设计有指导意义。
下图展示了一种笔者对 VCR 任务的解题思路作为参考:
最开始看到图片时,心里只有一个模糊的猜测,在不断阅读图片获取新信息的过程中,逐步验证猜测。阅读完毕后,开始填空时,仍然没有停止通过信息的不同方面来相互对照,印证答案。当 “假设” 无法与其他信息保持一致时,就会推翻 “假设”,重新尝试新的假设。
人类评测结果
人类在 VCR 任务下的水平如何呢?下图中展示了母语者或各语言的流利使用者在英 / 中两种语言的简单 / 困难设定下的准确度:
现有模型结果
作者测试了 “全明星阵容”:Claude 3 Opus, Claude 3.5 Sonnet, Gemini 1.5 Pro, GPT-4o, GPT-4 Turbo, Qwen-VL-Max, Reka Core 以及一些目前性能最好的开源模型。
下图中展示了在 VCR-Wiki 中文的简单难度上各个模型的性能:
- 绝大多数模型目前都不能胜任这个任务;
- 绝大多数模型没有利用好图像信息,没有因为图像信息(VI)而提高准确率。
在中文的困难难度上,模型遇到了更大的麻烦。表现得最好的是 GPT-4o,但其只有 2.2% 的准确率。除了 CogVLM2-Chinese 和 Qwen-VL-Max,绝大多数模型的准确率都接近 0%。
可以观察到,在困难模式下, 原始模型很难在本问题上以显著的比例答对,更不用说接近人类了。
英文 VCR 评测结果
作者同样对目前最优的开源和闭源视觉 - 语言模型在英文 VCR-Wiki 上做了测试。在展示测试结果之前,请先看两个英文 VCR-Wiki 任务的样例:
英文简单样例:
英文困难样例:
文中展示的英文 VCR-Wiki 的测试结果如下:
在所测试的众多模型中, GPT-4o 是闭源模型中的效果最佳的,CogVLM2 是开源模型中表现最佳的。
一个很有趣的现象是加入了图片对 CogVLM2 来说有了明显的帮助(在困难模式下提升了 20.3%),而对于 GPT-4o 而言反而结果有下降。在中文测试中,也有相似的现象。笔者认为这是模型的结构所导致的。具体的细节,欢迎读者参阅 CogVLM 系列的论文以及代码。
另外,闭源模型普遍取得了比开源模型更优的结果,这可能归功于更优的训练策略或是更多的模型参数。但即使如此,模型依然在 “困难” 设定下遇到了很大的挑战。开源模型虽然可以部分完成 “简单” 设定,但在困难设定下,大多数开源模型都无法完成这个对人类而言十分简单的任务。
相关任务简介
VQA
视觉问答(Visual Question Answering, VQA)任务要求模型根据输入的图像和自然语言问题生成自由形式的回答。 由于没有唯一的标准答案,评估 VQA 具有很大的挑战性。传统的 VQA 方法主要集中于图像中可见元素的直接查询,而不涉及图像中嵌入的文本内容与整体图像上下文之间的复杂关系。
在一些文字在图片中信息占比比较大的 VQA 评测中,模型的视觉模块甚至可能完全不需要与语言模块对齐就可以胜任。此类流程为:图像输入给 OCR 视觉模块,OCR 视觉模块输出图像中的字符信息并以此为上下文输入给语言模块。这样就导致了 VQA 任务退化成了不需要图像信息的 QA 任务。原本比较不同的 VLM 需要的视觉模块对齐能力被忽视而 OCR 能力被重视。
OCR
光学字符识别(Optical Character Recognition, OCR)任务通常输入图像中的完整字符,并输出表示图像中字符的字符串文本,而无需考虑图像上下文。
预训练过 OCR 的模型能够从输入图像中提取嵌入的文本,即使这些文本是不完整或模糊的。然而, 随着文本组件模糊或被遮挡的程度增加,只利用可见部分恢复原始文本变得困难, OCR 方法在这种情况下效果有限。
可以看出,VQA 任务没有标准答案,评估模型回答的质量仍然是一个开放性问题。而 OCR 任务不需要通过上下文来完成,无法检验模型是否真的学会利用了上下文中的信息。
VCR 任务的不可替代性
视觉字幕恢复(Visual Caption Restoration, VCR)任务旨在恢复图像中被遮挡的文本,这一任务 在VQA 和 OCR 之间架起了桥梁。
- VCR 任务的独特挑战在于要求 模型在视觉和文本信息之间进行精确的对齐,这与 OCR 的简单文本提取任务形成鲜明对比。在 OCR 中,主要关注的是识别可见字符,而无需理解它们在图像叙事中的上下文相关性。相比之下,VCR 要求模型协同 利用可用的部分像素级文本提示和视觉上下文来准确地重建被遮挡的内容。这不仅测试了模型处理嵌入文本和视觉元素的能力,还考验了其保持内部一致性的能力, 类似于人类通过上下文和视觉线索进行理解和响应的认知过程。
- 与 VQA 不同, VCR 任务的问题有唯一的答案,这使得评估可以通过 准确度进行,使评测指标更加明确。
- 通过调整文本的遮盖比例,可以控制任务的难度,从而提供一个丰富的测试环境。
- 与 OCR 任务一样,VCR 任务也可以充当 VLM 的训练任务。作者开放了 transform 代码,可以生成任意给定图像 - 文字对的 VCR 任务图。
小结
本文提出的视觉字幕恢复(VCR)任务通过看似简单的字幕恢复任务巧妙地揭开了现有模型图像 - 文本对齐的局限性,以及模型与人类在高级认知任务上的推理能力差异。相信这一任务可以启发未来更加有效的 VLM 训练、评测和推理方法,进一步拉近多模态模型和人类认知能力的差距。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。