多模态模型免微调接入互联网,即插即用新框架,效果超闭源商用方案
李川皓 投稿
量子位 | 公众号 QbitAI
一个5月份完成训练的大模型,无法对《黑神话·悟空》游戏内容相关问题给出准确回答。
这是大模型的老毛病了。
因为《黑神话》8月才上市,训练数据里没有它的相关知识。
众所周知,大模型的训练和微调会消耗大量计算资源和时间,这意味着 频繁更新大模型的参数是不切实际的。
然而,现实世界中的信息是实时产生的且不断变化的。这使得大模型在完成训练后,对于后续新产生的信息感到陌生,所以无法提供准确可靠的反馈。
为此,上海人工智能实验室、北京理工大学、浙江大学、香港大学联合提出即插即用的 SearchLVLMs框架 ,可以无缝整合任意的多模态大模型。
该框架在推理阶段对大模型进行互联网检索增强,使得大模型无需微调即可对实时信息进行准确的反馈。
研究团队提出 首个辅助多模态大模型对实时信息进行反馈的开源检索增强框架SearchLVLMs 。
该框架主要包括查询生成、搜索引擎调用、分层过滤三个部分。
以视觉问答为例,该框架会基于问题和图片生成查询关键词,并调用搜索引擎查找相关信息,再由粗到细地对检索结果进行过滤,得到对回答该问题有帮助的信息。
这些信息会以prompt的形式在推理阶段提供给模型,以辅助回答。
同时,团队提出一个 数据生成框架UDK-VQA ,它可以自动生成依赖实时信息进行回答的视觉问答数据。
基于此框架,数据集可以完成动态更新,以保证测试数据的时效性。
目前已有UDK-VQA-240401-30、UDK-VQA-240816-20两个版本的数据集,涉及到的时间跨度分别是2024年4月1日-2024年4月31日和2024年8月16日-2024年9月5日。
研究者在超过15个开源、闭源模型上进行了实验,包括GPT-4o、Gemini 1.5 Pro、InternVL-1.5、LLaVA-1.6等。
在UDK-VQA数据集上的回答准确率,则配备了SearchLVLMs的SOTA LVLMs超过了自带互联网检索增强的GPT-4o模型35%。
开源框架SearchLVLMs
SearchLVLMs框架主要由三部分组成:
-
查询生成
-
搜索引擎调用
-
分层过滤
在查询生成阶段 ,需要对问题和图像进行充分地理解,以转化为适用于搜索引擎的文本查询。
对于问题而言,直接使用手工设计的prompt调用LLM得到问题查询词。
对于图像而言,调用必应视觉搜索得到包含该图像或与该图像相关的网页,提取这些网页的题目/快照的最长公共子串作为图像查询词。
在搜索引擎调用阶段 ,用户可以根据问题类型自主选择调用的搜索引擎类别。
比如:对于实时性较强的新闻相关问题,可以选择调用必应新闻搜索;对于常识性问题,可以选择调用必应通用搜索。
调用搜索引擎后会得到多个网页的题目、摘要和链接。
在分层过滤阶段 ,首先调用网页过滤器对得到的网页进行初筛,基于网页的题目和摘要对这些网页进行重排。
对于排序靠前的网页,使用爬虫获取网页的文本内容,每三句切分成一个片段,使用内容过滤器对这些片段进行重排。
对于排序靠前的片段,基于CLIP特征对它们进行聚类,选择离每个聚类中心的最近的片段,以避免内容重复片段对大模型预测带来的误导。
被选择的片段被直接拼接在一起,用于提示大模型。
其中,网页过滤器和内容过滤器是两个独立训练的LLaVA-1.5模型,作用是为网页/片段进行打分——网页/片段对于回答该问题的帮助程度。
为了训练这两个过滤器,也为了测试大模型对实时信息的反馈能力,研究团队进一步提出了一个数据生成框架——UDK-VQA,如下图所示。
五个步骤完成数据生成
UDK-VQA数据生成主要遵循五个步骤:
分别是查询搜集、问题生成、图像分配、伪标注生成、人为验证。
第一步,查询搜集。
查询搜集主要包括两方面,一方面是从谷歌每日搜索趋势上爬取热门搜索词,另一方面是人为搜集一些热门搜索词来对前者进行补充。
第二步,问题生成。
研究人员首先根据搜集到的搜索词调用搜索引擎得到相关的新闻,将新闻内容进行切分,得到多个内容片段。
然后要求GPT根据内容片段自问自答,得到<问题,答案>的集合。
在第三步图像分配阶段 ,团队会提取出问题中的实体,使用图片搜索引擎得到实体的图片,并将问题中的实体单词替换为其上分位词,与图片一起组成视觉问答样本。
第四步,伪标注生成。
为了训练网页过滤器和内容过滤器,需要对网页/片段进行打分。
对于一个视觉问答样本和一个网页/片段,研究者基于两个原则进行打分:
① 如果该样本是基于该网页/片段生成的,分数为1.0。
② 如果该样本不是基于该网页/片段生成的,使用5个开源模型在该网页/片段下尝试回答该样本,根据模型回答的正确率进行打分。
基于这样的伪标注方法,研究人员构造了~80w样本用于训练。
最后一步,人为验证。
构造测试集时,研究者对第3步得到的视觉问答样本进行了人为筛选,确保测试样本的正确性。
为了避免训练数据和测试数据需要参考相似的实时信息,在构造训练集和测试集时,研究过程中使用不同时间区间的谷歌每日搜索趋势来爬取热门搜索词。
下图中(a)、(b)、(c)分别展示了训练样本、测试样本和测试样本的分布。
基于数据生成框架UDK-VQA,很容易可以构造出需要实时信息进行回答的视觉问答样本。
研究团队声明会不断更新测试集,保证测试样本的时效性。
目前,研究人员已经构造了两个版本的测试集,分别涉及到2024年5月份和2024年9月份的信息。
实验结果与结论
SearchLVLMs框架团队在UDK-VQA上测试了15个现有的LVLMs,主要实验结果如下表所示。
其中,Raw表示模型的原始版本 (没有检索增强功能) 、Long-Context (LC) 表示将搜索引擎返回的网页爬取内容后,直接拼接起来提示模型,IAG表示使用了模型内嵌的互联网检索增强能力。
Gen.、Cham.和CLIP→FID (C→F)分别表示[1]、[2]和[3]中的方法。
从实验结果中可以有以下发现:
1、 接收长上下文输入可以一定程度上避免对搜索引擎的返回内容进行二次筛选 。
Gemini Pro 1.5 (LC) 的性能高于内嵌互联网检索增强的GPT-4V和GPT-4o,但是长上下文会引入额外的计算消耗,并引入一些不必要的信息对模型造成误导。
经过SearchLVLMs的分层过滤模型进行二次筛选还有,可以进一步提升模型性能。
2、 具备检索增强能力的闭源商用模型在性能上显著高于不具备检索增强能力的开源模型 。
GPT-4V和GPT-4o由于内嵌互联网检索增强模块,在准确率上大幅领先开源模型,如LLaVA-1.6和InternVL-1.5,差距约为20%~30%。
3、 SearchLVLMs框架可以整合任意的多模态大模型,并大幅度提高它们对于依赖实时信息的问题的回答能力。
无论是在闭源商用模型Gemini 1.5 Pro、GPT-4o、GPT-4V,还是开源SOTA模型LLaVA-1.6和InternVL-1.5上,SearchLVLMs均能带来超过50%的性能提升。
4、 SearchLVLMs带来的性能提升,远高于已有方法。
研究对比了检索增强方法Gen.、C→F和调用搜索引擎来辅助回答的框架Cham.,SearchLVLMs在应对实时信息检索任务时,表现出明显的优越性。
5、 使用SearchLVLMs整合开源模型,性能可以大幅超过内嵌互联网检索增强能力的闭源商用模型。
InternVL-1.5+SearchLVLMs的准确率为92.9%,远高于GPT-4o (IAG) 的57.8%。
这一发现表明,开源模型具有巨大的潜力,SearchLVLMs在性能、可定制性和透明度上具有显著的优势。
参考文献
[1] Yu et al. Generate rather than retrieve: Large language models are strong context generators. arXiv 2023.
[2] Lu et al. Chameleon: Plug-and-play compositional reasoning with large language models. NeurIPS 2023.
[3] Chen et al. Can pre-trained vision and language models answer visual information-seeking questions? EMNLP 2023.
文章链接: https://arxiv.org/abs/2405.14554
项目主页: https://nevermorelch.github.io/SearchLVLMs.github.io/
投稿请发邮件到:
ai@qbitai.com
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文/项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
点这里 ???? 关注我,记得标星哦~