阿里8B模型拿下多页文档理解新SOTA,324个视觉token表示一页,缩减80%
mPLUG团队 投稿
量子位 | 公众号 QbitAI
高效多页文档理解,阿里通义实验室mPLUG团队拿下新SOTA。
最新多模态大模型 mPLUG-DocOwl 2 ,仅以324个视觉token表示单个文档图片,在多个多页文档问答Benchmark上超越此前SOTA结果。
并且在A100-80G单卡条件下,做到分辨率为1653x2339的文档图片一次性最多支持输入60页!
△ 单个A100-80G最多能支持文档图片(分辨率=1653x2339)的数量以及首包时间
mPLUG-DocOwl是利用多模态大模型进行OCR-free文档理解的一系列前沿探索工作。
-
DocOwl 1.0首次提出基于多模态大模型进行文档理解方面的多任务指令微调;
-
UReader首次提出利用切图的策略来处理高清文档图片,成为目前高清图片理解的主流方案;
-
DocOwl 1.5提出统一结构学习,将多个bechmark的开源效果提升超过10个点,成为多模态大模型在文档理解方面的主要对比基准。
随着文档图片的分辨率以及切图数量的不断增加,开源多模态大模型的文档理解性能有了显著提升,然而这也导致视觉特征在大模型解码时占用了过多的视觉token,造成了过高的显存占用以及过长的首包时间。
主流模型在编码时一般动辄需要上千视觉token,才能还原所有细节。这导致每张A100-80G只能塞7张左右的文档图,严重影响AI文档理解的效果和成本。
作为mPLUG-DocOwl系列的最新迭代,DocOwl 2在模型结构和训练策略上做出大胆创新:
-
在结构上,仅用324个视觉token表示每页高清文档图片,大幅节省显存、降低首包时间。
-
在训练上,采用三阶段训练框架,兼顾多页和单页文档问答效果,具备多页文字识别、多页文档结构解析以及带有相关页码的详细解释能力。
模型结构
文档图片相比一般图片之所以显著消耗更多视觉token,主要是为了编码图片中所有的文字信息。
考虑到目前所有的多模态大模型都会将视觉特征对齐到文本空间,且自然语言处理领域相关研究已经证明文本信息可以显著压缩并保留住绝大部分语义,作者认为高清文档图片的视觉token在和LLM对齐后同样可以进行较大程度的压缩同时保留住绝大部分布局信息和文字信息。
文档图片中,同一个布局区域的文字因为语义连贯,更容易进行归纳总结。 引入布局信息进行压缩指导可以降低压缩难度,减少信息丢失。
恰好,当一张高清文档图片降采样为低分辨率全局图后,文字信息丢失但是布局信息仍得以保留。
因此在只使用一个低分辨率视觉编码器的情况下,DocOwl 2提出在视觉文本对齐之后增加一个High-resolution DocCompressor,其使用低分辨率的全局图作为压缩指导,使用切图的高分辨率特征作为压缩对象,仅通过两层cross attention,将切图的高分辨率特征压缩为324个token。
△ 图2: DocOwl 2模型结构图
DocOwl 2整体延续了DocOwl 1.5的结构,主要包括高分辨率视觉编码,高分辨率压缩以及语言模型多模态理解三个部分。
对于一篇多页文档,每一页会独立进行高分辨率视觉编码和高分辨率压缩。
具体来说,每一页文档图片会采用Shape-adaptive Cropping模块在考虑形状和大小的情况下找到一个做合适的切割方式进行切片,同时将原图放缩为一个低分辨率全局图。随后每个切片和全局图会单独经过ViT提取视觉特征特征,以及H-Reducer水平合并4个特征并将纬度对齐到LLM。之后,DocOwl2会采用High-resolution DocCompressor对视觉特征进行压缩。
低分辨率的全局图片特征作为压缩指导(query),以高分辨率切片特征作为压缩对象(key/value),DocCompressor由两层cross-attention layer组成。
考虑到切片过程中布局信息被破坏,多个切片的特征图首先会按照切片在原图中位置进行拼接重组。由于低分辨率全局图片的每一个特征只编码了部分区域的布局信息,如果让每个低分辨率特征都关注所有高分辨率特征不仅增加压缩难度,而且大大增加了计算复杂度。
因此,针对全局图的每一个视觉特征,根据其在原图中的相对位置,从重组后的切片特征中可以挑选出同一位置的一组高清特征,其数量和切片的数量一致,并可能来自多个切片。
经过压缩后,任意形状的文档图片的token数量都等同于低分辨率全局图的token数量。DocOwl2的单个切片以及全局图片都采用了504x504的分辨率,因此,最终单个文档图片的token数量为(504x504)/(14x14)/4=324个。
DocCompressor添加在已有多模态大模型的对齐结构之后,并不需要对其他结构做修改,这篇工作中,作者以DocOwl 1.5作为主要结构,但理论上,其适用于目前所有的高分辨率多模态大模型,例如InternVL2或Qwen2-VL。
模型训练:单页多页分开预训练
DocOwl 2的训练由三个过程组成:单页预训练,多页预训练,以及多任务指令微调。
单页预训练 采用了DocOwl 1.5的单图结构化解析数据DocStruct4M,包括文档解析、表格解析、Chart解析、以及自然图场景文本解析等,主要目的在于保证压缩之后的视觉token仍然能还原出图片中的文字和布局信息。
多页预训练 添加了Multi-page Text Parsing任务和Multi-page Text Lookup两个任务。前者对于多页文档图,给定1-2页的页码,要求模型解析出其中的文字内容;后者则给定文字内容,要求模型给出文字所在的页码。多页预训练的目标主要在于增加模型对于多页输入的解析能力以及区分能力。
经过两轮预训练之后,作者整合并构建了 单页文档理解和多页文档理解的问答数据进行联合指令微调 ,既包含简洁回复,也包含给出页码依据的详细推理。同时,任务形式既有围绕某几页的自由问答,也有整体文档结构的解析。
DocOwl 2的训练数据如下图所示:
实验结果
在多页文档理解benchmark上,相比近期提出的同时具备多图能力和文档理解能力的模型,DocOwl 2在以显著更少的视觉token、更快的首包时间达到了多页文档理解的SOTA效果。
在单页文档理解任务上,相比相似训练数据和模型结构的DocOwl 1.5,DocOwl 2缩减了超过80%的视觉token且维持了绝大部分性能,尤其在最常评测的文档数据集DocVQA上只有2%的微弱下降。
即使相比当下最优的MLLM,DocOwl2也在常见的文档数据集DocVQA,图表数据集ChartQA以及场景文本数据集TextVQA上以更少的token和更快的首包时间的前提下达到了>80%的性能。
从样例中可以看出,对于A4大小的文档图片,即使只用324个token编码,DocOwl2依然能够清晰的识别图片中的文字,或根据文字准确定位到具体的页码。
△ 图3: 多页文字解析
△ 图4: 多页文字查找
除了解析文本,DocOwl 2对于多页文档的层级结构也能用json的格式表示出来
△ 图5: 文档结构解析
对于文档问答,DocOwl 2不仅能给出答案,还能给出详细的解释以及相关的页码。
因为具备多图理解能力,DocOwl 2也能理解文字丰富的新闻视频,同时给出答案所在的帧。
总结:
mPLUG-DocOwl 2聚焦多页文档理解,兼顾效果和效率,在大幅缩减单页视觉token的前提下实现了多页文档理解的SOTA效果。
仅用324个token表示文档图片也能还原出图片的文字信息和布局信息,验证了当下多模态大模型几千的文档图片视觉表征存在较大的token冗余和资源的浪费。
mPLUG团队会持续优化DocOwl并进行开源,同时希望DocOwl 2能抛砖引玉,让更多的研究人员关注到多模态大模型对于高清文档图片的冗余编码问题,欢迎大家持续关注和友好讨论!
论文:
https://arxiv.org/abs/2409.03420
代码:
https://github.com/X-PLUG/mPLUG-DocOwl
— 完 —
量子位年度AI主题策划 正在征集中!
欢迎投稿专题 一千零一个AI应 用 , 365行AI落地方案
或与我们分享你在 寻找的AI产品 ,或发现的 AI新动向
点这里 ???? 关注我,记得标星哦~