bc贷

搜索 猫眼电影 融媒体矩阵
  • 山东手机报

  • 猫眼电影

  • 大众网官方微信

  • 大众网官方微博

  • 抖音

  • 人民号

  • 全国党媒平台

  • 央视频

  • 百家号

  • 快手

  • 头条号

  • 哔哩哔哩

首页 >新闻 >社会新闻

谢赛宁等新作上线,多模态理解生成大一统!思路竟与GPT-4o相似?

2025-04-14 14:45:58
来源:

猫眼电影

作者:

蒙汉

手机查看

  猫眼电影记者 白海 报道y85ouztigy6ysf5y

新智元报道

编辑:编辑部 HXZ

【新智元导读】来自Meta和NYU的团队,刚刚提出了一种MetaQuery新方法,让多模态模型瞬间解锁多模态生成能力!令人惊讶的是,这种方法竟然如此简单,就实现了曾被认为需要MLLM微调才能具备的能力。

现在的大模型都有一个「理想」,那就是将各种模态大一统,一个模型就能生文、生图、生视频,可以称之为「全干模型」!

GPT-4o发布了自己原生的多模态绘图能力着实火了一把,OpenAI还给模型起了一个新的名字「全能模型」。

统一的多模态模型旨在整合理解(文本输出)和生成(像素输出),但在单个架构内校准这些不同的模态通常需要复杂的训练方案和仔细的数据平衡。

在刚刚发布的一项研究中,来自Meta和纽约大学的研究人员探索了一种简单但尚未得到充分探索的、用于统一多模态建模的替代方法。

论文地址:https://arxiv.org/pdf/2504.06256

项目主页:https://xichenpan.com/metaquery/

新的方法MetaQuery桥接了冻结的(Frozen)多模态大语言模型(MLLM)骨干和扩散模型(DiT)。

实验表明,MetaQuerie实现了所有曾被认为需要MLLM微调才能具备的能力,同时其训练过程也更为简便。

简而言之就是,具备理解能力的MLLM可以直接和负责生成图片的DiT进行SOTA水平的多模态生成。

文本到图像生成

一个巨大的人形,由蓬松的蓝色棉花糖制成,踩在地上,咆哮着冲向天空,身后是湛蓝的天空

一个穿着裤子和夹克的生锈旧机器人在超市里骑滑雪板

一只亮蓝色鹦鹉的羽毛在灯光下闪闪发光,显示出它独特的羽毛和鲜艳的色彩

指令微调

同一个机器人,但在「我的世界」

同样一种车型,但在纽约

同一个碗蓝莓,但俯视图

推理和知识增强生成

最高的建筑主宰着这座被称为光之城的城市的天际线

新月之夜的夜空

这个在春季节日中备受赞颂的花,是寿司发源国所特有的

桥接MLLM与DiT,实现大一统

通常来说,创建一个「既要又要」的模型——既要最先进的多模态理解能力,同时又要强大的生成图像能力——有些困难。

目前的一些方案依赖于精细微调基础多模态大语言模型(MLLM)来处理理解和生成任务。

但这个过程涉及复杂的架构设计、数据/损失平衡、多个训练阶段以及其他复杂的训练方案,若不靠考虑这些,优化一种能力可能会损害另一种能力——「按下葫芦又起了瓢」。

如何有效地将自回归多模态大语言模型(MLLM)中的潜在世界知识转移到图像生成器中?

说来也简单,将生成任务交给扩散模型,将理解任务交给大语言模型——「让凯撒的归凯撒」。

换句话说,不是设法从头开始构建一个单体系统,而是专注于在专门针对不同输出模态的最先进的预训练模型之间有效地转移能力。

为了实现这一点,研究团队让MLLM冻结(Frozen),以便可以专注于它们最擅长的事情——理解,同时将图像生成委托给扩散模型。

即使在这种冻结条件下,只要有合适的架构桥梁,MLLM固有的世界知识、强大的推理能力和上下文学习能力确实可以转移到图像生成中。

这样的系统可以解锁协同能力,其中理解为生成提供信息,反之亦然。

戴着墨镜的英国短毛猫

MetaQuery将一组可学习的查询直接输入到冻结的MLLM中,以提取用于多模态生成的条件。

实验表明,即使没有进行微调或启用双向注意力,冻结的LLM也能充当强大的特征重采样器,为多模态生成产生高质量的条件。

使用MetaQueries训练统一模型仅需要少量图文对数据,即可将这些提示条件连接到任何条件扩散模型。

由于整个MLLM在理解方面保持不变,训练目标仍然是原始的去噪目标——就像微调扩散模型一样高效和稳定。

思路与GPT-4o原生生图相似

相比训练单个自回归Transformer骨干来联合建模的统一模型,MetaQuery选择使用token→Transformer→扩散→像素的范式。

这一思路,可能与同期的GPT-4o图像生成系统所体现的理念相似。

通过将MLLM的自回归先验与强大的扩散解码器相结合,MetaQuery直接利用冻结MLLM在建模压缩语义表示方面的强大能力,从而避免了直接生成像素这一更具挑战性的任务。

统一所有模态的前景并非止步于并行处理多模态理解和文本到图像的生成。

更深层次的协同作用值得期待——一种能够利用MLLM的高级能力(如推理、内部知识、多模态感知和上下文学习)来增强生成的能力。

比如生成一个和「9条命」相关的动物——通过推理,得出是九命的是猫妖

MetaQuery

概括来说就是,MetaQuery方法能够无损地为仅具理解能力的多模态大语言模型(MLLM)赋予多模态生成能力,同时保持其原始架构设计和参数不变。

架构

具体到架构层,研究人员首先使用随机初始化的可学习查询Q∈R^(N×D)来查询获取用于生成的条件C。其中,N是查询的数量,D是查询的维度(与MLLM的隐藏维度相同)。

为简单起见并保持兼容性,继续对整个序列使用因果掩码(causal masking),而不是专门为查询Q启用全注意力(full attention)。

然后将条件C输入一个可训练的连接器(trainable connector),从而与文本到图像扩散模型的输入空间对齐。

这些扩散模型可以是任意类型,只要它们具有条件输入接口即可。需要做的,就只是将模型的原始条件替换为生成的C。

虽然模型目前专注于图像生成任务,但也可轻松扩展至其他模态,如音频、视频、3D等。

设计选择

架构涉及两个核心设计选择:使用可学习查询(learnable queries)和保持MLLM骨干冻结(frozen)。

· 可学习查询

目前,很多模型会使用(M)LLM输入Token的最后一层嵌入(last layer embedding)作为图像生成条件。但这与统一建模中的许多期望任务并不兼容,如上下文学习或生成多模态、交错的输出。

而且,随机查询(random queries)虽然能产生不错的FID分数,但它们在提示词的对齐方面表现不佳。

如表1所示,仅使用N=64个Token的可学习查询,即可实现与这些模型相当的图像生成质量。当N=512个Token时,性能则直接超越了最后一层嵌入方法。

· 冻结 MLLM

现有的统一模型通过训练MLLM来联合建模p(文本, 像素),但这样会让训练过程更复杂,甚至会降低模型的理解性能。

相比之下,MetaQuery可在原始MLLM架构和参数不变的情况下,保留SOTA的理解能力。

如表2所示,虽然可调的参数显著更少,但冻结MLLM能够实现与MLLM全量微调相当的性能,其提示词对齐能力略低,但视觉质量略有提高。

训练方案

接下来,团队进一步研究了MetaQuery两个主要组件的关键训练选项:可学习查询(learnable queries)和连接器(connectors)。

· Token数量

如图2所示,对于文本到图像生成任务,视觉质量在64个Token后开始趋于收敛,而更多的Token能持续带来更好的提示词对齐效果。

对于长标注(long captions)来说,这一点更为明显,因为随着Token数量的增加,使用重写提示词(rewritten prompts)的GenEval分数增长得更快。

而对于图像重建任务,更多的Token则能持续提高重建图像的质量。

· 连接器设计

在这里,团队研究了两种不同的设计:编码器前投影(Projection Before Encoder, Proj-Enc)和编码器后投影(Projection After Encoder, Enc-Proj)。

Proj-Enc首先将条件投影到扩散解码器的输入维度,然后使用Transformer编码器来对齐条件

Enc-Proj首先使用Transformer编码器在与MLLM隐藏状态相同的维度上对齐条件,然后将条件投影到扩散解码器的输入维度

如表3所示,Enc-Proj比Proj-Enc实现了更好的性能,同时参数更少。

值得一提的是,研究人员使用的是与Qwen2.5相同的架构,并为连接器启用了双向注意力(bi-directional attention)。

模型训练

MetaQuery的训练分两个阶段:预训练和指令微调。

其中,每个训练阶段都保持MLLM冻结,并微调可学习查询、连接器和扩散模型。

MLLM骨干则有三种不同的规模:Base(LLaVAOneVision 0.5B)、Large(Qwen2.5-VL 3B)和X-Large(Qwen2.5-VL 7B)。

所有模型的Token数量都为N=256,并采用具有Enc-Proj架构的24层连接器。

· 预训练

研究人员在2500万个公开可用的图文对上对我们的模型进行了8个epoch的预训练,学习率为1e-4,全局批大小为4096。学习率遵循余弦衰减策略,并设有4000步的预热期,之后逐渐降低至1e-5。

· 指令微调

受MagicLens的启发,研究人员使用网络语料库中自然出现的图像对来构建指令微调数据。

这些语料库不仅包含丰富的多模态上下文,其中的图像对也展现出了更有意义的关联(从直接的视觉相似性到更微妙的语义联系),从而为指令微调提供了极好且多样化的监督信号。

接着,研究人员开发了一个数据构建流程,用于挖掘图像对并利用MLLM生成开放式指令来捕捉它们图像间的关系。

首先,从mmc4核心的人脸子集中收集分组图像,其中每张图像都附有图说。

然后,使用SigLIP聚类具有相似图说的图像。每组中,与其他图像平均相似度最低的图像被指定为目标图像,而其余图像则作为源图像。这个过程总共产生了240万个图像对。

最后,使用Qwen2.5-VL 3B为每对图像生成指令,描述如何将源图像变换为目标图像。

实验

图像理解与生成

如表4所示,这个模型家族在理解和生成任务上都展示了强大的能力。

得益于允许利用任意SOTA冻结MLLM的灵活训练方法,所有不同规模的模型在所有理解基准上都有着相当不错的表现。

在图像生成方面,MetaQuery在MJHQ-30K上实现了SOTA视觉质量,并在GenEval和DPG-Bench上与SOTA提示对齐结果非常接近。

鉴于MetaQuery使用冻结MLLM,就可以自然地连接任意数量的扩散模型。

由于基础的Sana-1.6B模型已经在美学数据上进行了微调,研究人员采用Stable Diffusion v1.5进行COCO FID评估。

结果表明,在将其适配到强大的MLLM后,可以获得改进的视觉质量。这也为所有基于Stable Diffusion v1.5的统一模型(包括MetaMorph和Emu)建立了新的SOTA COCO FID分数。

在提示词对齐方面,MetaQuery在GenEval上也取得了有竞争力的性能,击败了所有基于扩散模型的方法,包括Transfusion和JanusFlow。

此外,研究人员还发现MetaQuery实现了比Janus-Pro好得多的世界知识推理能力。

图像重建

如图6所示,MetaQuery可以在冻结MLLM的情况下轻松微调以执行图像重建任务。

其中,微调后的MetaQuery-B所生成的质量,与现有的最佳开源模型Emu2基本相当。

图像编辑

如图7所示,MetaQuery可以迁移其图像重建能力来执行图像编辑。

方法是保持MLLM骨干冻结,并在公开可用的图像编辑数据上仅对预训练的Base模型进行1000步微调。

定性结果表明,MetaQuery在这些图像编辑场景中表现有效。

指令微调

在240万数据集上进行指令微调后,MetaQuery可以实现令人印象深刻的零样本学习主体驱动生成性能,即使有多个高度定制化的主体也能生成连贯的结果(图8第一行)。

使用各种监督信号,经过指令微调的MetaQuery-B模型出人意料地解锁了超越复制粘贴的新颖能力,如视觉关联和标志设计(图8第二行)。

例如,在第一个案例中,模型识别出了输入的保时捷911汽车图像的具体型号,然后正确地为该型号生成了一个新颖的正面视图。

在第二个案例中,模型识别出洛克菲勒中心的输入图像,并构想出从洛克菲勒中心顶部的纽约市景观。

研究人员还遵循DreamBooth的方法,采用DINO、CLIP-I和CLIP-T分数在DreamBench数据集上对模型进行了定量评估。

如表5所示,MetaQuery-BInstruct模型达到了SOTA性能,优于像Kosmos-G这样为进行主体驱动生成而在构建的替换任务上明确训练的现有模型。

推理与知识增强生成

研究人员展示了可学习查询可以有效利用冻结LLM的能力。这使得模型能够更好地理解和遵循复杂提示词,包括那些需要世界知识和推理的提示词。

如图9所示,对于左侧的知识增强生成案例,MetaQuery-L可以利用来自冻结MLLM的世界知识并通过输入问题进行推理以生成正确答案。

对于来自CommonsenseT2I的右侧常识知识案例,LLM提供了更好的常识知识,并使MetaQuery能够生成与事实一致的图像。

为了定量评估MetaQuery的世界知识推理能力,研究人员采用了WISE基准,该基准包含与图9所示的知识增强生成示例类似的测试案例。

如表6所示,MetaQuery达到了SOTA性能,显著优于所有其他统一模型。

值得注意的是,在这项工作之前,现有的统一模型难以有效利用强大的MLLM进行推理和知识增强生成,导致其性能劣于文本到图像模型。

MetaQuery是第一个成功将冻结MLLM的先进能力迁移到图像生成,并超越SOTA文本到图像模型性能的统一模型。

研究人员还在表7中对CommonsenseT2I基准上的MetaQuery的常识推理能力进行了定量评估。

为简单起见,他们遵循其原始实现,使用CLIP作为评估器。结果显示,MetaQuery显著提高了基础Sana模型的性能,达到了SOTA性能。

如表8所示,研究人员测试了不同LLM骨干对MetaQuery的影响,包括预训练LLM(Qwen2.5-3B)、指令微调LLM(Qwen2.5-3B-Instruct)和指令微调MLLM(Qwen2.5-VL-3B-Instruct)。

实验结果表明,指令微调可以实现更好的(多模态)理解能力。但当用于提供多模态生成条件时,这些改进与图像生成性能是正交的。

最后一层嵌入方法本质上是将仅解码器的LLM视为文本编码器,这固有地限制了其上下文学习能力。

相比之下,MetaQuery与LLM原生集成,可以自然地利用上下文学习能力,使模型能够通过问题进行推理并生成适当的图像。

如表9所示,MetaQuery在WiScore和CommonsenseT2I基准上都显著优于最后一层嵌入方法。

结论

MetaQueries,一个可以链接MLLM和DiT的简单接口,即使在MLLM被冻结时依然有效。

这种方法非常简单,但很好地实现了最先进的能力和SOTA级别的生成能力。

通过实现模态之间的转换,MetaQueries成功地将MLLM的知识和推理能力引导至多模态图像生成中。

这个方法很有效,但想要弥合与领先的专有系统之间剩余的差距可能仍然需要进一步的数据扩展。

最终,MetaQueries能为未来的统一多模态模型开发提供一个强大、易于获取的基线。

作者介绍

Xichen Pan

Xichen Pan是纽约大学库朗特学院计算机科学系的二年级博士生,由谢赛宁教授指导。

曾在Meta GenAI Emu团队,微软亚洲研究院,阿里巴巴集团,以及地平线Horizon Robotics等实习。

在上海交通大学获得了计算机科学学士学位,并获得了最佳论文奖。

Ji Hou (侯骥)

侯骥是Meta GenAI的一名研究科学家,致力于基础模型。

在此之前侯骥是Meta Reality Labs中的XR Tech的一名研究科学家,专注于3D场景理解。

在加入Meta之前,侯骥在TUM 视觉计算组攻读博士学位,在那里从事计算机视觉和3D场景理解的研究。在博士期间,曾经在FAIR实习。

侯骥对图像/视频/3D生成模型的研究和应用感兴趣,以及3D计算机视觉,例如3D重建、VR/AR、机器人和自动驾驶等。

Saining Xie(谢赛宁)

谢赛宁是纽约大学库朗计算机科学系的助理教授,同时也是CILVR研究组的成员。此外,还隶属于纽约大学数据科学中心。

曾是Facebook AI Research(FAIR)门洛帕克研究所的研究科学家。在加州大学圣地亚哥分校计算机科学与工程系获得了博士和硕士学位,导师是Zhuowen Tu。

攻读博士期间,曾在NEC实验室、Adobe、Facebook、Google和DeepMind实习。在上海交通大学获得了本科学位。主要研究方向是计算机视觉和机器学习。

参考资料:

https://xichenpan.com/metaquery/

https://arxiv.org/abs/2504.06256

??时事1:精灵宝可梦狂桶沙奈朵的动漫

??04月14日,聚焦全球教师教育共同体建设 第五届全球教师教育峰会开幕,

  1、独学。就是独立地、自主地学习。这一环节是每节新课上课之前的学习,也是预习新课。由于初中科目和课程内容较多,同学们只有通过认真预习,才能在课堂中提出你预习中的问题、交流讨论学习的内容、展示(运用)新知识。因此,独学的要求是通过自主学习,掌握基础知识(语文的生字、词语);理解大概内容(各个学科不同);提出你不懂的地方;完成导学案的基础部分。学生根据导学案进行自学,次日进校各小组学科小组长收齐导学案上交科代表,由科代表上交任课教师批改,课前下发各学科组长间相互检查,根据完成情况进行预习打分。

,成人扒开🍑伸进🍌❌电。

??04月14日,北京力争到2027年新型储能产业营收超千亿元,

  2、自觉爱护校园内的'各种消防设施。如教室走廊通道的消防栓、灭火器等。消防设施是扑救火灾的重要工具,必须处于“常备不懈”的状态。一有火灾,马上能够投入使用。因此,我们平时不要随意玩弄、挪用消防器材,或将其改变用途。如果发现损坏消防设备的行为,应立即上前制止或老师。

,原神诺艾尔本子黄h,高清🔞❌♋免费网站,少妇人妻无套进入。

??时事2:正规成人🔞啪啪台漫

??04月14日,冲击世界杯之路延续 国足命运还在“自己脚下”,

平安信用卡逾期怎么跟银行协商解决协商要什材料?

,美女裸体㊙️光屁股视频,成人做爰A片免费看网站情欲电车,女被❌c🐻黄扒衣服洗澡。

??04月14日,朝鲜发布韩国无人机渗透进入平壤事件最终侦察结果,

  第三,注重规划全过程管理。要维护城市规划的严肃性和权威性,不符合城市规划的项目不得批准立项,未编制控制性规划的地块不得出让、转让和开发建设,任何项目不得突破红线和绿线。要积极推行规划公示和听证制度,使规划管理与服务更加公开透明,争取社会各界的理解和支持。在具体实施中,要把好 “四关”:一是论证关,对城市建设的总体风格、色调、每条街的街景、重大建设项目,都要邀请权威专家进行规划、设计,减少随意性;二是决策关,重大项目,要集体研究,集体讨论,集体决策,避免失误;三是审批关,严格执行审批制度,对暂不具备条件的建设项目,宁可空缺,也不勉强启动,以免留下历史的遗憾;四是建设关,所有建设项目,都必须符合城市景观设计和街景设计的要求,时刻彰显嘉荫“边陲江城”的特色。

,埃及猫原版动画,javbus,同桌扒开我腿用震蛋器折磨我微博。

??时事3:扒开黑土疯狂揉❌难受3d

??04月14日,【新思想引领新征程】数字中国绘就高质量发展新图景,

  “哧啦”

,630A❌❌╳❌女人毛片,黑土裸体被❌涩涩漫画,美女挤奶㊙️无遮挡网站。

??04月14日,河南通报涉企乱收费治理:罚没退金额逾1109万元,

  大风乍起,正是扬帆之时,我们正朝着院团委学生会全新一页的开启蓄势待发。

,火影18+黄化板,一女五夫好紧好爽H,格温r18本子上。

??时事4:巴西一级婬片A片AAA

??04月14日,《最忆船政》:多维体验剧演绎百年传奇,

  最后,预祝培训班取得圆满成功!祝大家学习愉快,工作进步!

,小🐔🐔伸进🈲1818,爽死你个放荡小婬妇打屁股教官,八重神子露双乳求调教。

??04月14日,大金砖合作引领全球南方大团结,

  “哧啦”

,动漫同人18❌漫画免费网站挤乳,美红轮轩的小说,铁粉空间网页版。

责编:陈治清

审核:段绪卿

责编:吴成翰

相关推荐 换一换

Copyright (C) 2001- Dzwww   鲁ICP备09023866号-1

Sitemap