1000万上下文+2880亿参数的Llama4,却让DeepSeek们松了一口气
作者 | 王兆洋邮箱 | wangzhaoyang@pingwest.com
Llama4 来了。
4月5日,Meta发布了外界期待许久的Llama4系列开源模型,目前它包括Llama 4 Scout、Llama 4 Maverick和Llama 4 Behemoth。三种模型对应不同的使用需求,简单来说:
Llama 4 Scout是可以在单张H100上跑的多模态MoE模型,
Llama 4 Maverick是击败了GPT-4o 和 Gemini 2.0,比DeepSeek v3小但编码和推理能力匹配的“最佳模型”,
还有一个即将发布的、隐藏在后为所有Llama4系列提供能力的2880亿活跃参数“巨兽”模型Llama 4 Behemoth。
根据它官方发布的介绍,此次Llama4有几个重要的技术亮点。
MoE架构:此次是Llama首次采用混合专家架构,任务执行时仅激活部分参数(如Maverick总参数4000亿,活跃参数170亿),显著提升训练和推理效率。
多模态融合:早期融合(Early Fusion)策略统一处理文本、图像、视频,突破传统多模态模型的分阶段处理限制。
超长上下文:Scout支持1000万Token上下文窗口(约2000万字文本或20小时视频),通过iRoPE架构实现“短序列训练,长序列泛化”。
部署上,Scout支持单张H100 GPU运行(Int4量化后),Maverick需H100 DGX集群,Behemoth则夸张地使用了32000块GPU训练。
后训练策略:采用“轻量级SFT → 在线RL → 轻量级DPO”流程,减少对齐约束,增强模型探索能力。 引入“自我批判式数据筛选”,利用早期模型Check point检查点过滤低质量训练样本,提升最终性能。
由于Behemoth这个巨大参数的模型此次并没有正式发布,另外两个模型并没有太过让人震惊的突破——尤其在刷新评测榜单这件事已经没那么重要的今天,人们对Llama4的期待在于它的技术思路上是否有新玩意。
从目前官方给的说明来看,它自己总结的几个重要的创新在于:
原生多模态的预训练融合方法
Llama 4 模型设计为原生多模态,通过早期融合(early fusion)无缝整合文本和视觉标记到统一的模型主干中。早期融合是一大进步,使 Llama 能够联合预训练大量未标记的文本、图像和视频数据。Llama 还改进了 Llama 4 的视觉编码器——基于 MetaCLIP——但与冻结的 Llama 模型联合训练,以更好地和LLM结合。
优化MoE专家超参数设置的MetaP;
Llama 开发了一种新训练技术 MetaP,能够可靠设置关键模型超参数,如每层学习率和初始化规模。Llama 发现所选超参数在不同batch size、模型宽度、深度和训练token数中可以很好的匹配。Llama 4 通过在200种语言上预训练(包括超过100种每种超过10亿token的语言),总体的多语言训练token比 Llama 3 多10倍。
对注意力机制做改进,从而突破上下文能力的iRoPE架构;
Llama 4 架构的一个关键创新是使用了交错注意力层,且不使用位置嵌入(positional embeddings)。此外,我们还采用了推理时注意力温度缩放( inference time temperature scaling of attention)来增强长度和泛化。我们将这种架构称为 iRoPE 架构,其中“i”代表“交错”注意力层,突出了支持“无限”上下文长度的长期目标,“RoPE”则指在大多数层中使用的旋转位置嵌入。
SFT、RL和DPO使用搭配上的新配方
在 Llama 4 中,Llama 通过采用不同方法重构了后训练流程:轻量级监督微调(SFT) > 在线强化学习(RL) > 轻量级直接偏好优化(DPO)。关键经验是,SFT和DPO可能过度约束模型,限制在线RL阶段的探索,导致推理、编码和数学领域的次优准确性。 后训练一个拥有2万亿参数的模型也是一大挑战,需要 Llama 彻底改造配方,从数据规模开始。为最大化性能,Llama 不得不修剪95%的SFT数据(相比小型模型的50%),以实现质量和效率的必要关注。为2万亿参数模型扩展RL还需要 Llama 改造底层RL基础设施,因其规模前所未有。Llama 优化了MoE并行设计以提高速度,加快了迭代。Llama 开发了一个完全异步的在线RL训练框架,增强了灵活性。与牺牲计算内存以在内存中堆叠所有模型的现有分布式训练框架相比,Llama 的新基础设施支持将不同模型灵活分配到单独GPU上,根据计算速度平衡多个模型的资源。这一创新使训练效率比前几代提高了约10倍。
这些创新与大家对今天开源模型竞赛的预期相比,可能会略微让人失望。
原生多模态的做法基本依然是行业的常规操作——把其他模态与最强的语言模态在token层面上统一;MetaP背后强调的不同尺寸的高效转化,让人想到诸如面壁智能提出的“densing law”,如何在小一点的参数上做实验,预测出更大参数的表现;对注意力的改进也在过去几个月有诸多尝试,无论是月之暗面的MoBA,DeepSeek的NSA还是MiniMax-01对Lighting Attention的激进的融合,似乎Meta的尝试并没有比这些带来更彻底的效果;而在SFT,RL和DPO的“炼丹”上,也反而让DeepSeek R1的更纯粹的RL方法显得更简洁优雅。
与Llama过往作为开源执旗者时相比,通过开源给社区提供对抗闭源模型强大的新方法的意味少了很多,结合其他更彻底的开源模型公布的各种技术来快速交出一个作品来先跟上领先者的意味更强了。这次的模型与此前Llama2和Llama3发布时的影响完全不同,它不是碾压式领先的发布,也许之后的Behemoth才是主菜,这次只是开胃菜。但目前看来,Behemoth的最大亮点可能还是在它背后的算力资源,Meta表示,Behemoth使用FP8和32K GPU训练,实现了390 TFLOPs/GPU。
这些都在提示这一次Llama4发布的仓促。这次Llama在行业对推理模型需求爆炸,对很看重编程能力的AI Agent类产品兴趣浓厚的时候,没有先发布推理模型,而是继续通过做大底座模型来提高推理和编程能力。在通过Scout强调部署便利的同时,却又没有可以在本地运行的尺寸的模型。
整体看来,Llama4像是Meta先给自己一个“台阶”——在DeepSeek爆火之前,它坚持不用MoE架构,这次算是完成了纠错。
另外有意思的是,在模型发布后,行业里活跃的几家竞对也“讨论”起了它的发布时间——这次发布选择放在了周末。有人发现它在Github上最初提交的计划时间是周一,以至于不少人怀疑Meta是为了避免下周被某个更强模型的发布盖过风头。
有人猜测DeepSeek ,Qwen和DeepMind的更强模型都会在下周出现,而Llama4目前的实力已经无法与它们争夺注意力。
“在周六发布有一个好处,至少没人在当天会想截胡你。”Gemini团队活跃的研究者Logan Kilpatrick调侃道。千问的林俊旸则回复了一个“hahahah”。
在Llama3领先开源竞争的时候,你很难想象它的对手会如此戏虐地做出反应。
从领先变回追赶者,Meta AI看来有得忙了。
点个 “爱心”,再走吧
日本㊙️打白嫩光屁股全部
动漫把jiji❌进美女的屁屁
美女露出🐻让男生揉扑克热吻
伸进老师小内裤疯狂揉摸视频
奶奶av
国产精品无码AV亚洲欧美叫床
唐三被唐昊c
张柏芝殖器12图片
拳交孕妇亚洲人
扒开妲己❌狂揉❌难受小说
疯狂自慰爽www看片
13禁🍆🍑🔞❌❌❌游戏
www.ypppt.com
国产做受❌❌❌高潮日本
男的下面越大🌿女的越爽软件
日本奶头裸体酒店
扒开美女C❌狂揉❌免费
Fuck♥XXX♥kid
美女露出100%奶无遮挡
加qq聊骚号2024
ass美泬裸体pics
猎奇 重口 虐杀 血腥 肢解小说
饥渴丰满的少妇喷潮抽搐A片
白星公主为什么那么大
同桌把中指伸进了我的屁股眼男男
国产精品高潮❌❌❌应用
OnlyFans破解免费版
疯狂做受XXXX高潮A片
斗破苍穹之乱婬h雅妃
小舞被到爽流斗罗大陆
男男啪啪啪
免费看60分钟黄🌕视频不加载
爆乳张开腿情趣内衣A片
美国伦理〈白肉〉
三上悠亚AV精品成人免费播放
扩宫调教疼的大喊
玩胸的100种变态玩法
动漫同人18动漫免费
做受❌❌❌高潮97
成人版AcFun18禁
PORNO💋1000
中国美女裸体软件
千仞雪3D秘让男人桶爽网站
动漫美女被❌爆乳白丝网站
二次元裸体❌开腿漏肚子
亲孑伦XXXⅹinin-辊柳
女下部㊙️高清图片真人
🔞少妇❌❌❌cg搔首弄姿视频
可脱卸衣服并互动的三国游戏
唐舞麟被扒开内裤狠打屁股
班里没人了脱女同学内裤
帅小伙Gary
周妍希裸体㊙️无遮挡
美女露出㊙️胸奶头
1月电子厂全景沟厕
成人🔞在线观看免费网址
无套白嫩进入乌克兰美女
GIGA女战士系列AV资源站
A🔞W看🔴䏒🔞❌❌蓝莓
提瓦特调教乱婬h侵犯在线文
成人做爰黄✌片视频樱桃漫画
麻豆精品㊙️国产传媒MV男同
光屁股美女隐私㊙️跳舞
动漫被❌爽🔞巨乳视频
男妓跪趴把舌头伸进我的嘴巴
啊好痛嗯高潮了音频
果冻传媒视频❤国产精品
金卡戴珊性做爰视频
无尽❌裸体❌女同❌3D森林动漫
三个女儿都怀了爸爸的男主角是谁
猫咪成人
壮熊多毛裸体Gay自慰网站
我的爱妻我的父亲魏小冉小说
小舞脱了内裤打开腿让唐三吻
杰顿魔物娘
高清乱码🔞❌♋免费蘑菇动漫
范冰冰性XXXⅩ交XXXX
佐助强❌小樱禁欲视频
女人把㊙️扒开给女人爽的美片
5号房2021回放19j
spinking实践视频OTK
网友评论 查看所有评论>>