猫眼电影
猫眼电影记者 哥哥杰森·亨特 报道y85ouztigy6ysf5y
作者 | 王兆洋邮箱 | wangzhaoyang@pingwest.com
Llama4 来了。
4月5日,Meta发布了外界期待许久的Llama4系列开源模型,目前它包括Llama 4 Scout、Llama 4 Maverick和Llama 4 Behemoth。三种模型对应不同的使用需求,简单来说:
Llama 4 Scout是可以在单张H100上跑的多模态MoE模型,
Llama 4 Maverick是击败了GPT-4o 和 Gemini 2.0,比DeepSeek v3小但编码和推理能力匹配的“最佳模型”,
还有一个即将发布的、隐藏在后为所有Llama4系列提供能力的2880亿活跃参数“巨兽”模型Llama 4 Behemoth。
根据它官方发布的介绍,此次Llama4有几个重要的技术亮点。
MoE架构:此次是Llama首次采用混合专家架构,任务执行时仅激活部分参数(如Maverick总参数4000亿,活跃参数170亿),显著提升训练和推理效率。
多模态融合:早期融合(Early Fusion)策略统一处理文本、图像、视频,突破传统多模态模型的分阶段处理限制。
超长上下文:Scout支持1000万Token上下文窗口(约2000万字文本或20小时视频),通过iRoPE架构实现“短序列训练,长序列泛化”。
部署上,Scout支持单张H100 GPU运行(Int4量化后),Maverick需H100 DGX集群,Behemoth则夸张地使用了32000块GPU训练。
后训练策略:采用“轻量级SFT → 在线RL → 轻量级DPO”流程,减少对齐约束,增强模型探索能力。 引入“自我批判式数据筛选”,利用早期模型Check point检查点过滤低质量训练样本,提升最终性能。
由于Behemoth这个巨大参数的模型此次并没有正式发布,另外两个模型并没有太过让人震惊的突破——尤其在刷新评测榜单这件事已经没那么重要的今天,人们对Llama4的期待在于它的技术思路上是否有新玩意。
从目前官方给的说明来看,它自己总结的几个重要的创新在于:
原生多模态的预训练融合方法
Llama 4 模型设计为原生多模态,通过早期融合(early fusion)无缝整合文本和视觉标记到统一的模型主干中。早期融合是一大进步,使 Llama 能够联合预训练大量未标记的文本、图像和视频数据。Llama 还改进了 Llama 4 的视觉编码器——基于 MetaCLIP——但与冻结的 Llama 模型联合训练,以更好地和LLM结合。
优化MoE专家超参数设置的MetaP;
Llama 开发了一种新训练技术 MetaP,能够可靠设置关键模型超参数,如每层学习率和初始化规模。Llama 发现所选超参数在不同batch size、模型宽度、深度和训练token数中可以很好的匹配。Llama 4 通过在200种语言上预训练(包括超过100种每种超过10亿token的语言),总体的多语言训练token比 Llama 3 多10倍。
对注意力机制做改进,从而突破上下文能力的iRoPE架构;
Llama 4 架构的一个关键创新是使用了交错注意力层,且不使用位置嵌入(positional embeddings)。此外,我们还采用了推理时注意力温度缩放( inference time temperature scaling of attention)来增强长度和泛化。我们将这种架构称为 iRoPE 架构,其中“i”代表“交错”注意力层,突出了支持“无限”上下文长度的长期目标,“RoPE”则指在大多数层中使用的旋转位置嵌入。
SFT、RL和DPO使用搭配上的新配方
在 Llama 4 中,Llama 通过采用不同方法重构了后训练流程:轻量级监督微调(SFT) > 在线强化学习(RL) > 轻量级直接偏好优化(DPO)。关键经验是,SFT和DPO可能过度约束模型,限制在线RL阶段的探索,导致推理、编码和数学领域的次优准确性。 后训练一个拥有2万亿参数的模型也是一大挑战,需要 Llama 彻底改造配方,从数据规模开始。为最大化性能,Llama 不得不修剪95%的SFT数据(相比小型模型的50%),以实现质量和效率的必要关注。为2万亿参数模型扩展RL还需要 Llama 改造底层RL基础设施,因其规模前所未有。Llama 优化了MoE并行设计以提高速度,加快了迭代。Llama 开发了一个完全异步的在线RL训练框架,增强了灵活性。与牺牲计算内存以在内存中堆叠所有模型的现有分布式训练框架相比,Llama 的新基础设施支持将不同模型灵活分配到单独GPU上,根据计算速度平衡多个模型的资源。这一创新使训练效率比前几代提高了约10倍。
这些创新与大家对今天开源模型竞赛的预期相比,可能会略微让人失望。
原生多模态的做法基本依然是行业的常规操作——把其他模态与最强的语言模态在token层面上统一;MetaP背后强调的不同尺寸的高效转化,让人想到诸如面壁智能提出的“densing law”,如何在小一点的参数上做实验,预测出更大参数的表现;对注意力的改进也在过去几个月有诸多尝试,无论是月之暗面的MoBA,DeepSeek的NSA还是MiniMax-01对Lighting Attention的激进的融合,似乎Meta的尝试并没有比这些带来更彻底的效果;而在SFT,RL和DPO的“炼丹”上,也反而让DeepSeek R1的更纯粹的RL方法显得更简洁优雅。
与Llama过往作为开源执旗者时相比,通过开源给社区提供对抗闭源模型强大的新方法的意味少了很多,结合其他更彻底的开源模型公布的各种技术来快速交出一个作品来先跟上领先者的意味更强了。这次的模型与此前Llama2和Llama3发布时的影响完全不同,它不是碾压式领先的发布,也许之后的Behemoth才是主菜,这次只是开胃菜。但目前看来,Behemoth的最大亮点可能还是在它背后的算力资源,Meta表示,Behemoth使用FP8和32K GPU训练,实现了390 TFLOPs/GPU。
这些都在提示这一次Llama4发布的仓促。这次Llama在行业对推理模型需求爆炸,对很看重编程能力的AI Agent类产品兴趣浓厚的时候,没有先发布推理模型,而是继续通过做大底座模型来提高推理和编程能力。在通过Scout强调部署便利的同时,却又没有可以在本地运行的尺寸的模型。
整体看来,Llama4像是Meta先给自己一个“台阶”——在DeepSeek爆火之前,它坚持不用MoE架构,这次算是完成了纠错。
另外有意思的是,在模型发布后,行业里活跃的几家竞对也“讨论”起了它的发布时间——这次发布选择放在了周末。有人发现它在Github上最初提交的计划时间是周一,以至于不少人怀疑Meta是为了避免下周被某个更强模型的发布盖过风头。
有人猜测DeepSeek ,Qwen和DeepMind的更强模型都会在下周出现,而Llama4目前的实力已经无法与它们争夺注意力。
“在周六发布有一个好处,至少没人在当天会想截胡你。”Gemini团队活跃的研究者Logan Kilpatrick调侃道。千问的林俊旸则回复了一个“hahahah”。
在Llama3领先开源竞争的时候,你很难想象它的对手会如此戏虐地做出反应。
从领先变回追赶者,Meta AI看来有得忙了。
点个 “爱心”,再走吧
??时事1:娜美被爆❌漫画歪歪漫画
??04月09日,韩国国防部召开全军指挥官会议 称将加强戒备,
“到底怎么回事?!”
,男人扒开男生㊙️桶到爽电影。??04月09日,珠江流域北江将发生特大洪水 水利部将洪水防御应急响应提升至Ⅲ级,
这是一轮银盘,神圣无比,像是有银色的火焰在燃,他站在中心,将其映衬的神圣而威严,宛若一尊小小的神祇。
,欧美禁18giantess缩小,大雷擦大狙软件免费视频大全,揉我胸⋯啊⋯嗯~下面出水。??时事2:被同桌c到高潮婬荡呻吟
??04月09日,(高质量发展调研行)“吃干榨净”一只果,何以致富一方人?,
二、提升履职水平,深入开展党的群众路线教育实践活动
,77v7vcc的图片,护士治疗男性功能障碍,鸣人❌女忍者18禁漫画视频。??04月09日,甘肃金昌热电材料助应用“洞见未来”,
一到夜晚,连仆人都不愿出门,不在庄子中走动。
,国内少妇人妻偷人精品免费视频,四川丰满肥嫩肥BBBBB,暗夜官网入口app下载安装。??时事3:在线观看无码精品㊙️非册
??04月09日,中国三部门公布房地产税收优惠政策,
“呀,不好,它开始攻击小不点了。”一群娃子中的二猛惊叫了起来。
,少年互摸ji出精,白光莹被C的合不拢腿H,胡桃与旅行者深入交流。??04月09日,八旬老人被噎倒地 浙江嘉兴老板娘“教科书级”施救,
20_年前,当时我们就是一群爱做梦的人,想打造自主的一个卡通品牌,凭着一股冲劲,一腔热血奋斗到今天,终于美梦成真。
,欧美❌❌❌sex性视频,砂狼白子爱疯狂❌喷水自慰,少萝自愿裸体❌❌㐅二次元。??时事4:佐助浴室憋尿被呜人揉
??04月09日,《美丽广东建设规划纲要(2024—2035年)》印发,
“子陵有话好说,有什么不能坐下来谈呢?”一位老者劝道。
,斯嘉丽裸被❌视频无码网站,男男做爰猛烈叫床XXXⅩ图片,裸体高中生开❌被躁流白❌。??04月09日,61名韩国青年友好使者访青 搭建友谊合作桥梁,
金条逾期三个月起诉吗,会怎么样
,长瀞同学本子资源,总裁拿戒尺扒了内裤打pp,性猛交AAAA片免费看蜜桃视频。责编:周三春
审核:胡金浩
责编:郑某华