EPIC Lab团队 投稿量子位 | 公众号 QbitAI
首个用于加速扩散式大语言模子(diffusion-based Large Language Models, 简称 dLLMs)推理历程的免训练要领。
上海交通大学EPIC Lab团队提出了一种无需训练、即插即用的高效推理缓存机制:dLLM-Cache。
其焦点头脑在于,在一个多步去噪历程中,复用相邻时间步上转变较小的特征,仅更新那些转变较大的特征,从而实现了盘算量的大幅降低,并坚持了原有的天生质量。
图1 差别dLLMs使用dLLM–Cache和不使用dLLM–Cache在速率和质量上的比照
dLLM-Cache具有几个主要的亮点:
1. 训练无关,即插即用。dLLM-Cache完全在推理历程中事情,无需修改模子参数或重训练。dLLM-Cache可以在完全不损失模子输出质量的条件下,带来最高9.1倍的推理速率提升 。
2.通用于主流dLLM架构,如LLaDA、Dream以及LLaDA-V、MMaDA、Dimple等多模态模子。
3. 在推理历程中,首次识别出了prompt部分的Transformer中心层特征(Key、Value、Attention output、FFN output)恒久稳固,而response部分仅有一小部分tokens的特征转变较大,为缓存特征并后续复用提供了理论基础。
4. 独创了以V-verify机制为焦点的选择更新战略。以Value向量的转变为选择基准,乐成识别出了response部分转变较大的那些tokens,通过仅更新这些特征,摒弃了高达75%的冗余盘算。
本论文配合第一作者刘知远和杨奕存是哈尔滨工业大学2022级本科生,现在在上海交通大学EPIC Lab举行科研实习,师从张林峰助理教授,主要研究偏向为高效深度学习,此前曾在CVPR2025上收获满分论文。
接下来,我们一起来看看该研究的细节。
研究念头
基于扩散的大语言模子正成为语言天生领域最受关注的新范式之一。随着模子架构的生长、去噪算法的优化以及Masked Diffusion在语言建模中逐步展现出与自回归模子差别的建模能力,这类模子正在逐步成为挑战 GPT 等主流模子的主要实力。
以LLaDA、Dream为代表的扩散语言模子,基于迭代去噪的天生历程,不再依赖严酷的自回归因果结构,自然支持双向建模、全局依赖和反向推理等能力,已经在“逆转诅咒”、数学推理等使命上展现出领先性能。
然而,这种范式的优势也陪同着重大的价钱。为了确保天生的质量,dLLMs在推理历程中通常需要执行长达数百步的去噪迭代,每一步都需重新盘算attention、FFN等所有层的特征,盘算量相当于多次完整前向撒播。这为dLLMs的推理效率带来了严重的瓶颈,制约了着实际安排。更主要的是,主流的加速手段如用于自回归模子的KV Cache,由于不兼容双向注重力架构,在dLLMs中完全失效。
与古板的自回归语言模子差别,dLLMs不再依赖顺序天生下一个token,而是接纳随机遮蔽(mask) + 逐步还原的方法建模token漫衍,这种机制使得模子具备自然的双向建模能力,理论上能够更好地处置惩罚逆向逻辑、长距离依赖等使命。
LLaDA 等模子已经在多个基准使命中逾越主流ARMs,尤其在“逆转诅咒”上显着胜出。
然而,这种扩散式推理带来一个严重的挑战:为了确保天生质量,dLLMs通常需要上百步的去噪迭代,每一步都需全量盘算Attention、FFN等?,导致其推理速率相比ARMs慢一个数目级,落地本钱高。同时,ARMs 通用的加速要领如KV-Cache因dLLMs的双向注重力设计而无法兼容。这些造成了dLLMs在推理时既慢又缺乏加速手段的征象。这正是 dLLM-Cache所要破解的焦点问题。
要领简介
本文作者仔细研究了dLLMs推理的中心特征转变历程,发明如下要害征象:
图2 dLLM中两个相邻去噪办法之间的Key、Value、Attention Output和FFN Output的余弦相似度
Prompt tokens的特征在整个去噪历程中基本坚持稳固,每一步都重新盘算这些特征是完全不须要且铺张盘算资源的;
Response tokens大都转变很小,仅少部分转变强烈,全量盘算所有response tokens保存冗余。
由此,问题转化为了怎样高效识别出这些转变强烈的response tokens。
图3 Response tokens的K或V转变与其他特征转变的相关性
本文作者首创性得提出了V-verify机制。它的提出源于另一项主要的发明:作者量化了response tokens的底层特征(Key, Value向量)的转变与其上层重大特征(Attention Output, FFN Output)的转变之间的关系,效果显示它们保存着极强的正相关性,皮尔逊相关系数最高可达0.944。
这意味着,一个token底层的Value向量是否爆发转变,是其整体状态是否爆发改变的一个极佳的、且盘算本钱极低的“指示器”。
基于以上这些要害的视察,本文作者提出了dLLM-Cache ,详细的框架设计如下:
图4 dLLM-Cache要领整体pipeline
Prompt缓存:长距离重用
关于prompt部分,作者设计了长距离Prompt缓存,每隔Kp步(在实验中一样平常设置为100)更新一次prompt的Key、Value、Attention Output、FFN Output,其余办法所有复用先前效果。这样阻止了对稳固稳固的特征的重复盘算,大幅镌汰了盘算量
Response缓存:自顺应部分更新
对天生目的response区域,由于response tokens的特征并不是一直坚持稳固稳固的,作者设计了较短距离的Response缓存,每隔Kr步(在实验中一样平常设置为8左右)全量更新一次response的Key、Value、Attention Output、FFN Output,在其余的办法,作者提出了基于V-verify的自顺应缓存战略
在每个去噪办法,首先盘算所有response tokens最新的Value向量。然后,通过盘算新Value向量与缓存中旧Value向量的余弦相似度,将余弦相似度作为每个response tokens的一个“转变分”。选出“转变分”最高(即相似度最低)的少少数tokens(例如,转变最强烈的25%),将它们标记为“待更新” 。最后,模子只对这些被标记的“待更新”tokens,举行完整的特征重盘算。而其余75%的“稳固”tokens,则继续高效地从缓存中复用其特征
通过这种“长距离”与“自顺应”相连系的缓存战略,dLLM-Cache在Transformer的每一层都实现了盘算量的极致优化,且整个历程无需任何特殊训练,做到了真正的即插即用
3 实验效果
本文在 LLaDA 8B和Dream 7B两大代表性的开源dLLM的基础版与指令微调版上,针对数学与科学、通用使命、代码天生三大领域的8个主流基准测试,对dLLM-Cache的有用性举行了严苛的磨练 。评估维度不但包括推理速率(TPS)盘算效率(FLOPs),更焦点的是模子性能得分(Score),以确保加速不是以牺牲模子能力为价钱
本文在LLaDA 8B的基础版和指令微调版上都安排了dLLM-Cache,下图的实验效果充分展示了其强盛的加速能力和卓越的天生质量坚持。在险些所有的基准测试中,抵达了5倍以上的加速效果,且在绝大部分情形下,天生质量都没有降低,甚至有稍微的提升。特殊是扑面临LongBench使命时,prompt的稳固性带来了更显著的加速效果,在HotpotQA上实现了高达9.1倍的无损加速
图5 dLLM-Cache在LLaDA模子上的效果
为了进一步证实dLLM-Cache的通用性和鲁棒性,作者将其无缝迁徙至另一款架构略有差别的dLLM——Dream 7B上。下图的实验效果再次印证了dLLM-Cache要领的有用性,充辩白明晰其通用于主流dLLM架构
图6 dLLM-Cache在Dream模子上的效果
作者还将dLLM和主流的基于ARM的LLM举行了比照,下图展示了LLaDA 8B与LLaMA3 8B在GSM8K使命上的较量。效果显示,原始的LLaDA在准确率上以近20个点的重大优势领先于LLaMA3,但在推理速率上却远缺乏。然而,在使用了本文的dLLM-Cache之后,LLaDA的推理速率获得了凌驾3.3倍的提升,首次凌驾了LLaMA3的推理速率。这一效果有力地证实,本文提出的dLLM-Cache能够让dLLMs在坚持其显著准确率优势的同时,获得与ARMs相当竞争力的推理速率
图7 使用dLLM-Cache的dLLM vs 使用KV-Cache的ARM
论文链接: https://github.com/maomaocun/dLLM-cache/blob/main/asset/paper.pdf代码已开源: https://github.com/maomaocun/dLLM-Cache
《朴彩英被c到高潮下不了床网站》,《w3u7903ejky2ywls》掀开奶罩边躁狠狠躁
“国产传媒婬乱A片毛片午夜片视频”
灰原哀㊙️黄漫免费漫画
……
06月04日
“刘亦菲版极乐神教诸葛菲菲”点读机女孩MCN机构致歉
↓↓↓
06月04日,孙杨亮相2024年全国夏季游泳锦标赛,宋雨琦❌❌裸乳自慰,桃味cc改名后怎么没有了,唐舞桐被❌到高潮2天2夜,老婆~才一根手指就受不了了作文
06月04日,如何正确挑选、佩戴防霾口罩?,无码激情18🈲️激情视频,两个奶头被吃高潮受不了,男男Gay做受❌❌视频中国,国产午夜精AV在线麻豆四虎
06月04日,首届钱江源公路自行车赛收官,被和奸8犯的男人发疯的妻子武藤彩香在线观看了,雏田❌❌❌爆🈲🔞视频,神里绫华18同人禁网站,竹菊传媒一二三四软件介绍
06月04日|习近平:中国式现代化,必将为世界发展带来新的更大机遇|班长摘下奶罩🐻让我爽了|AV➕无码➕高潮➕在线下载老K|大胸美女洗澡㊙️免费看|温迪被钟离玩到失禁
06月04日|河南多地迎来2024年首场降雪|成人免费观看A片www下网魅影|欧成人精品H无码🔞|动漫爽❌又黄❌免费视频|赵今麦乳头无遮挡
06月04日|明中都宫殿院落与水系遗存考古获重要进展|免费体育生导管素材网站|卡尔蜜被扒开腿坐做❌|free性zoz0交体内谢nd视频|姐姐用脚给你设片……
06月04日,每12分钟发生一次3级余震 新疆记录到3级及以上余震76次,原神纳西妲裸体被❌涩涩动漫,成年18🈲网站免费进入夜色,亚洲成AV人电影在线观看,玉米地被多人伦系列H
06月04日,第十二届全国少数民族传统体育运动会上的西藏健儿 共赴体育盛会 唱响团结赞歌,邪恶天堂⭐️邪恶道全彩,老妇人泄欲x88AV,美女❌❌❌免费网视频,91久久人澡人人添人人爽乱
06月04日|肯尼亚政府顾问驳斥“债务陷阱论”:建议他们“多做功课”丨世界观|九幺成人㊙️免费网|荒野乱斗麦乐迪拔萝卜图片|女主人的痰奴屎人尿奴小说|美女裸体全身㊙️遮挡打屁股
06月04日,中方:菲方应立即停止冲闯中国南沙群岛和黄岩岛邻近海域,脱让摸视频动漫,成全免费高清在线观看第5季预告,长靴少妇X❌X❌XHD,脱👙让学生C🐻-百度免费
06月04日,“一会一赛”助“五一”假期成都文旅热度升温,官人我要免费观看正版,全黄裸体片西施,香奈乎❌乳喷自慰爽漫画,裸体3d未来初音被❌到爽Free
06月04日,司法部发布贯彻实施新修订的行政复议法典型案例,天堂jmcomicron.mic1.7.1,人獸交色情一区二区,日本❌❌❌❌69少妇,欧美18Ⅴdeσsex性欧美
06月04日|热带风暴“黛比”已致4人遇难 美国又一州进入紧急状态|柳智敏大胸被c呻吟|护士的馒头又大又圆怎么形容|越南小嫩嫩BBWBBw|斯嘉丽约翰逊三点尽露无打码
06月04日|“春之声·金梦想”跨国新春文艺晚会加德满都上演:中尼跨越雪山 携手迎春|欧美69XXⅩ性猛交A片李宗瑞|国产➕高潮➕白浆➕喷水下载|我帮妺妺洗澡忍不住c了她漫画|女仆 惩罚 拍击 打屁股网站
06月04日|四川:资中女足球员赴德国参加训练、比赛和人文交流|❤奇优版理论片在线观看|扒开furry狂揉❌难受软件|美女扒开腿❌裸体网站蘑菇视频|樱校变态房东🍑揉搓
想做饭的女人和想吃饭的女人,直到破坏了丈夫的家庭|(高质量发展调研行)安徽宿州:靶向发力助就业创业|被同桌扯下小内内玩弄双乳的动漫|灰原哀被扒开双腿抢❌|日本撩裙子拉屎㊙️|ben10同人❌黄漫下载
监制:邓金木
策划:赖晗
主创:唐征宇 林箴贺 陈佛烘 颜亦阳 陈林韵
编辑:王家菁、段圣祺