M+框架来了,增添LLM隐空间影象,不再受上下文窗口限制
本文的第一作者Yu Wang来自加州大学圣地亚哥分校,主要研究偏向为Memory for LLMs and Memory for LLM Agents. 该论文于2024年在MIT-IBM Waston Lab实习历程中完成,通讯作者Zexue He也结业于加州大学圣地亚哥分校。
M+是在 MemoryLLM 之上提出的恒久隐空间影象扩展框架:通过把「逾期」隐藏向量写入CPU - 侧恒久影象池,再用协同检索器拉回最相关影象,它将 8 B 级模子的有用影象跨度从原本不到 20 k tokens 提升到 160 k tokens 以上,同时显存占用坚持稳固。
论文问题:M+: Extending MemoryLLM with Scalable Long-Term Memory论文链接:https://arxiv.org/abs/2502.00592代码客栈:https://github.com/wangyu-ustc/MemoryLLM开源模子:https://huggingface.co/YuWangX/mplus-8b
配景:上下文 ≠ 影象 & 现有影象模子的缺陷
上下文窗口并不可直接等价于影象。GPT-4.1 之类的模子即便支持 100 万 token,也会随窗口线性升高显存与延迟,难以落地外地安排。
业界主流做法是 “Token-Level Memory”:把历史内容或三元组保存数据库 / 向量库,检索后再拼接回 prompt;MemGPT等系统即属此类。该类做法不需要重复训练,直接连系 GPT-4 这样的大模子便可以获得很不错的性能,可是,它也会有一些随之而来的问题:(1)冗余:原始文本并非最紧凑表达,重复率高。(2)冲突难明:遇到相互矛盾或一直更新的信息时,文本级冲突消解重大。(3)多模态能力弱:由于数据库名堂为文本,处置惩罚音频或者图片,视频数据将相对难题。
因此,我们希望探索隐空间 (Latent-Space) 的 Memory -- 既压缩又可端到端训练,更靠近人类在神经激活中存储信息的方法。
M + 的要害刷新:Long-Term Memory
在 MemoryLLM 中,我们为 8B 的 Llama3 模子引入了约 1.67B 的 Memory。Llama3-8B 的 Transformer 共包括 32 层。当第一层吸收到词输入后,会通过 Embedding 层将词转化为一系列 4096 维的向量;谡庖惶氐,我们设计了 MemoryLLM,在每一层都加入 N 个 Memory Tokens(实验中 N=12800)。在天生历程中,这些 Memory Tokens 会作为每一层的 Prefix,通过 Cross-Attention 将信息注入后续层,使模子能 “看到” 生涯在 Memory Pool 中的历史信息。
在更新阶段,我们会将每层 Memory Token 中最后 K 个(实验中 K=256)与需要写入的信息一同送入 Transformer,再次经由 Cross-Attention,将信息压入新的 Memory Tokens 中(如下图所示)。与此同时,我们在原有 Memory 中随机扬弃 K 个旧 Token,并将新天生的 K 个 Token 放到 Memory 尾部,完成更新。
基于这样的设计,借助每层 12800 个 Memory Vectors,我们在 50k tokens 内都能坚持优异的信息留存(最早 MemoryLLM-7B 版本只做到 20k,后续在 GitHub 提供的新版模子 https://github.com/wangyu-ustc/MemoryLLM 可达 50k)。然而,这样的影象容量仍无法知足我们对更长序列的期待。要进一步扩展 Memory,单靠原有的 1.67B 容量已远远不敷,因此我们提出了Long-Term Memory。
怎样高效实现 Long-Term Memory?思量到 MemoryLLM 中每一个 Memory Token 实质上都来自 Hidden States,我们将那些在更新历程中被 “扬弃” 的 Memory Token 并非直接舍弃,而是将其生涯在恒久影象池中(如下图)。
仅仅生涯是不敷的,我们还需要具备强盛的提取能力。最初我们实验用 Attention 来从恒久影象中检索 Hidden States,但实验批注 Attention 在提取 Hidden States 时效果有限(在论文的消融实验中做了详尽比照)。因此我们提出协同提取器(Co-trained Retriever),并与全模子举行联合训练(如下图)。
通过这一结构,我们将模子的有用影象跨度从 50k 一举提升到 160k,且由于 Memory 主要驻留在 CPU,不会显著增添 GPU 肩负。
M + 的实验效果
显著性能提升及更少的 GPU 使用:在 Longbook-QA 和 Longbook-Event-QA 两个数据集上,我们都在更少 GPU 的使用下(单卡 18GB 左右)获得了更强盛的性能。
更强的信息留存能力:在 SQuAD 数据集上体现出远超 MemoryLLM-7B 以及相关 ablation baseline 的信息留存能力,可以抵达 160k 依旧不完全遗忘已往的信息。
结语
M+ 展示了我们在探索隐空间恒久影象领域的主要希望,也为下一代具备一连影象能力的语言模子提供了坚实的手艺支持。未来,我们将继续研究更高效的存储机制、更智能的检索战略,以及与多模态输入更自然融合的隐空间影象架构。在此偏向上,M+ 不但是对 MemoryLLM 的一次扩展,也是我们对 “让模子拥有靠近人类影象能力” 这一愿景的又一次有力实践。
冯莱卡恩裸体无删减版观看
大荫蒂XX另类老妇作爱
欧美黑人性猛交❌❌❌❌
国产午夜精AV在线麻豆四虎
91丝袜兔女郎❌羞羞
漫画禁漫♥成人无遮挡个软件
爱情岛视频在线永久入口
少女戴口球反绑手脚的视频
羞羞漫画❌破解版
jealousvue成熟40毛
小🐤🐤戳到老师屁股里视频
男同被到爽流网站地下偶像
国产亚洲精品人成张津瑜
赵露丝裸被❌高清网站
凯·帕克姨妈1993年
张柏芝54张无删码艳照百度网盘
八尺大人动漫18禁无码
爽躁多水快深点小说越南
卫诗雅被揉到高潮下不了床
欧美男男GayGay✅免费网址
windows10高清免费观看
原神美女❌爆乳❌3D网站
两个男人躁我一个好爽视频
欧美做爰露性器50部
美女被羞羞在线观看视频
男人进母狗水门需要什么
美女扒开腿秘免费视频
玩偶姐姐在线观看
维度缠绕黎深凹3
男女被❌到爽🔞在线观看
FreePorno💋👙4D
韩国免费裸体❌羞羞免费
iqy爱妻艺黑料
埃及猫跳舞在线观看高清
日本丰滿少妇BBBBBB
赵琳裸体被❌叫爽3D动画
困困兔自慰网站入口
成人H动漫大全
卡戴珊被❌一区二区三区
黄片色
偷拍男厕撒尿露j网站
色中涩AV男人的天堂自慰
学生❌❌爽翻了
波多野结衣G奶巨爆乳
男人扒开女人㊙️桶到爽伊拉克
Sweetiefox潘多拉魔盒
女人被狂躁c白浆流出
免费看裸体裹
羞羞漫画❤️免费网站入口
芙宁娜被黄漫
妈妈姨妈姐姐妹妹收入后宫
你的欲梦被c扒衣服
农村黃色A片三級三級三級偷拍
老师让我❌了一天在线观看
二次元养成类手游18+拔萝卜
被黑人抽搐翻白眼晕过去的句子
颜爵啊~嗯快停下
✡️✡色✡️网✡️站男男
白袜班花被脱鞋折磨脚心|VK
美女❌C🐻八衣服网站动画
韩国19禁在线观看
porne free moive xxxx
扒开jk美女狂揉
黄网站大全app
郑艳丽被躁120分钟
美女扒开腿❌裸体网站视频
免费无遮挡🔞视频网站暑假作业
黑客家庭破解100部在线观看
足控免费视频❌Xx动漫漫画
爆❌喷水❌洗澡❌动漫小说
男人把jij放到女人jii里面视频
91丨九色丨国产丨PORNY
英语老师没有穿内裤让我吃她奶头
www深夜成人网站下载网豆
兔女郎➕灌➕电击➕调教作文
洗澡无码自慰av观看网站
小黄书xhs91.cc
舞蹈生哭着扒开屁股眼浣肠小说
50路母寺岛志保
国产做受❌❌
火影野原琳好紧⋯好大…好爽
网友谈论 审查所有谈论>>