這是字典一個關于 AI 底層邏輯重構的時刻。
長期以來,梁文論文Transformer 架構被困在一個昂貴的鋒署分悖論中:我們用著最先進的 GPU 算力,去讓 AI 模型 " 死記硬背 " 那些查字典就能知道的名新模型靜態(tài)知識。
DeepSeek 梁文鋒團隊與其北大合作者在今日凌晨發(fā)布的配本重磅論文《Conditional Memory via Scalable Lookup》,徹底打破了這一僵局。計算記憶他們提出了一種全新的后智Engram(印跡)模塊,在傳統(tǒng)的商爆 " 條件計算 "(MoE)之外,開辟了第二條稀疏化戰(zhàn)線——" 條件記憶 "。表劇
這不只是字典一次技術修補,而是梁文論文一場關于模型 " 腦容量 " 的供給側改革。它證明了:當我們將 " 記憶 " 從 " 計算 " 中剝離,鋒署分把該背的名新模型交給 " 字典 ",把該算的配本交給大腦,AI 的計算記憶推理能力將迎來反直覺的爆發(fā)式增長。