DeepSeek V4 可信爆料汇总:Engram 记忆与 1M 上下文已验证
2026 年 2 月中旬,DeepSeek 即将发布下一代旗舰模型 V4。经过多方核查,Engram 条件记忆模块已通过同行评审论文和 GitHub 开源代码验证,1M Token 上下文窗口于 2 月 11 日悄然上线并经用户独立测试确认,mHC 架构论文由创始人梁文锋署名发表。这三项核心技术构成 V4 的可信技术基础。
与此同时,社交媒体流传的 SWE-bench 83.7%、AIME 99.4% 等基准测试成绩已被 Epoch AI 总监公开证伪,建议公众区分已验证技术与未证实性能数据,等待官方正式发布和独立第三方评测。本文仅汇总经多方验证的高可信度信息。
Engram 论文 arXiv:2601.07372 Engram GitHub 开源 NxCode 事实核查 Verdent AI 发布追踪 Reddit 社区验证

Engram 记忆模块已开源验证
Engram 条件记忆模块是 DeepSeek V4 最核心的已验证技术突破,相关论文于 2026 年 1 月 12 日提交至 arXiv,GitHub 仓库开源代码获 3.7k+ Star。该技术通过现代化 N-gram 嵌入实现 O(1) 时间复杂度知识查找,将静态知识存储与动态推理计算分离。论文实验数据显示 Engram-27B 在等参数、等 FLOPs 约束下全面超越纯 MoE 基线,大海捞针测试准确率从 84.2% 提升至 97.0%。GitHub 仓库采用 Apache-2.0 许可证,提供独立演示代码展示核心数据流,明确标注代码为演示版本,聚焦 Engram 模块逻辑。
1M 上下文窗口悄然上线
2026 年 2 月 11 日,DeepSeek 在无官方公告情况下将生产模型上下文窗口从 128K 扩展至 100 万 Token。该升级经多用户独立测试确认,社区测试显示满额 1M 长度下准确率超过 60%。技术实现依赖 MLA 多头潜在注意力机制压缩 KV Cache,配合 Engram 的 O(1) 静态知识查找解决百万级上下文的计算成本与检索准确率两大挑战。1M 上下文约等于 75 万英文单词或 150 万中文字符,可单次处理整本小说、复杂项目代码库或详细法律文档。
发布时间与架构信息汇总
多家权威媒体援引知情人士消息,DeepSeek V4 预计于 2026 年 2 月 17 日至 20 日发布,时间窗口与中国农历新年重合。该发布模式符合 DeepSeek 历史规律,R1 模型于 2025 年 1 月 20 日发布(春节前一周)。GitHub FlashMLA 仓库于 1 月 20 日暴露 28 处 MODEL1 引用,涉及 114 个文件,代码逻辑显示为与 V3.2 完全不同的架构,包含 KV Cache 布局、稀疏处理、FP8 解码格式等核心变更。mHC 架构论文由创始人梁文锋联合北京大学研究人员共同署名,解决万亿参数规模下的训练稳定性问题,已在 Engram 论文中作为默认 Backbone 使用。