DeepSeek与字节跳动踏?进同一条河,字节跳动和spacex

  更新时间:2026-01-15 11:17   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

工作为硬件受限的中国 AI 伌DeepSeek 采用Sinkhorn-Knopp 迭代进行投影迫使中国 AI

<p id="489C6BQ6"><b>本文系基[于公!开资料撰写,仅作为信息交流之用,不构成任何投资建议</b></p> <p class="f_center"><br></p> <p id="489C6BQ9">新年前夕,DeepSeek发表了一篇聚焦神经网络架构创新的核心论文,梁文锋以通讯作者身份署名。论文提出了<strong>流形约束超连接(manifold-constrained HyperConnection, mHC)架构</strong>,直指大规模模型训练中的稳定性难题。</p> <p id="489C6BQB">这一工作为硬件受限的中国 AI 企业开辟了一条兼顾性能与效率的路径,也与字节跳动早前在残差流优化上的探索形成关键呼应,二者均瞄准残差连接这一模型基础架构进行改造。</p> <p id="489C6BQD">DeepSeek的研究,恰恰是对字节跳动“超连接”技术短板的系统性补位。这一成果不仅为大模型底层架构的工业化落地提供了新方案,再度印证了<strong>硬件约束可转化为创新动力</strong>的产业演进逻辑。</p> <p id="489C6BQF">自2016年ResNet 提出以来,残差连接已成为深度学习的骨架式设计。其通过“捷径连接”绕过层层非线性变换,从根本上缓解了梯度消失或爆炸的难题,支撑起越来越深的模型结构。</p> <p id="489C6BQH">长期以来,业界创新多集中于注意力机制、MoE(混合专家)等模块,残差流本身处于一种“静默的稳定”中,直至2024 年字节跳动以<strong>超连接(HyperConnection)技术</strong>打破这一局面。</p> <p id="489C6BQJ">字节跳动的超连接通过<strong>拓宽残差流宽度、构建多路并行信号流</strong>,并让模型学习流间的交互模式,显著提升了模型表达能力。然而,该技术在规模化训练中暴露出致命短板:<strong>信号发散</strong>。</p> <p id="489C6BQL">DeepSeek的测试显示,在270亿参数模型的训练中,约12000步后梯度范数剧烈波动,训练崩溃;更严重的是,信号强度在第60层膨胀至输入值的<strong>3000倍</strong>。问题的核心在于,超连接为追求表达力,放弃了残差连接原有的恒等映射约束——小规模下尚可调参掩盖,但在大规模训练中,这一缺陷被急剧放大。</p> <p id="489C6BQN">mHC的核心创新,是将可学习的变换矩阵<strong>约束在双重随机矩阵(doubly stochastic matrix)构成的流形上</strong>。这相当于为信号传播设立“刚性预算”:矩阵每行、每列元素之和均为1且非负,确保输出信号强度严格介于输入信号的最大最小值之间,从而杜绝信号爆炸。</p> <p id="489C6BQP">更关键的是,双重随机矩阵具有<strong>组合不变性</strong>——多层叠加后仍保持稳定。实验表明,在超连接出现3000倍信号放大的同一场景中,mHC的信号放大峰值仅为1..6倍。为控制计算开销,DeepSeek 采用Sinkhorn-Knopp 迭代进行投影,仅需20轮迭代即可收敛,额外训练成本被压制在<strong>6.7%</strong>。</p> <p id="489C6BQR">硬件约束倒逼的不只是算法创新,更是全链路的系统级优化。超连接拓宽残差流后,每层数据读写量倍增,在A800/A100的有限互联带宽下,芯片极易陷入“等待数据远多于计算”的效率陷阱。DeepSeek通过三项关键技术破局:</p> <p id="489C6BQT">1.算子融合:将内存访问模式相近的操作合并为单一GPU内核,减少数据搬运;</p> <p id="489C6BQU">2.反向传播重计算:不存储中间激活值,改为实时重算,以计算换内存;</p> <p id="489C6BQV">3.流水线并行优化:重叠跨GPU通信与本地计算,用计算掩盖通信延迟。</p> <p id="489C6BR1">这些优化将原本随层数线性增长的内存开销,转化为可由模块大小控制的有界开销。配合基于 TileLang 编写的混合精度内核(bfloat16 为主,float32 保关键精度),实现了全参数规模下的稳定性能提升。测试中,30亿至270 亿参数模型搭载mHC后均表现优异,270亿模型在BIG-Bench Hard复杂推理任务上提升 2..1%,在 DROP阅读理解任务上提升<strong>2.3%</strong>。</p> <p id="489C6BR3">此前,V3架构论文对应V3模型,R1推理论文对应R1模型;本次mHC论文在 2026 年春节前三周发布,外界普遍预期下一代旗舰模型(R2)即将亮相。</p> <p id="489C6BR5">这种“论文先行”的策略,既通过同行评议建立技术公信力,又在复杂地缘环境中为原创性留下时间戳,更向全球传递一个明确信息:<strong>中国 AI 企业的核心竞争力,并非依赖尖端算力芯片</strong>。</p> <p id="489C6BR7">DeepSeek选择通过arXiv、Hugging Face等开放平台而非传统期刊发布成果,虽牺牲部分学术声望,却换来了技术传播的速度与可达性。这种开放模式加速了知识扩散,也对同行构成直接竞争压力:当 mHC 的性能增益可量化、实现可复现时,西方实验室要么跟进类似技术,要么必须论证自身路径的优越性。</p> <p id="489C6BR9">此前R1 型已触发推理模型研发热潮,mHC架构很可能推动残差流优化进入新一轮迭代。更重要的是,这一模式向技术管制者传递了清晰信号:硬件限制并未扼杀创新,反而迫使中国 AI 企业走向<strong>“从数学根源解决问题”</strong>的最本质路径。</p> <p id="489C6BRB">字节跳动与 DeepSeek,先后踏入同一条“突破传统残差流”的创新之河。前者率先探路,却止步于规模化瓶颈;后者在硬件约束的倒逼下,凭借数学约束与系统级优化,架起了一座可通航的<strong>技术之桥</strong>。</p> <p id="489C6BRD">距离2026年春节仅剩六周,R2模型的发布将检验mHC架构的工业化成色。无论最终基准测试结果如何,这条“在约束中创新”的路径已具备里程碑意义——它清晰证明,AI 竞赛不只有“烧钱堆算力”这一条赛道。<strong>硬件限制从不是创新的绊脚石,而是催生真正核心突破的催化剂。</strong></p> <p id="489C6BRE">转载开白 | 商务合作 | 内容交流<br>请添加微信:jinduan008<br>添加微信请备注姓名公司与来意</p>

编辑:托利·基特尔斯