DeepSeek-R1与Grok-3:AI规模扩展的两条技术路线启示
据Counterpoint Research,Grok-3 展现了无妥协的规模扩张——约200,000块NVIDIA H100 显卡追求前沿性能提升。而DeepSeek-R1 仅用少量计算资源就实现了相近的性能,这表明创新的架构设计和数据策展能够与蛮力计算相抗衡。
效率正成为一种趋势性策略,而非限制条件。DeepSeek 的成功重新定义了AI扩展方式的讨论。我们正在进入这样一个阶段:算法设计、混合专家模型(MoE)和强化学习不仅是提升效率的技巧,更是实现计算密集型性能的战略杠杆。
下一个前沿是投资回报率(ROI)导向的规模扩展。Grok-3 揭示了纯计算投入的边际收益递减现象。构建前沿AI模型的未来将从"谁能扩展更多"转向"谁能扩展更好"。大多数实验室都需要将目标明确的规模扩展与激进的模型优化相结合。
自今年二月起,DeepSeek 便因其开源旗舰级推理模型DeepSeek-R1 而引发全球瞩目——该模型性能堪比全球前沿推理模型。其独特价值不仅体现在卓越的性能表现,更在于仅使用约2000块NVIDIA H800 GPU 就完成了训练(H800 是H100 的缩减版出口合规替代方案),这一成就堪称效率优化的典范。
几天后,Elon Musk 旗下xAI 发布了迄今最先进的Grok-3 模型,其性能表现略优于DeepSeek-R1、OpenAI 的GPT-o1 以及谷歌的Gemini 2。与DeepSeek-R1 不同,Grok-3 属于闭源模型,其训练动用了惊人的约20万块H100 GPU,依托xAI "巨像"超级计算机完成,标志着计算规模实现了巨大飞跃。
xAI "巨像" 数据中心
尽管训练资源差距悬殊,这两大模型如今却共同站在AI能力的最前沿——一个致力于提升可及性与效率,另一个则追求蛮力规模扩张。
前沿推理模型性能对比
规模扩展曲线的不同路径
这一现象揭示了通往前沿AI的两种截然不同的发展路径。Grok-3代表着"蛮力策略"——通过价值数十亿美元的GPU计算规模,推动边际性能的提升。这条路线只有最富有的科技巨头或政府机构才能负担。
相比之下,DeepSeek-R1展现了算法创新的力量:它采用混合专家模型(MoE)、推理强化学习等技术,配合高质量精选数据,仅用少量计算资源就实现了可比性能。其成功标志着AI发展可能正从"原始规模主导"转向"战略效率优先"的新纪元——未来AI的突破将更取决于FLOPs 的智能部署,而非单纯的数量堆砌。换言之,规模扩展不仅关乎模型参数量或原始计算力,更在于资源的优化配置。
Grok-3 证明投入百倍GPU能快速获得边际性能提升,但也暴露出投资回报率(ROI)的快速递减现象——大多数实际用户几乎感知不到这些边际改进带来的益处。本质上,DeepSeek-R1 追求以最小硬件代价实现顶尖性能,而Grok-3 则不惜一切计算成本突破极限。
对未来AI发展的启示
像Grok-3 这样耗资数十亿美元的集中式训练项目,可能很快将超出除少数巨头之外的企业所能承受的范围,xAI 就已在考虑进一步扩展至百万级 GPU 的规模。这种转变预示着AI公司将日益重视DeepSeek 倡导的重视优化与效率策略:混合专家模型(MoE)、稀疏化、改进微调和强化学习等技术将成为核心,它们能以更少资源消耗实现性能突破,推动AI持续发展而不致成本失控。
我们也看到持续新数据训练(类似Grok-3的实时更新机制)与强基础模型结合的潜力。中小规模系统可通过检索增强生成(RAG)或定期微调来模拟这种模式,避免持续大规模计算的负担。
整个行业或将从单纯追求规模法则(参数与数据量),转向融合算法突破与工程实用主义的全局发展观。这意味着大多数自研大语言模型的机构都需要更清晰地平衡二者关系:最佳策略是在投资回报率(ROI)临界点内适度扩展规模,同时持续投入算法研究以提升效率。
本文源自:金融界