当前位置:首页 > Deepseek最新资讯 > 正文内容

DeepSeek发布开源周首个成果 可优化英伟达GPU效率

2个月前 (02-25)Deepseek最新资讯132

新京报贝壳财经讯(记者罗亦丹)北京时间2月24日上午,DeepSeek发布了其“开源周”的第一项成果:FlashMLA(直译为快速多头潜在注意力机制)的代码。

据了解,MLA(多头潜在注意力机制)正是DeepSeek降低大模型成本使用的关键技术之一,其可以显著减少大模型训练和推理过程中的内存占用,而FlashMLA则是针对Hopper GPU(一种英伟达GPU架构)开发的高效MLA解码内核,其针对可变长度序列进行了优化,目前已投入了生产,其可以使得H800达到3000GB/s内存,实现580TFLOPS(每秒浮点运算次数)计算性能。

贝壳财经记者注意到,根据此前DeepSeek发布V3大模型时公开的技术文档,该大模型正是使用英伟达的H800芯片训练而成。

上海骊翰科技咨询有限公司发文称,FlashMLA能在不损失模型性能的前提下,将缓存体积压缩至原来的1/4,从而大幅降低显存需求。例如,原始需要存储的100GB中间结果,压缩后仅需25GB,通过开源让企业可以直接使用FlashMLA来优化自家模型。随着FlashMLA的普及,AI推理有望进入千元级硬件跑百亿模型的时代。


“DeepSeek发布开源周首个成果 可优化英伟达GPU效率” 的相关文章

躺平拿证、含金量拉满?“工信部认证DeepSeek证书”是真的吗?

躺平拿证、含金量拉满?“工信部认证DeepSeek证书”是真的吗?

本文转自【法治网】;“课程永久有效且学习灵活,学完可获得工信部认证证书!”近日,河南郑州的张先生,在被某培训机构销售人员的话术打动后,支付了6480元报考学习deepseek课程、AI课程等。该培训机...

中兴通讯AiCube DeepSeek一体机亮相MWC25,助力大模型商业化加速

中兴通讯AiCube DeepSeek一体机亮相MWC25,助力大模型商业化加速

在世界移动通信大会(MWC25巴塞罗那)上,中兴通讯隆重推出了AiCube DeepSeek一体机,为全球企业带来了高效的大模型商业化解决方案,助力千行百业数智化升级。在全球AI技术竞争日益激烈的背景...

体制内、党政机关写材料,DeepSeek写公文提示词大全

体制内、党政机关写材料,DeepSeek写公文提示词大全

一、通知类文书作为[机构全称]的[职位信息],拟制[特定事项]工作通知。必备模块:[职责划分]、[关键环节]、[执行标准],行文参照《党政机关公文格式》,禁用修饰语,采用"一、二、三&quo...

关于DeepSeek V3/R1 Decoding吞吐极限的估计

关于DeepSeek V3/R1 Decoding吞吐极限的估计

经历了一周DeepSeek的打脸活动后,周六 DeepSeek终于开大放出来了自身的推理系统水平,DeepSeek:DeepSeek-V3 / R1 推理系统概览 。在这个结论放出来之前,没...

放大 AI 商业价值,企业快成长 DeepSeek 行业深度应用创新论坛华北站圆满落幕

放大 AI 商业价值,企业快成长 DeepSeek 行业深度应用创新论坛华北站圆满落幕

 DeepSeek 一经问世便迅速赢得了众多用户的青睐,彼时,公众对 AI 的强烈需求直接体现在了注册数量上。经过多次迭代,DeepSeek-R1 和 DeepSeek-V3 现已发展成为能够进行深度...

深度剖析 DeepSeek:功能、应用与未来展望

深度剖析 DeepSeek:功能、应用与未来展望

在人工智能大语言模型的激烈竞争中,DeepSeek 以其独特的优势崭露头角,吸引了众多科研人员、开发者及普通用户的目光。今天,让我们深入探究 DeepSeek,从功能特性、本地化部署,到使用技巧、现存...