6小时收藏破5000次,利好国产GPU。DeepSeek开源第一弹!

seekdeep8个月前AI资讯216

2月24日,在上周DeepSeek宣布本周将是开源周(OpenSourceWeek),并将连续开源五个软件库后。今日上午9:30时许,DeepSeek宣布开源了本次开源周首款代码库——针对Hopper GPU进行优化的高效型MLA解码核——FlashMLA。

新浪科技注意到,在GitHub上,目前该项目开源6小时后便已收获了超过5000Star收藏,并且拥有188个Fork(副本创建)。在听到DeepSeek开源FlashMLA并迎来的快速的Star收藏和Fork数据增长后,某港股上市公司CTO在与新浪科技沟通中直呼:“太强了”。

另有专注于AI硬件研究并投资的投资人,在查看FlashMLA后告诉新浪科技,对于国产GPU而言,此次开源算是重大利好。“此前的国产GPU卡,很弱。那现在可以通过FlashMLA提供的优化思路和方法论,尝试让国产卡大幅提升性能,即使架构不同,后面国产卡的推理性能提升将是顺理成章的事儿”。

2015121376793001.jpg

据DeepSeek官方介绍,FlashMLA基于Hopper GPUs的有效MLA解码内核,可针对可变长度序列进行优化。

在DeepSeek整个技术路线中,MLA(多头潜在注意力机制)是公司已经发布的V2、V3两款模型中,最为核心的技术之一。被用于解决计算效率和内存占用上的性能瓶颈,能够显著提升模型训练和推理效率,同时保持甚至增强模型性能。

此前,中国工程院院士、清华大学计算机系教授郑纬民在与新浪科技沟通中曾提及:“DeepSeek自研的MLA架构为其自身的模型训练成本下降,起到了关键作用。”他指出,“MLA通过改造注意力算子压缩了KV Cache大小,实现了在同样容量下可以存储更多的KV Cache,该架构和DeepSeek-V3模型中FFN 层的改造相配合,实现了一个非常大的稀疏MoE 层,成为DeepSeek训练成本低最关键的原因。”

此次DeepSeek直接开放MLA解码核——FlashMLA,意味着DeepSeek将最为核心的MLA底层代码直接免费开放,这让广大开发群体可以直接复用FlashMLA代码库实现用更少的GPU服务器完成同样的任务,直接降低推理成本,这对于更多希望基于DeepSeek开源能力进行底层优化和AI应用开发群体而言,无疑是一大福利。

有意思的是,DeepSeek此次开放的MLA解码核,主要是针对Hopper GPU进行优化用途的。通常而言,Hopper GPU是指基于英伟达Hopper架构研发的H系列GPU产品。目前,英伟达该系列芯片已经发布H100、H800和H20等多款芯片。

据DeepSeek方面介绍,在基准测试性能表现上,FlashMLA在英伟达H800 SXM5 GPU上可实现3000 GB/s 的内存速度以及580TFLOPS的计算上限。

公开资料显示,根据美国出口管制规定,H800的带宽上限被设定为600 GB/s,相比一些旗舰产品有所降低。这意味着,使用FlashMLA优化后,H800的内存带宽利用率有望进一步提高甚至突破H800 GPU理论上限,在内存访问上达到极致,能让开发群体充分“压榨”英伟达H系列芯片能力,以更少的芯片实现更强的模型性能,最大化GPU价值。

有专注于AI硬件研究并投资的投资人在查看FlashMLA后表示,“FlashMLA是能让LLM在H800跑得更快、更高效的优化方案,尤其适用于高性能AI任务,他的核心是加速大语言模型的解码过程,提高模型的响应速度和吞吐量,这对于实时生成任务(如聊chatbot等)非常重要,对于大模型的能力和使用体验是巨大的促进,速度会明显提升。”

虽然FlashMLA是一个针对Hopper GPU的优化代码库,但对于国产GPU而言,此次开源也有利好。上述投资人在查看FlashMLA后表示,对于国产GPU而言,此次开源算是重大利好。“此前的国产GPU卡,很弱。那现在可以通过FlashMLA提供的优化思路和方法论,尝试让国产卡大幅提升性能,即使架构不同,后面国产卡的推理性能提升将是顺理成章的事儿”。

相关文章

性能直逼GPT-4,微软宣布合作投资,欧洲最火AI独角兽发布旗舰大模型!

欧洲生成式AI独角兽Mistral AI发布最新旗舰大语言模型Mistral Large。据报道,与Mistral AI之前的模型不同,Mistral Large不会开源。该模型上下文窗口为32K t...

解锁大模型时代的无限可能,从GPT-3到Sora

从2020年OpenAI的GPT-3到2023年的GPT-4再到2024年的文生视频模型Sora,我们见证了大模型领域创新速度之快。从百度、阿里和360等为代表的头部科技企业率先入局到互联网公司、AI...

盛名之下的ChatGPT,何以使用率偏低?

据新华社日前报道,一项由路透社新闻研究所发布的在线调查结果显示,ChatGPT已是目前使用最为广泛的生成式人工智能工具,不过总体上生成式人工智能工具的频繁使用率仍偏低。研究人员对英国、美国、阿根廷、丹...

美国大学研究:ChatGPT 的新闻搜索结果经常不准确

美国大学研究:ChatGPT 的新闻搜索结果经常不准确

据 The Verge 北京时间今日报道,美国哥伦比亚大学 Tow 数字新闻研究中心(Tow Center for Digital Journalism)的研究人员测试发现,OpenAI 的 Chat...

除了编程能力大幅提升,还有更宽松的开源协议:DeepSeek 发布 V3 模型更新!

除了编程能力大幅提升,还有更宽松的开源协议:DeepSeek 发布 V3 模型更新!

和上周不少朋友期待的一样,新一周第一天的北京时间 3 月 24 日晚,DeepSeek 果然「突然」发布了模型更新。但暂时还不是 DeepSeek V4 或 R2,而是 DeepSeek V3 模型的...

Meta等让LLM分饰三角自评自进化:4轮暴训,Llama 7B击败GPT-4!

Meta、UC伯克利、NYU共同提出元奖励语言模型,给「超级对齐」指条明路:让AI自己当裁判,自我改进对齐,效果秒杀自我奖励模型。LLM对数据的大量消耗,不仅体现在预训练语料上,还体现在RLHF、DP...