本报告导读:
DeepSeek 连续开源代码,通过软件优化极致利用GPU 性能,降低AI 应用门槛,将加速 AI落地,云服务商、AI应用开发商及国产大模型厂商有望率先受益。
投资要点:
投资建议:D eepSeek 连续开源的 FlashMLA 和 DeepEP 技术显著提升了现有GPU 利用效率,降低了AI 应用开发和部署成本。技术开源将使提供GPU 云服务的厂商将直接受益,其服务器利用率和单位算力产出有望提升;专注于AI 应用开发的公司也将受益于开发成本降低和应用场景拓展;同时,国产大模型厂商有机会借鉴这些优化思路,加速自身技术迭代,缩小与国际领先水平的差距。推荐标的:鼎捷数智、星环科技、浪潮信息、科大讯飞,受益标的:优刻得、海天瑞声、寒武纪。
FlashMLA 和DeepEP 展现了对硬件资源的极致利用。FlashMLA 针对Hopper 架构深度优化,在H800 SXM5 实现3000 GB/s 内存带宽和580 TFLOPS 计算能力。DeepEP 则是为混合专家模型(MoE)和专家并行(EP)设计的通信库,支持高吞吐量且低延迟的all-to-all GPU内核。软件优先的思路在高端AI 芯片供应受限环境下尤为重要,通过算法和软件优化提升现有硬件效能,为国内AI 基础设施建设提供了可行的替代路径,展示了资源约束下实现技术突破的可能性。
AI 应用开发门槛降低,高效训练和推理能力不再是大型机构的专利。FlashMLA 优化解码阶段内核,专门针对可变长度序列进行了优化,直指大模型处理长序列效率低下的核心痛点。DeepEP 则提供了针对非对称域带宽转发的优化内核,并创新性地提出hook-based通信-计算重叠方法,不占用任何SM 资源,让GPU 在传输数据的同时能继续计算。这些技术使开发者能够在有限计算资源上构建更高效的AI 系统,大幅降低了AI 应用开发的技术和资源门槛。
开源策略体现了真正的技术共享精神,打破技术被少数机构垄断的局面。DeepSeek 将新技术完全开源,源代码在GitHub 上公开,任何开发者都可自由使用和改进,打破了前沿技术被大型科技公司垄断的局面,为整个行业注入新活力,也为行业建立了更健康的技术共享机制,促进知识自由流动和技术迭代,因此产业变革有望加速。
风险提示:技术迭代不及硬件迭代速度、技术路线对其他GPU 架构适配情况尚不明确,以及商业落地不及预期的风险。



