谷歌发布Nano Banana 第二代。Nano Banana 2(Gemini 3.1 FlashImage)兼具专业功能和高推理速度,根据AI 基准测试机构ArtificialAnalysis,Nano Banana 2 在AI 文生图榜单中排名第二,仅次于GPTImage1.5,同时价格是Pro 版(排行第三)的一半。Nano Banana 2主要升级:高级世界知识、精确文本渲染及翻译、一致性、精确的指令执行、高分辨率和视觉保真度提升等,文生图质量显著提升。
微软推出Maia 200 推理芯片。Maia 200 设计理念居前,内存包含216GB HBM3e+272MB 片上SRAM,FP4 性能是AWS Trainium 3 的3 倍,FP8 性能超越Google TPU v7;每个compute tray 内部署4 个芯片,2.8 TB/s Scale-Up 互联带宽,Scale-Up 和Scale-Out 网络采用自研Maia AI 协议。
Meta 规划两年内推出4 款MTIA 芯片。在2023 年7 月的ISCA'23 和2025 年7 月的ISCA'25 会议上Meta 发表了研究论文详细介绍了MTIA100 和MTIA 200,未来,MTIA 300/400/450/500 将在2026-2027 年部署,MTIA 300 目前用于推荐&排名模型训练;MTIA 400 能够更好地适配AIGC 模型,目前已完成实验室测试、正进行部署;MTIA 450 针对AIGC 推理进行专门优化,计划于2027 年初规模部署;MTIA 500HBM 带宽相对450 提高50%,计划于2027 年规模部署。
对应到投资层面,继续以光互联Scale-Up 作为今年AI 投资的核心线索。从原理出发,现阶段的Scale-Up 网络大多采用铜缆互联的方案,但在系统设计、传输距离上有明显局限性。英伟达GB200 NVL 72 机柜内部采用铜缆进行全连接,充分利用了铜高可靠、低成本、低时延的优势,但同时存在局限性:(1)从设备物理形态上看,铜连接受限于链接的距离,通常限制在一个机柜内,因此AI Rack 机架需要在单位空间部署更多芯片,同时高密度的铜互联方案给供电、制冷、布线也带来挑战;(2)随着Scale-Up 域未来扩展到百卡甚至千卡级别,由于距离限制铜互联已经无法覆盖,根据阿里白皮书数据,有源AEC 100G/lane的传输距离仅7 米,而光互联可以覆盖几十米、几百米甚至更远距离,优势凸显。我们认为,Scale-Up 侧的NPO 有望在2027 年批量应用,CPO 有望在27 年底的Rubin Ultra 中被大规模使用,本次GTC 大会中有望看到相关催化。
投资建议:建议关注Scale-Up NPO/CPO、液冷、服务器电源等赛道。
风险提示。AI 基础设施建设不及预期的风险;AI 应用发展不及预期的风险;AI 领域的进出口政策变化的风险;国际合作减少的风险。



