直面AI泡沫争议 亚马逊云科技交出了一份实干答卷
站在2025年末的视角回望,AI技术正在经历一场静水流深的范式转移。
如果说过去两年的AI局限于对话机器人的单一形态,那么2025年无疑是智能体(Agent)的原点。我们见证了AI角色的根本性质变:它不再是那个被动等待指令的对话框,而是进化为具备自主思考、拆解复杂任务并主动调用工具交付结果的智能主体。它不再止步于文本生成,而是以“数字化员工”的身份,真正嵌入企业的核心业务流。
然而,伴随着技术愿景讨论的升级,资本市场情绪却在狂热之后回归了冷静。在经历了数年的大规模基础设施投入后,华尔街与企业决策者开始更严肃地审视账单。关于AI泡沫的讨论不绝于耳:科技巨头们在AI基础设施上的资本支出已攀升至万亿美元的量级,但所换回的营收增长在短期内却显得不成比例。
摆在所有技术厂商面前的一道考题变得异常尖锐:AI能不能不仅是昂贵的玩具,而是成为成本可控、产出明确的生产力工具?
在刚刚结束的2025亚马逊云科技re:Invent中国行北京站中,这家全球云计算的领军者给出了一份极具份量的答卷。作为一个年收入超过1320亿美元、在如此巨大体量下依然保持20%同比增长的超级平台,亚马逊云科技没有选择回避当下的泡沫论,而是用工程化思维正面回应了市场的焦虑。
透过大会发布的一系列从底层芯片到上层应用的密集更新,我们看到的不再是空中楼阁般的愿景,而是一套严丝合缝的系统化解题思路。面对虚高的成本水分,亚马逊云科技正在利用其覆盖软硬件全栈的掌控力,从自研芯片对摩尔定律的挑战,到将Agent开发流水线化的标准工具,试图重构AI的成本模型。他们不仅只在云端售卖算力,更在为AI从尝鲜期走向深水区铺设一条切实可行的道路。
基础设施的极限突围:打破算力与存储的刚性约束
在重塑AI商业价值的路径上,算力与数据成本是横亘在企业面前的第一道门槛。当模型参数量呈指数级增长,单纯依靠堆砌现有硬件已无法维持可持续的投入产出比。亚马逊云科技深知,要让AI真正从昂贵的尝试变为普及的生产力,必须在基础设施的底层逻辑上进行深度的重构与革新。
在谈论AI之前,必须先稳固地基。云的核心服务包括底层的计算、存储和网络,是所有上层应用赖以生存的土壤。
在本次大会上,亚马逊云科技对这些服役多年的老将进行了近年来最激进的一次集体升级,尤其是作为核心业务的Amazon S3,正在经历一场适应AI时代的蜕变。
首先,Amazon S3将单个对象的最大容量上限从沿用了多年的5TB提升到50TB。这一改变看似只是参数的调整,却极大地简化了保存和加载千亿参数模型时的流程,消除了繁琐的手动切分工序。
其次是存储形态的革命性创新:Amazon S3 Vectors。在RAG(检索增强生成)日益普及的今天,向量数据成为企业的核心资产。传统的向量数据库方案虽然快,但成本高昂且难以维护海量数据。本次正式发布的S3 Vectors让用户可以在S3中直接存储和管理数万亿级的向量数据,并将存储与查询的总体成本降低90%。同时Amazon OpenSearch Service新增了GPU向量索引加速功能,能够提升10倍的创建速度,成本只需原来的四分之一。
计算资源的双轨策略:生态兼容与自研突围
在算力供给侧,亚马逊云科技采取了务实的“双轨策略”:既通过与NVIDIA的深度绑定确保生态兼容性,又通过自研芯片战略提供极致的性价比选择。
一方面,亚马逊云科技延续了作为NVIDIA最佳云上平台的定位。双方长达15年的合作在本次大会上产出了新成果——搭载NVIDIA最新GB300 NVL72系统的Amazon EC2 P6e实例。而NVIDIA自己的大规模GPU集群Project Ceiba也选择运行在亚马逊云科技的平台上,这本身就是对平台可靠性的有力背书。
另一方面,为了打破算力成本的刚性约束,亚马逊云科技正在加速构建以Amazon Trainium等自研芯片为核心的自研算力体系。这不仅是技术的自证,更是为客户提供差异化成本选择的战略举措。
虽然名为“训练”芯片,Trainium在推理场景的表现同样优秀。目前,Amazon Bedrock平台上的Anthropic Claude背后的推理算力全部由Trainium支撑。市场数据佐证了这一路线的成功:亚马逊云科技已部署超过100万片自研芯片,其中Trainium2的部署速度达到了前代产品的四倍。
在本次re:Invent上,这一自研路线迎来了里程碑式的代际飞跃——基于Amazon Trainium 3的Amazon EC2 Trn3 UltraServers服务器正式落地。
作为亚马逊云科技专为大规模AI训练和推理打造的最新一代芯片,Trainium 3展现了惊人的性能提升:相比前一代,Amazon Trainium3 UltraServers带来了多达4.4倍的计算能力和3.9倍的内存带宽。更值得关注的是其在能效上的极致优化——每兆瓦功耗处理的token数量提升了五倍。
此外,亚马逊云科技还披露了正在研发中的Amazon Trainium 4,预计将带来六倍的FP4计算性能。这种对于摩尔定律的持续挑战,无疑将大幅拉低AI算力的价格门槛。
为了支撑如此强大的算力集群,亚马逊云科技提出了“数据园区即计算机”的构建理念。Claude最新一代模型所依赖的Project Rainier项目,正是基于这种物理上连通的数据中心集群构建的。
Amazon AI Factories:把云端算力搬进企业
除了公有云的演进,亚马逊云科技也敏锐地捕捉到了企业在合规与数据主权上的顾虑。为此,Amazon AI Factories应运而生。
它允许客户利用现有的数据中心空间和电力资源,由亚马逊云科技“上门”建设和管理最先进的AI基础设施。无论是NVIDIA GPU还是自研芯片,都能以完全隔离的方式运行在企业的物理围墙之内,为拥有自有数据中心资产的企业提供了一条兼顾安全与效率的现代化路径。
模型超市的哲学:从DeepSeek到Claude,给企业最大的自由
如果说基础设施是AI的燃油,那么模型就是决定车辆性能的引擎。在过去的一年中,市场对大模型的认知经历了一次深刻的矫正:企业不再迷信唯参数论的单一超级模型,而是开始寻找最适合特定业务场景、性价比最高的模型组合。
亚马逊云科技一直以来的信条是“选对模型至关重要”,这一理念在Amazon Bedrock平台上得到了彻底贯彻。作为一个全托管的生成式AI服务平台,Amazon Bedrock目前已拥有超过10万家客户。在本次大会上,亚马逊云科技进一步扩充了其模型货架,新增了包括Google的Gemma 3、NVIDIA的Nemotron和OpenAI的GPT OSS Safeguard 等18款开源模型,为企业提供真正的“模型超市”。
在这次更新的名单中,最值得关注的是国内顶尖大模型在Amazon Bedrock平台上的进一步集结。除了此前已经上架DeepSeek和阿里千问,本次更新正式引入了备受瞩目的Kimi K2 Thinking和MiniMax M2。
对于正在通过亚马逊云科技布局全球业务的出海企业而言,这意味着一种巨大的红利。过去,企业在海外拓展业务时,往往面临着技术栈断层的挑战:要么需要重新适配陌生的模型架构并调整原有的提示词策略,要么需要投入大量精力自建GPU集群来运行熟悉的国内模型,这无疑增加了技术落地的复杂度和运维成本。
如今,企业可以在Amazon Bedrock这套全球统一的基础设施之上,直接调用Kimi的推理能力或MiniMax的语境理解能力。这种全球算力底座配合本土优势模型的组合,让企业无需改变既有的开发习惯,即可在全球范围内实现业务的无缝延展。这代表了亚马逊云科技作为一个中立平台的开放姿态:不寻求自研模型垄断,而是通过兼容并包,让客户拥有最大的选择权。
极致成本杀手:为企业业务流量身定制的Nova 2模型矩阵
除了引入第三方模型,亚马逊云科技也深知,要将成本压缩到极致,必须拥有能够与自家芯片完美适配的自研模型。本次大会上,亚马逊云科技正式发布了全新的Amazon Nova 2系列模型。与大多数模型不同,Nova 2系列的研发逻辑非常务实,它不是为了刷榜,而是为了解决企业应用中的具体痛点。
针对企业最敏感的成本问题,亚马逊云科技首先拿出了Nova 2 Lite。这是一款专为高频次、低复杂度任务设计的模型。在保持优秀指令遵循和代码生成能力的同时,它将推理成本压缩到了极致。
它的实战能力在大会现场的一个演示中得到了直观验证:结合AI编程工具Kiro,Nova 2 Lite仅用短短几分钟,就从零构建了一个包含客户管理、房源列表、销售分析及可视化仪表盘的完整房地产管理系统。整个过程几乎不需要人为干预,充分证明了在处理企业日常业务流时,高性价比模型同样具备交付复杂应用的可能性。
对于那些需要深度推理、复杂指令跟随或作为Agent核心大脑的高难度场景,亚马逊云科技推出了Nova 2 Pro。它被定义为Nova家族中最智能的模型,专为处理高度复杂的工作负载而生 。在多项基准测试中,Nova 2 Pro已展现出强于Claude Sonnet 4.5、GPT 5.1、和预览版Gemini 3 Pro的实力。
而在多模态交互领域,Nova 2 Omni展示了全能的一面。作为首个真正的的统一多模态模型,它能够同时支持文本、图像、视频和音频的输入,并直接输出文本和图像。
亚马逊云科技的新一代语音模型Nova 2 Sonic,则能够实现毫秒级的实时对话体验。对于呼叫中心、智能客服等场景来说,这种低延迟的类人交互能力,直接关系到用户体验。
从Lite的极致性价比,到Pro的深度智能,再到Omni的全能形态与Sonic的极致速度,Nova 2家族的发布补齐了亚马逊云科技AI版图的关键拼图。它与Trainium芯片形成了紧密的软硬协同效应,共同构成了企业降本增效的核心武器。
AgentCore:让智能体的构建像搭积木一样标准化
拥有了高性价比的算力与多样化的模型选择,仅仅是完成了AI商业化的基础设施建设。要真正让AI进入业务核心,企业面临的挑战是如何将这些“大脑”组装成能够独立执行任务的数字员工。
然而,在当前的开发实践中,构建一个企业级Agent绝非易事。开发者往往陷入到底层代码的泥潭中:如何管理跨会话的记忆?如何对接复杂的企业IT系统?如何确保Agent不会因为幻觉而执行违规操作?这些问题让Agent的开发更像是一场难以复制的手工艺术,而非标准化的工业生产。
为了解决这一的痛点,亚马逊云科技推出了Amazon Bedrock AgentCore。这不仅仅是一个工具包,更是一条为Agent设计的高度标准化的生产流水线。
从单打独斗到多个Agent各司其职
AgentCore的设计哲学在大会展示的“贷款审批”案例中得到了充足的展现。面对这样一个涉及信息调用、风险计算与资金决策的复杂场景,Amazon Bedrock给出的解法不再是依赖单一模型的全能表现,而是将业务流拆解为三个各司其职的专业Agent:负责资料录入与预处理的Intake Agent、负责风险评估与分析的Analyze Agent以及负责核保决策的Underwriting Agent。
这种分工协作模式最大的价值,在于它实现了在同一业务流中按其各自擅长的能力配置不同模型。企业可以在处理大量非结构化文档的Intake环节指派擅长长文本处理的Nova 2 Pro,在需要极高逻辑推理的Analyze环节无缝切换至Claude 3.5 Sonnet。这种根据每个环节的成本与性能需求灵活组合异构模型的能力,让企业在构建Agent时拥有了前所未有的灵活性。
而一个能真正落地的Agent,必须能够深度介入企业的IT系统。本案例中,AgentCore同样展现了强大的数据库连接解决方案:它能够同时从Amazon DynamoDB中拉取用户的支付数据,从Amazon S3中调阅过往的历史信贷文档,甚至通过API实时查询第三方的薪资核验网站。
可信赖的智能:从玄学调优到工程化质检
对于企业来说,大规模接入Agent的主要障碍仍在于其结果的“不可控性”。为此,亚马逊云科技为AgentCore引入了Policy功能。这是一种基于Cedar语言的策略管理机制,它独立于模型之外,像一道刚性的护栏强制约束Agent的行为。
例如,企业可以通过自然语言设定策略:“退款金额超过1000元必须转人工审批”。无论大模型如何思考,只要触碰这条红线,AgentCore Gateway就会在执行动作前进行拦截。这种确定性的控制机制,解决了企业在安全上的后顾之忧。
解决了控制问题,最后一步是质量验收。AgentCore Evaluations为Agent提供了一套全方位的体检报告。它内置了13种评估器,能够从准确性、安全性、连贯性等多个维度对Agent的表现进行打分。
开发者不再需要等到上线后才发现问题,而是在开发阶段就能通过自动化测试发现这个Agent在处理复杂指令时准确率下降了。这种数据化的质量反馈循环,让Agent的优化从玄学变成了可量化的工程迭代。
普惠的生产力:当AI渗透进企业的每一处毛细血管
如果说AgentCore是为了解决企业如何招入好用的数字员工,那么对于大多数非技术背景的业务人员而言,他们更关心的是如何直接获得现成的AI生产力。作为一家数万雇员的企业,亚马逊深知,AI的普惠不能仅停留在开发者的IDE里,需要渗透进企业的每一张办公桌。
Amazon Quick:打破数据孤岛的桌面助手
在大多数企业的办公场景中,员工的注意力都被割裂得支离破碎:业务数据躺在CRM系统里,项目文档存在云盘中,而关键的沟通细节则散落在聊天记录里。员工每天不得不花费大量时间在这些系统间频繁切换、搜索和搬运信息。
Amazon Quick Suite的出现,就是为了终结这种低效的“人肉接口”模式。它能够深度穿透企业内部的各类办公套件、存储系统和业务软件,将分散的数据资产串联起来。
以亚马逊内部税务团队的实战为例,这本是一个极其依赖“信息拼图”的工作——需要时刻盯着各国变动的税法,再从审计系统中捞数据,最后在内部文档中找合规依据。以前这是三个屏幕、三套系统的工作量。现在,他们训练了一个税务Agent,能够主动监控政策更新,并自动从各个角落抓取相关数据生成报告。这种让数据主动找人,而不是人找数据的范式转变,才是企业级AI应有的样子。
情绪价值与解决力:Nova 2 Sonic驱动的下一代客服
在连接外部客户的战场,Amazon Connect的底气,源自亚马逊自身作为全球最大电商,应对数亿订单、处理海量并发咨询的实战磨砺。
这一次,Amazon Connect通过引入Agentic AI能力与Nova 2 Sonic模型,试图将亚马逊电商客服的“内功”对外输出。在传统的客服体系中,机器往往只能做简单的关键词分流,而现在的客服Agent开始具备了解决问题的行动力。
通过新增的八项Agent功能,客服系统现在可以处理更复杂的非线性任务。比如在处理退换货或复杂的账户变更时,Agent能够像资深员工一样理解客户的情绪波动,并实时调用后台系统解决问题。
遗留系统的现代化重生:用Agent重写企业的IT基因
据艾哲森统计,企业每年约有七成IT预算被迫用于维护那些跑在大型机、旧版本Windows或过时数据库上的古董代码。这笔高达数万亿美元的“技术债”,锁死了创新的手脚。
Amazon Transform的推出,旨在为遗留系统的现代化改造提供一条系统化的路径。与传统的代码翻译工具不同,它具备深度理解业务逻辑依赖的能力,能够将封闭的旧架构平滑迁移至开放的现代云环境。
以金融信息提供商汤森路透(Thomson Reuters)为例,他们面临着将150万行Windows代码迁移到Linux的浩大工程。Amazon Transform不仅读懂了这些几十年前的代码逻辑,还自动完成了从UI到数据库的全栈现代化改造,帮助其避免了昂贵的Windows许可证费用。
而本次新发布的Amazon Transform Custom功能,进一步打破了语言的限制。它允许企业通过自然语言自定义转换规则,无论是Java版本升级、Python重构,还是特定领域的大型机代码迁移,企业都可以训练Agent按照自己的独特的编码规范进行自动化改造。
从Copilot到Autopilot:软件工程的自主化进阶
最后,针对软件工程这一核心领域,亚马逊云科技展示了未来的开发团队形态:人类工程师与AI Agent的混合协作。
新发布的Kiro Autonomous Agent不再仅仅是代码补全工具,而是一个能够独立完成任务的开发伙伴。它能够理解复杂的开发意图,自主规划任务路径,甚至在遇到错误时自我修正。与之配合的还有Amazon Security Agent和Amazon DevOps Agent,前者像安全官一样在代码提交前自动扫描漏洞并修复,后者则像运维专家一样监控系统健康度。
这三款前沿Agent的出现,标志着软件开发正在从“人写代码、机器运行”向“人定目标、机器实现”转变。对于企业而言,这意味着开发团队可以将宝贵的精力从重复的CRUD代码和运维琐事中解放出来,专注于核心业务逻辑的创新。
结语:让AI回归工程与成本的常识
当 re:Invent 2025 的帷幕落下,回到开篇关于AI泡沫的讨论,亚马逊云科技给出的回应并非是某种基于AGI即将实现的宏大叙事,而是一套基于成本控制和工程化落地的脚踏实地方案。从底层芯片到上层应用的每一环成本逻辑,试图抹平技术成本与商业价值之间的鸿沟,让AI从一种回报不明沉重资本支出,转变为可控、可预测的经营手段。
当AI不再是资本市场上用来讲故事的噱头,而是真正成为企业财务报表中能够创造正向现金流的工具时,这场“工业革命”才能真正站稳脚跟。
免责声明:本页所载内容来旨在分享更多信息,不代表九方智投观点,不构成投资建议。据此操作风险自担。投资有风险、入市需谨慎。
推荐阅读
相关股票
相关板块
相关资讯
扫码下载
九方智投app
扫码关注
九方智投公众号
头条热搜
涨幅排行榜
暂无评论
赶快抢个沙发吧