亚马逊 AWS 突然“妥协”?Bedrock 紧急上架阿里 Qwen3 与 Kimi,国产 AI 这波稳了!
导语:拉斯维加斯的“中国时刻”
这两天,全球科技圈的目光都盯着拉斯维加斯——AWS re:Invent 2025(亚马逊云科技年度大会)正在这里举行。
作为全球云计算的老大,AWS 往年都是先秀自家的芯片、再秀自家的模型,比如今年发布的自研大模型 Nova 2、新一代 Graviton5 CPU、Trainium3 UltraServer、AgentCore 等,几乎每一条都够做一场专场发布。
但今年有个细节让中国开发者格外兴奋:在 Amazon Bedrock 模型库的更新名单里,突然多出了一排中国大模型的名字。
阿里的 Qwen3-NEXT 系列、面向代码场景的 Qwen3-Coder 系列、视觉多模态的 Qwen3-VL-235B,再加上月之暗面的 Kimi K2 Thinking 和稀宇科技的 MiniMax M2,集体被 AWS “请进了”自家主战场,变成全球企业用户可一键调用的“标准配置”。
这说明了什么?说明在通用对话、代码智能、复杂推理等关键方向上,国产大模型已经强到连全球巨头都无法忽视,必须引入才能补齐自己的产品矩阵。
不过,消息刷屏之后,很多国内开发者和企业主却很快问到关键问题:“既然用的都是咱们自己的模型,我还有必要绕一大圈去买海外的云服务吗?”
今天就来扒一扒这次发布会背后的门道,以及国内用户该如何更聪明地吃到这波红利。
一、 亚马逊“杀疯了”,但也没忘了“抱大腿”
这次大会,AWS 确实甩出了不少王炸。
● 自研模型 Nova 2:主打更强的推理能力和更低的推理单价,被外界视作 GPT-5 同级别的正面竞争者,是这次大会官方重点对标的“王牌之一”。
● 存储升级:S3 单对象上限从 5TB 拉到 50TB,叠加全新的 S3 Vectors,单索引可支持几十亿向量、单桶可支持万亿级向量,让“把一整个企业知识库塞进对象存储里给 RAG 用”变成现实规划而不是 PPT。
● AgentCore:给 AI 智能体立规矩,设定预算、访问边界和审批流,防止 AI 乱花钱、乱调接口,是面向“生产级 Agent”的治理中台。
但最让国内科技圈兴奋的,还是它的**“开放策略”。
AWS 高层在会上反复强调一个关键词:“Choice matters(选择至关重要)”**——在模型层面,真正重要的是“选择权”和“组合自由度”,只要能满足客户需求,不在乎你是美国模型还是中国模型。
二、 灵魂拷问:国内用户到底该怎么选?
兴奋归兴奋,落到日常使用层面,国内用户还是要冷静算账。
AWS Bedrock 虽然已经集成了 Qwen3-NEXT、Kimi K2 等多款中国模型,但对身在国内的团队来说,直接去用 AWS 版本,现实中有三道槛。
1. 网络延迟:模型节点主要分布在美东、美西、亚太部分区域,国内访问往往需要绕行国际链路,长对话、长文档场景下时延很容易拉到几百毫秒甚至数秒级,体验和直接用国内节点有明显差距。
2. 支付门槛:计费以美元为主,例如 Qwen3-NEXT 在美东区域的输入侧价格约为每 1,000 token 0.00015 美元,看似不贵,但叠加跨境结算、信用卡开通和财务报销流程,对中小团队并不友好。
3. 数据合规:很多行业对“数据出境”有明确红线,将核心业务数据直接传到海外云,会极大增加合规和审计成本,甚至直接超出政策允许的边界。
从这个视角看,本土“AI 基础设施”就显出优势了:同样是调用 Qwen 和 Kimi,但可以做到“节点在国内、计费以人民币为主、票据流程贴近本土规范”。
以国内老牌云厂商 七牛云 为例,它最近上线的 AI 大模型推理平台,本质上就是国内版的“Bedrock 思路”:把头部模型聚合到一个统一入口,用一套 API 和控制台做统一接入。
更关键的是,它走的是“云 + 存储 + 推理 一体化”的路子,对大量已经把资源放在对象存储里的企业来说,迁移成本非常低。
一张表看懂怎么选:
三、 不止是模型,更是“数据底座”
这次 AWS re:Invent 的另一个重点,是把 S3 单对象上限拉到 50TB,并正式推出 S3 Vectors。表面看是在给大模型训练和长上下文推理“加大油箱”,实质上是在争夺“企业数据底座”的控制权。
模型是车,数据是油,存储就是油箱,向量索引则是“油路”和“仪表盘”,油箱不够大、油路不够顺,车跑不快也跑不远。
在这一点上,七牛云 其实很早就押注了“非结构化数据 + AI”这条路。很多人认识七牛是因为图床和音视频,但它更底层的主业,是对象存储 Kodo、音视频云和面向智能硬件的 LinX AI。
公开信息显示,2024年上半年,七牛云的 AI 相关收入大约 1.84 亿元人民币,占整体营收的 22.2%,其中很大一部分来自大模型推理服务和推理算力租赁,这本质上就是“以数据为中心的 AI 底座生意”已经开始回本了。
对想做 AI 应用的企业来说,七牛云提供的是一套从“存”到“炼”再到“跑”的闭环玩法:
1. 存:把文档、图片、视频、日志等非结构化数据放进 Kodo,通过 SDK 或 API 统一管理。
2. 炼:利用内置的数据处理和 ETL 能力做清洗、转码、抽帧,为后续建模做准备。
3. 跑:直接在大模型推理平台上调用 Qwen、DeepSeek 等模型做检索增强、内容生成或智能分析,数据无需在云之间来回搬运。
这种“存算一体”的模式,比单纯买一个 API 账号试着接几次请求要稳健得多,也更符合“AI 是长期工程项目”的现实。
四、 总结:国产 AI 的好时代
AWS re:Invent 2025 其实在传递两层信号。
第一,生成式 AI 正在从“玩具”彻底变成“工具”,不论是 AgentCore、50TB S3,还是 S3 Vectors、Trainium3,本质上都是为了让 AI 去承担更多“重活”,接管更核心的业务流程。
第二,中国 AI 力量已经从“本地玩家”升级为“全球基础设施的一部分”,Qwen、Kimi、MiniMax 登上 Bedrock 名单,就是一张含金量极高的“入场券”。
对普通开发者和中小企业主来说,这不是抽象的“民族自豪感”,而是实打实的成本和效率红利。
一方面,可以在国内依托 七牛云 这样的本土基础设施,用更低门槛的计费方式、更接地气的售后支持和更贴近本土监管的合规能力,享受与 AWS 同步的顶级模型能力;另一方面,也可以在业务成熟后再考虑通过 Bedrock 向海外复制,把“国产模型 + 国产数据底座”变成真正意义上的全球生意。
别等到“免费额度”结束才开始后悔。
趁着各家平台还在大力补贴,新注册用户普遍能拿到测试用的 Token 和算力配额,完全可以先用一两个周末,把项目里的几个关键功能迁到国产大模型上跑一跑,亲自体会一下“这波羊毛值不值得薅”。