月之暗面发布Kimi K2.5:百个Agent并行协作,开启AI集群智能新时代
2026年1月27日,月之暗面(Moonshot AI)正式发布新一代开源模型Kimi K2.5。创始人杨植麟以独特的站立演讲方式宣布这一消息,标志着国产大模型从单一能力竞争迈向全方位智能集成的新阶段。
Kimi K2.5采用原生多模态架构设计,将视觉理解、文本处理、编程能力和Agent协作融为一体,在HLE、BrowseComp、DeepSearchQA等多项Agent评测中斩获全球开源模型最佳成绩。
01 Agent集群突围:从单兵作战到百人协作
Kimi K2.5最引人注目的突破在于其Agent集群能力。新模型可现场调度多达100个不同专业背景的“分身”,并行处理1500个步骤,所有角色分配与任务拆解无需预设规则,全由K2.5即时决策。
这种“蜂群智能”模式使复杂任务处理效率提升十倍以上。例如,用户可同时动员一群“分析师”完成100家公司市场调研,或派出“语言专家团”翻译300页文档,还能组织不同“研究员”综述多篇跨专业论文。
月之暗面团队为实现这一突破,重构了强化学习基础设施,并优化训练算法。他们采用并行智能体强化学习方法,通过分阶段奖励塑形技术,在训练早期鼓励并行执行,逐步将重心转向任务成功。
02 多模态融合:视觉编程与办公场景深度集成
Kimi K2.5基于15万亿视觉与文本混合token进行持续预训练,实现了真正的多模态融合。在编程领域,模型实现了从“功能实现”到“设计审美”的跨越,能交付专业设计师级别的网页作品。
用户只需提供简单自然语言描述或界面截图,K2.5即可生成完整前端代码。当需要调整时,直接在图示上圈选修改点即可完成优化,大幅降低技术门槛。
同步推出的Kimi Code编程产品可在终端直接运行,并与VSCode、Cursor等主流编辑器无缝集成。
办公场景支持方面,Kimi K2.5通过对Word、Excel、PPT、PDF等软件的深度学习,让用户通过自然语言指令就能完成复杂操作。以往需要数日完成的3万字论文转PPT任务,现在十几分钟即可交付专业水平成果。
03 技术架构创新:1万亿参数MoE模型的高效实现
Kimi K2.5采用混合专家架构,总参数量达到1万亿,但每次推理仅激活320亿参数,显著降低计算资源需求。
模型基于Kimi-K2-Base构建,使用约15万亿个混合视觉和文本token进行持续预训练,实现视觉与语言能力的深度对齐。
月之暗面自研的Muon优化器和线性注意力机制,在处理速度上已超越传统全注意力系统。这些创新使Kimi仅用美国顶尖实验室1%的资源,就在部分性能上超越顶尖闭源模型。
模型支持256K上下文长度,提供标准和思考两种运行模式,满足不同场景需求。
04 商业化路径清晰:会员权益与API接入并行
伴随K2.5发布,月之暗面同步更新了会员权益体系。免费版用户每月可获得1次深度研究、3次OK Computer和3次PPT使用次数,付费会员则享受不同层级的服务额度。
目前Agent集群功能正处于Beta测试阶段,部分Kimi会员可提前试用,后续将逐步推广。
对于开发者社区,Kimi K2.5已在Hugging Face平台开源,提供完整的API接入支持。一步API调用简化了集成流程,支持视觉识别和文本交互双场景,助力各行业快速应用这一前沿技术。
Kimi此次更新正值国内AI竞赛白热化阶段。截至2025年12月,月之暗面账面现金储备超过100亿元人民币,全球付费用户数月增速达170%,海外API收入增长4倍。
海淀区作为北京AI产业高地,已备案大模型124款,集聚人工智能企业超1900家。Kimi K2.5的发布进一步丰富了“百模绽放”的生态格局,为行业带来全新的智能协作范式。









