MiniMax M2.7上线OrcaRouter,提供兼容OpenAI的API

信息来源: X:MiniMax (@MiniMax_AI)
看点:开源顶尖国产模型通过第三方平台提供标准化API,大幅降低了开发者试用和集成的门槛,体现了开源生态快速扩展的实际价值。

国产大模型公司MiniMax在官方推特宣布,其迭代速度快、在工程代码等领域表现突出的模型M2.7,已正式上线OrcaRouter平台。这意味着开发者现在可以通过OrcaRouter提供的单一OpenAI兼容API来访问和使用M2.7模型。

当今最强大的开源模型之一 现在可通过单一 OpenAI 兼容 API 访问。 定价: 输入:0.30美元 / 100万词元 输出:1.20美元 / 100万词元 缓存读取:0.06美元 / 100万词元 缓存写入:$0.375 / 100万次

M2.7是什么来头?

M2.7是MiniMax在2026年3月发布、并于同年4月12日全球开源的模型。它在软件工程基准测试(如SWE-Pro)中得分接近顶尖水平,并在办公文档处理、复杂任务理解上有显著提升。开源后,它已快速完成了与华为昇腾、NVIDIA、Together AI等众多硬件及推理平台的适配。

OrcaRouter的作用是什么?

OrcaRouter可以理解为一个模型聚合平台,它为多种模型提供统一的、标准化的API接口。对于开发者而言,最大的便利在于无需针对每个模型厂商的不同API格式做适配。如果你已经习惯或拥有OpenAI的API调用代码,现在只需更换API端点和密钥,就能尝试M2.7。

怎么用?适合谁?

目前,想要体验的开发者需要前往OrcaRouter平台,在其文档中查找关于M2.7的具体API端点、请求格式以及如何获取API密钥的说明。这对于个人开发者、小型团队,或是已经构建了基于OpenAI接口应用的用户来说,是尝试一个高质量国产模型的最快路径之一。它也适合那些希望对比不同模型(例如在OrcaRouter上切换调用不同模型)进行选型或评估的场景。

需要留意的是,M2.7模型本身已开源,开发者也可以选择自行部署。而通过OrcaRouter调用,具体的调用定价、速率限制以及详细的API文档,均需以其平台官方公布为准。开源模型经第三方平台托管,其服务的稳定性和响应质量可能需要你实际测试后判断。

相关快讯

传闻称谷歌I/O将推新Gemini模型,性能对标GPT-5.5

传闻称谷歌I/O将推新Gemini模型,性能对标GPT-5.5

社交媒体传闻称,谷歌计划在即将到来的I/O大会上发布新的Gemini模型,其性能被认为可与GPT-5.5匹敌。但谷歌官方尚未证实此具体性能对比,预计将重点展示Gemini模型家族的进一步更新。
X:Rohan Paul (@rohanpaul_ai)
2026-05-15

暂无评论

none
暂无评论...