Kimi开放平台宣布价格调整:模型推理服务与上下文缓存双双降价

公告背景与意义

4月7日,Kimi开放平台正式发布公告,宣布基于Moonshot AI一年来的技术积累和性能优化,对平台提供的模型推理服务价格进行调整,同时大幅下调上下文缓存价格。这一举措标志着Kimi开放平台在提升技术能力的同时,进一步优化用户体验,推动人工智能服务的普及与应用。

技术进步带来的价格调整

据Kimi开放平台官方介绍,此次价格调整得益于Moonshot AI在过去一年中在模型训练、推理加速及资源利用率优化方面的显著突破。通过持续的技术迭代,平台不仅提升了模型的处理效率和性能,还降低了运营成本。官方表示,这些成果让Kimi有能力将更多实惠回馈给用户,进一步降低企业与开发者接入大模型服务的门槛。

QQ20250407-161111.png

价格具体调整情况

从调整内容来看,模型推理服务的价格普遍下调,降幅根据不同模型规格和使用场景有所差异。与此同时,上下文缓存价格也迎来显著下调,这一调整尤为引人注目,因为Kimi平台以超长上下文处理能力著称,此举将进一步提升用户在处理长文本任务时的成本效益。

超长上下文处理能力的优势

Kimi开放平台自推出以来,以支持超长上下文输入(最高达200万字)为核心竞争力,广泛应用于文档分析、文献综述、代码复现等场景。此次上下文缓存价格的下调,意味着用户在处理复杂任务时将享受更低的成本。例如,对于需要频繁调用长文本数据的企业用户或开发者来说,这不仅能减少费用支出,还能提升开发效率。

用户反馈

一位长期使用Kimi API的开发者表示:“上下文缓存价格下调对我们来说是个大利好。之前处理大篇幅文档时成本较高,现在可以用更低的预算完成更多任务,性价比大幅提升。”

Kimi开放平台宣布价格调整:模型推理服务与上下文缓存双双降价

YiAI团队

YiAI团队

AI大模型技术专家团队

YiAI团队是一支专注于AI大模型应用的技术团队,由来自国内外知名科技公司的AI专家组成。 我们致力于为企业和开发者提供高质量、低成本的AI大模型API服务,涵盖文本生成、对话交互、 内容理解、知识问答等多个领域。团队拥有丰富的大规模语言模型开发和应用经验,深入理解 企业在AI落地过程中的实际需求和技术痛点。