Kimi开放平台调整模型推理服务价格4月7日,Kimi开放平台正式对外宣称,对其模型推理服务展开价格调整,重点在于大幅削减上下文缓存成本。这一行动的背后,是MoonshotAI历经一年在技术领域的钻研与性能优化。
技术突破带来成本降低 Kimi开放平台表示,此次价格调整得益于MoonshotAI在过去一年里,于模型训练、推理加速以及资源利用优化等方面取得的重大突破。通过持续的技术迭代,平台不仅提升了模型处理的效率与性能,还成功降低了运营成本。这使得Kimi能够将更多实惠让利给用户,进一步降低企业和开发者使用大语言模型的门槛。
价格调整惠及用户此次价格调整全面降低了模型推理服务成本,不同模型规格和使用场景的降价幅度各有不同。值得一提的是,以超长上下文处理能力著称的Kimi平台,其上下文缓存价格也大幅下调。这无疑将提升处理长文本任务用户的性价比。
核心优势凸显与应用拓展自上线以来,Kimi开放平台就将支持超长上下文输入(高达200万个字符)作为核心竞争力,在文档分析、文献综述和代码复现等场景广泛应用。上下文缓存价格降低,意味着用户在处理复杂任务时成本更低。例如,经常处理大量文本数据的企业用户或开发者,费用降低的同时,开发效率也能得到提升。
开发者认可 一位长期使用KimiAPi的开发者评价道:“更低的上下文缓存价格对我们帮助很大。以前处理大文档成本高,现在能用更少预算完成更多任务,性价比显著提高。”
© 版权声明
文章版权归作者所有,未经允许请勿转载。