Perplexity选中Kimi K2 ,近日,Perplexity联合创始人兼CEO Aravind Srinivas宣布KimiK2内部评测惊艳,即将启动post – training。此前Perplexity宣布纳入DeepSeek – R1也曾引发轰动,如今对KimiK2的选择,再次让其在开源社区热度飙升。
Perplexity的选型标准,AI搜索是贴近真实世界任务的试炼场,Perplexity对模型要求苛刻。实时响应和低延迟是选型关键,如Aravind解释未接入GPT -4.5是因其解码速度慢,影响用户体验。而K2的MoE架构在vLLM + FP8实测中,输出速度比R1快一倍且成本低,达到高并发场景下经济与性能的平衡。
功能需求与K2的契合,今年4月Aravind预告Perplexity新功能,强调是底层模型重构,核心是强大的深度研究代理,能自主进行30分钟或更长时间研究。KimiK2“模型即Agent”理念与之契合,在训练阶段引入数百万条合成Agent任务,可在单一会话内连续编排操作,对应Perplexity设想的“30分钟自主研究”。
选择开源模型的深层原因,选择开源模型让Perplexity拥有完整控制权,可任意进行LoRA、RLHF、工具蒸馏。K2采用MIT改协议,月活低于1亿可商用,128K上下文窗口能处理整份财报,使“模型- 索引 – 工具”三层架构可私有化。
Perplexity的模型选择历程 ,Perplexity从依赖OpenAI的GPT模型转向开源模型,先后使用Mistral – 7b、LLaMA2 – 70b、Code Llama – 34B等。2025年2月DeepSeek – R1让其实现从“使用”到“自研”的转变,如今选择KimiK2是战略延续,因其在多方面优于R1。
重要的风向标作用,Perplexity的模型选型需平衡性价比与性能,满足特定产品需求。由于无开源模型完全达标,其“择优而用”策略使其成为开源模型能力评判的重要风向标。