腾讯云TI平台有新动作,正式将DeepSeek系列模型上架。此次上架的模型丰富多样,涵盖参数量达671B的“满血版”V3、R1原版模型,以及基于DeepSeek-R1蒸馏产生的系列模型,参数规模处于70B到1.5B之间。
DeepSeek系列模型凭借卓越性能在全球引发广泛关注。以DeepSeek-R1为例,发布时便开源,后训练阶段大规模运用强化学习技术,即便标注数据极少,也能显著提升模型推理能力。在数学、代码、自然语言推理等任务方面,DeepSeek-R1的性能与OpenAI的GPT-4正式版难分伯仲。而且,DeepSeek-R1遵循MITLicense,用户能通过蒸馏技术训练其他模型,其蒸馏模型DeepSeek-R1-Distill在参数规模小、推理成本低的情况下,于基准测试中仍有出色表现。
腾讯云TI平台对DeepSeek系列模型全力支持,不仅实现一键部署,还限时开放R1模型的免费在线体验,给予开发者零门槛的优质体验。用户在“TI平台-大模型广场”点击DeepSeek系列模型卡片,就能了解模型信息,进行在线体验与一键部署。此外,TI平台具备模型服务管理、监控运营、资源伸缩等企业级能力,助力企业和开发者将DeepSeek模型高效、稳定地融入实际业务。
为契合不同用户需求,TI平台推出多种计费模式,如按量计费和包年包月。短时体验的用户可直接在TI平台购买算力并选用按量计费模式;已购买CVM机器或需长时间体验的用户,建议用自有CVM机器作为推理算力。在算力配置上,“满血版”DeepSeek-R1建议用腾讯云上2台8卡HCCPNV6机型部署服务,以保障稳定业务体验;蒸馏后的DeepSeek-R1-Distill-Qwen-1.5B模型用单张中端GPU卡即可部署。开发者可依业务复杂度选合适模型测试,并通过调用API接入AI应用。
腾讯云TI平台此举意义重大,为开发者提供强大AI工具支持,推动大模型技术普及应用。免费体验和一键部署功能降低开发者使用大模型的门槛,使AI技术能更快应用于实际业务,提升其实用性与可及性。