DeepSeek R1模型在汽车领域的应用探索

AI快讯1周前发布 niko
12 0
AiPPT - 一键生成ppt

近期,DeepSeek热度颇高,众多国内车企纷纷与之合作,如岚图、极氪、智己、宝骏和比亚迪等,甚至车机企业斑马智行和亿咖通也表示自家产品与DeepSeek最新的R1模型深度融合。

车企将DeepSeek应用于车上,主要有两种形式。一是借助DeepSeek的MIT开源协议,在自家服务器部署满血版或蒸馏后的R1模型,经微调融合形成大模型,车主通过车机联网使用交流功能;二是通过蒸馏把R1压缩成小模型更新到车端,让车主离线也能使用部分功能。这些应用主要用于提升语音助手的“人味”,但类似功能在不少新势力车型上已实现,并未充分发挥DeepSeek-R1模型的能力。

DeepSeek的R1模型因在训练中大胆采用强化学习 +奖励模型的方式而备受关注,该方式使模型涌现出超强的推理能力,适合解决复杂逻辑问题。然而,车上语音助手的应用场景多为简单问题,这与DeepSeek-R1模型的优势不匹配,且经过蒸馏和融合的小模型能力有所阉割,对已有大模型的车企而言,添加DeepSeek的必要性不大。

实际上,DeepSeek更大的潜力在于智能驾驶。当前主流智能驾驶多以模仿学习为主,即模仿人类开车,而强化学习通过不断试错领悟高效驾驶路线,其上限不止于让智驾像人类开车。智驾系统在环境感知和多任务处理上优于人类司机,理论上,合理运用强化学习能使智驾推理出更高效的驾驶方式。

不过,在智能驾驶训练中大规模应用强化学习存在诸多难点。比如需要巨大的算力资源,且容易出现幻觉问题,这需要车企精心设计奖励模型并微调,考验着主机厂的算法能力。即便特斯拉,也仅在部分模块有限使用强化学习。但强化学习仍是提升智驾能力的重要方向,未来可能成为车企和供应商竞争的新领域。

© 版权声明
智谱清言 - 国产最强AI模型