DeepSeek能否破解AI能耗困局?

AI快讯2周前发布 niko
15 0
AiPPT - 一键生成ppt

春节期间,深度求索(DeepSeek)成为热门话题。有业内人士向笔者询问,与GPT-4相比,DeepSeek能节省多少算力?对此,DeepSeek未给出具体答复,而是建议查询公司产品说明。

自2022年生成式AI热潮兴起,AI与大模型发展和电力消耗的关系,一直是热门话题。人工智能行业普遍将能源视为瓶颈。有预测称,到2027年,全球人工智能产业年电力消耗将达85.4至134太瓦时,约占全球总电力消耗的0.5%。研究还发现,[chatgpt](https://ai-kit.cn/sites/1007.html)每天处理约2亿次请求,电力消耗超50万千瓦时,相当于1.7万户美国家庭的日用电量。

在2024年博世互联世界大会上,马斯克警告,人工智能和电动汽车的快速增长可能导致全球电力和变压器供应短缺。OpenAI首席执行官也表示,人工智能行业正面临能源危机,新一代生成式AI的能源需求超出预期,现有能源供应难以应对。一时间,AI能源危机论遍布全球。

随着DeepSeek的出现,这一局面或被改变。通过更高效的计算,DeepSeek的算力需求相比OpenAI大幅降低。其“分布式”部署算力,使每人一套DeepSeek成为可能,AI可能不再是电力“巨兽”。

不过,目前尚无研究比较DeepSeek与竞争对手的能源使用情况。从现状看,能源仍是影响AI发展的最大变量。

美国麻省理工学院技术评论网站文章指出,在40个提示的测试中,DeepSeek与Meta模型能源效率相近,但DeepSeek倾向于生成更长回答,多使用了87%的能源。一位业内人士表示,去年很多公司在AI算力上投入巨大,不少数据中心建在电价便宜地区。虽然当时未预料到DeepSeek的出现改变了底层逻辑,但目前DeepSeek对算力的消耗仍不低,电价会影响其成本。

当前,大型AI模型发展迅猛,需巨大计算资源支持,这些资源通常由高性能处理器提供,包括GPU、TPU和ASIC芯片等。这些处理器需大量电力驱动数据中心的服务器、存储设备和冷却系统。以GPT为代表的生成式预训练大型语言模型,其计算需求与参数量和token数相关,极大影响着模型的潜在规模和复杂程度。自2012年以来,AI训练应用的电力需求每3到4个月就会翻一倍。

有机构测算,AI服务器功率比传统普通服务器高出6-8倍,电源需求也同步提升。到2030年,仅人工智能大模型领域的算力能耗预计将达到全国1.93%~5.25%的电力消耗量。

随着人工智能产业发展,未来模型和应用场景将更复杂多样,能耗影响将呈增长趋势。而且,人工智能能耗影响的时空分布可能不平衡。从时间分布看,人工智能能耗呈“夏冬高,春秋低”的季节性波动,气温变化影响算力基础设施能耗。从空间分布看,“东数西算”工程重塑人工智能能耗地理布局,能耗压力将集中在枢纽节点和数据中心集群区域。

短期来看,人工智能发展可能带来季节性、局域性用能压力。一方面,季节性气温变化增加算力基础设施能源消耗,可能加剧能源保供压力;另一方面,“东数西算”工程使人工智能能耗集中在部分地区,可能导致能源供应不平衡,影响能源利用效率和区域经济协调发展。

近年来,我国能源消耗总量增长较快,能耗强度降幅收窄,部分地区节能目标完成面临挑战。人工智能引发的能耗压力可能与当前节能形势冲突,部分地区可能加强对数据中心项目的审批管理。

破解AI能耗问题,首先要优化大模型,简化模型复杂度,使用更高效的神经网络架构。此外,优化电源管理方案、改进电路设计也是节能思路。

在政策层面,要强化人工智能战略产业发展的要素保障。一方面,推动人工智能项目列入国家重大项目能耗单列范围;另一方面,加强对算力枢纽节点等地区的能源供给保障,建立“算电协同”体制机制。

同时,要引导人工智能产业向绿色低碳方向转型升级,探索建立绿色低碳管理机制。随着国内对绿电消费要求提高,水(储)、风、光一体化或核电将成为数据中心的优选。AI驱动的协同优化将是电算协同的技术支撑和创新方向之一。

最后,要优化人工智能产业的空间格局,引导对延时要求不高的算力基础设施优先布局于西部地区,支撑东部运算需求。业内人士认为,2025年将是全面整合的一年,能源和科技将深度融合。人工智能正逐渐成为能源密集型行业,电力与算力的协同是系统工程,业界需积极应对。

© 版权声明
智谱清言 - 国产最强AI模型