谷歌首席科学家与Transformer作者深度访谈:揭秘AI技术突破与未来愿景

AI快讯7小时前发布 niko
1 0
AiPPT - 一键生成ppt

AI领域前沿对话:技术、愿景与思考

谷歌首席科学家Jeff Dean与Transformer作者Noam Shazeer的一场深度访谈,为我们带来了AI发展历程中的诸多关键揭秘与未来展望。

低精度计算:提速模型的关键路径

Jeff指出基于通用CPU机器扩展性受限,制造工艺改进周期变长,多核处理器提升不如以往。而专用计算设备如机器学习加速器、TPU等兴起。Noam提到算术运算成本降低但数据传输成本仍高,深度学习借此发展。谷歌打造的TPU是低精度线性代数处理器,随着时间推移,模型量化精度不断降低,从TPUv1时不确定8位整数量化能否用于模型推理,到如今人们使用INT4或FP4,甚至有人将模型量化到2位或1位,低精度计算让模型速度提升三倍成为趋势。

扩展神经网络:无监督学习的惊艳成果

在Brain团队早期,Jeff等人专注构建能训练大神经网络的基础设施,当时数据中心只有CPU,他们通过模型并行和数据并行方式训练。针对1000万个YouTube帧的无监督学习系统,采用空间局部表示方法,在2000台计算机、16000个核心上运行。训练后模型最高层一个神经元能被猫图像激发,其他神经元对人脸、行人背影等有反应,在监督学习的Imagenet20000类别挑战中性能提升60%,扩展神经网络取得良好效果。

长上下文挑战:处理数万亿token的设想

Jeff认为长上下文问题未来有实现可能。当前模型存在幻觉和事实性问题,部分原因在于训练数据庞大。现有模型能处理数百万token上下文,但Jeff期望模型能处理数万亿token,如关注整个互联网、处理个人信息等。然而,朴素注意力算法的二次方特性带来巨大计算挑战,需要算法近似来实现这一目标。

AI安全:目标对齐的核心探讨

访谈中提到AI安全性问题,主持人设想ai编程能力超越人类且恶意复制的场景,触及目标对齐这一核心关切。业界对AI安全存在灾难论和乐观论两种极端观点,Jeff持审慎乐观态度,这也是当前AI领域许多专家的主流看法。

生产力跃升:AI的巨大潜力

Jeff预测随着AI聊天界面等普及,计算资源需求将激增,同时要警惕AI恶意应用。Noam认为AI发展将带来广泛社会效益。Jeff提出企业是否愿为实现“10倍工程师”“100倍工程师”甚至“1000万倍工程师”的生产力跃升加大投入,揭示了AI在提升生产力方面的巨大潜力。

© 版权声明
智谱清言 - 国产最强AI模型