Ilya Sutskever与Jan Leike接连离开OpenAI,超级对齐项目前景不明

AI快讯5个月前更新 niko
8 0 0

OpenAI不再是原来的OpenAI了

人工智能圈最近发生了一些重大的人事变动,Ilya Sutskever宣布离开OpenAI这一决定在业界引起了广泛的震动。紧接着,RLHF(人类水平强化学习)的主要发明者之一Jan Leike也宣布了他的离职,这不仅让人们对OpenAI的未来充满了疑问。

两位都曾是超级对齐团队的核心领导人,而现在这个成立不久的团队已经面临解散的局面。然而,不止这两位,之前曾在GPT-4项目中担任对齐工作的Ryan Lowe也于3月底离开了OpenAI,这显示出OpenAI安全研究领域的人才正经历着不断的更迭。

团队核心成员的接连离开

在超级对齐团队中担任重要角色的William Saunders和Daniel Kokotajlo也已相继离开。Kokotajlo在Less Wrong论坛上表达了他离开OpenAI的原因:他对公司在人工通用智能(AGI)时代能否负责任行动失去了信心。他认为,当前AI监管的措施很容易被大公司利用,导致监管的实际效果大打折扣。

这一系列的离职事件给公众展示了超级对齐团队目前面临的困境,也让人们对OpenAI的未来产生了怀疑。有人担忧失去这些核心人物后,OpenAI是否还能保持其在AI领域的领导地位。

超级对齐团队的成就与挑战

Jan Leike的离职引起了极大的关注,这不仅因为其在DeepMind的早期工作经验,还因为在开发RLHF过程中他与OpenAI团队的紧密合作,为ChatGPT的核心技术奠定了基础。他在加入OpenAI后,对代码模型Codex、ChatGPT的前身InstrucGPT以及ChatGPT和GPT-4的开发均作出重大贡献。

更重要的是,超级对齐团队是由Jan和Ilya共同发起的,他们在该项目上投入了极大的资源和期望,目的是探索如何控制和引导尚未出现的大型AI智能。超级对齐团队的首个成果《Weak-to-Strong Generalization》提出了通过弱模型监管强模型的理论基础,此外还开源了用于分析大模型可解释性的工具OpenAI Transformer Debugger。

OpenAI的未来动向

在面临人才流失的同时,OpenAI也在积极引进新的人才,据悉他们最近挖来了谷歌搜索广告业务的老将,显示了其在商业化道路上的加速。这可能是造成AI安全研究团队成员出走的原因之一。

Guarding AI safety amidst rapid development and corporate dynamics is a complex issue that reaches beyond standard equations and employs the intricacies of human progress. The departures of Sutskever and Leike puts a spotlight on how pivotal figures can impact the course of technology and its governance.

参考链接:
1. Jan Leike离职消息 – Jan Leike’s status
2. 超级对齐项目成果 – Weak-to-Strong Generalization
3. OpenAI Transformer Debugger – The Information

本文由专注于前沿科技的团队撰写,关注新技术如何塑造未来。

© 版权声明

相关文章

暂无评论

暂无评论...