紧跟Ilya,OpenAI超级对齐团队负责人官宣离职!内部AGI或实现,全网陷大猜想

更新时间:2024-05-16 21:59:12作者:无忧百科

紧跟Ilya,OpenAI超级对齐团队负责人官宣离职!内部AGI或实现,全网陷大猜想


新智元报道

编辑:桃子 好困

【新智元导读】GPT-4o发布仅一天,先是首席科学家Ilya Sutskever,后是超级对齐团队负责人Jan Leike,在同一天官宣离职OpenAI。一时间,全网掀起热议,有人称OpenAI内部已经看到了AGI。

Ilya前脚刚离职,OpenAI超级对齐团队负责人Jan Leike,紧接着也官宣了。


评论区的下方,网友疯狂留言,「你们究竟看到了什么」?



2023年6月5日,OpenAI首次对外宣布成立了「超级对齐AI团队」,是因为预测到AGI可能会在十年内到来。

根据介绍,「前」首席科学家Ilya Sutskever和Jan Leike是最新团队的共同领导。

这一团队成立的目标是,试图用20%算力,在未来4年解决「超级智能对齐问题」。

超链接——OpenAI预言:超级智能10年内降临!正集结算力拯救人类,4年彻底攻克对齐


不仅如此,此前有爆料称,「超级对齐团队」已有员工主动离职,是因为对OpenAI负责人遵守AGI失去信心。


此外,该团队中还有2位因为泄密还被开除。

超链接 OpenAI内斗第二弹!Ilya亲信、超级对齐团队2人惨遭开除,被批泄密


Leopold Aschenbrenner(左), Pavel Izmailov(右)

而如今,核心leader离职,对于OpenAI来说,意味着什么?这一团队的目标还将继续吗?


没有优秀的人才,OpenAI什么也不是

马斯克曾对Ilya的评价是,「他是OpenAI成功的关键」。甚至,他还为了招聘Ilya,与拉里·佩奇关系破裂。


经常曝料OpenAI的内幕人Flowers表示,「Jan和Ilya只有在两种情况下才会离开OpenAI——

要么是AGI已经完成对齐,要么就是AGI根本不可能实现」。


网友猜测:内部AGI已实现

本来,前一天的OpenAI线上发布会,GPT-4o旗舰模型炸裂演示,让出许多人纷纷看到了AGI的未来。

但,这一波离职官宣,又让人们对OpenAI内部产生了诸多疑问。

难道,使命已经完成,AGI/ASI早已实现了吗?



有Reddit网友称,自己根本不关心Jan Leike是谁,但他也随着Ilya也离开了,更想知道的是——

OpenAI究竟发生了什么?



然鹅,评论区的「画风」是这样的:

他们内部已经有了AGI,现在他们已经被取代了,想要放松一下。


他们内部已经有了AGI,并得到了离开公司的指示,他们乖乖地遵守了。


关注AI风险的社区PauseAI发帖称,超级对齐团队几乎什么都没有了。

「离开OpenAI的安全研究科学家名单,正在以惊人的速度增长。从Ilya Sutskever、William Saunders、Leopold Aschenbrenner,再到Jan Leike...

Jan Leike曾认为,有10%-90%的人工智能会杀死我们所有人」。


4年超级对齐工作,10个月达标?

这肯定意味着超对准问题已经解决,工作完成了。他们计划用4年时间完成这项工作,但只用了10个月。


爱吃瓜的网友发现,Ilya官方账号只关注了3个账号——


OpenAI、Dachshund Community,以及Adam Sulik。


真正的重点是,Adam Sulik在Ilya离职的帖子下面直言道:

如果你真正关心人类的未来,你就应该无视一些像保密协议这样的文件,广泛公开地分享你所看到的一切。说出导致董事会纠纷和Sam被赶下台的原因。告诉大家是什么让你如此忧虑。


接着,Adam经过深思熟虑后,又从全面角度分析了这一问题:

也许是…问题不在于「安全问题」。 也许,他们对于一些模型是否显示出强烈的主观体验信号(即出现意识),存在分歧。 也许,涉及其中的人之间的分歧是基于「道德」原因,而不一定是出于安全原因。 或…也许这是出于安全考虑。 或…两者都有。


同样,有Reddit网友表示,Jan Leike的离职,显然是对OpenAI幕后发生的事情表现得非常不满意,甚至连掩饰都没有。


曾与Jan Leike共事的伙伴高度赞赏道,为确保AGI的安全性和有益性所做出的巨大努力,Jan是无人能及的。


2人主动离职,因OpenAI不对AGI负责

几天前,Business Insider曾报道称,有两名OpenAI分别负责治理和安全的人员主动离职了。


一位是Daniel Kokotajlo,还有一位是William Saunders。

据介绍,Kokotajlo是在4月份刚刚离职,而Saunders早在今年2月离开了OpenAI。


左:Daniel Kokotajlo;右:William Saunders

在治理团队工作的Kokotajlo,曾是GPT-4对抗性测试者。Saunders自2021年以来,一直在对齐团队工作,随后转入「超级对齐」团队。

Kokotajlo在其主页上的介绍中,称自己离职OpenAI,是因为对其在实现AGI关键时期,可能的不负责任行为失去了信心。


地址:https://www.lesswrong.com/users/daniel-kokotajlo

上个月,他甚至在自己主页中另一篇帖子中表示,解释了他决定离开的原因之一。


与此同时,他还参与了一场关于暂停AGI发展的讨论。


Saunders是在自己的LessWrong个人资料页面上,发表评论透露了,自己离职的消息。


值得一提的是,Saunders去年曾参与过罢免Sam Altman风波事件。

同时,他也是OpenAI「可解释性团队」的主管,研究如何使AGI安全,并弄清模型如何以及为什么这样做。


论文地址:https://arxiv.org/pdf/2206.05802

OpenAI高层变动,频繁换血

近期,OpenAI还经历了其他高管的变动。

上周,Information报道称,OpenAI两位高级高管已经离职——人事副总裁Diane Yoon和非盈利及战略倡议负责人Chris Clark。


这两人辞职,是在Altman离职风波后,由负责管理OpenAI的非盈利董事会再次聘用Altman的背景下发生的。

而这些事件,从另一个侧面突显了OpenAI独特的企业结构。

据称,这两位高管都是开发ChatGPT的团队中,任职时间最久的管理人员。

OpenAI发言人Kayla Wood在一份声明中表示,Yoon将在今年剩余时间内继续担任公司的顾问角色。目前担任人力资源负责人的Julia Villagra将接替Yoon成为人事副总裁。

Yoon自2018年加入OpenAI,负责人事业务,见证了OpenAI员工数显著增长(去年末已超过700人)。


去年11月,Altman被赶下台,她还管理了一周的动荡期,当时许多员工因不满Altman被解雇而威胁辞职。

而Clark在OpenAI工作已经超过8年,他自2016年起担任公司首位首席运营官。

根据税务文件,他还在2016年至2017年间担任该非盈利组织的董事会成员。

Clark此前与Altman在Y Combinator及其支持的位置共享初创公司Loopt合作,后者由Altman于2005年共同创立并最终出售。

2022年5月,Clark担任了新的职务,负责领导OpenAI的非盈利部门及多个全球运营职能,包括房地产、工作场所和战略倡议。

Clark在给员工的一封信中表示,「经过八年的精彩岁月,我决定退一步,更多地关注我在OpenAI之外深爱的人和项目」。


或许,OpenAI内部正在上演一部「权利的游戏」。


参考资料:

https://x.com/SmokeAwayyy/status/1790607808800727545

https://www.theinformation.com/briefings/openais-chief-scientist-a-former-foe-of-ceo-altman-resigns-with-key-ally?rc=cmz1ru


本文标签: 离职  佩奇  agi  ilya  超级对齐  openai  埃隆_马斯克