据一位前雇员透露,近期 OpenAI 公司约有一半的人工通用智能(AGI)/人工超级智能(ASI)安全研究人员选择离职,这可能与公司在管理潜在超级智能 AI 风险方面的分歧有关。
前 OpenAI 安全研究员丹尼尔·科科塔洛向《财富》杂志透露,包括一些知名领导者在内的约半数安全研究人员已经离职。
科科塔洛并未对所有离职者的动机进行评论,但他推测这与他自己的看法相符:OpenAI 在开发 AGI 方面已接近成功,但似乎并未准备好应对随之而来的所有挑战。
他指出,这导致了公司内部在发表有关 AGI 风险的研究时出现了“寒蝉效应”。他还提到,OpenAI 的通信和游说部门对什么内容适合发表有了越来越大的影响。
OpenAI 首席执行官山姆·奥特曼的临时解职也与安全问题有关,但在一家律师事务所为其辩护后,他得以复职。
在大约 30 名从事 AGI 安全问题研究的员工中,目前大约有 16 人仍在岗位上。科科塔洛表示,这些离职并非“有组织的行动”,而是员工“个人选择放弃”。
离职的知名人员包括 Jan Hendrik Kirchner、Collin Burns、Jeffrey Wu、Jonathan Uesato、Steven Bills、Yuri Burda、Todor Markov 以及 OpenAI 的联合创始人 John Schulman。
首席科学家 Ilya Sutskever 和 Jan Leike 的离职尤其引人注目,他们曾共同领导公司专注于未来 AI 系统安全的“超级对齐”团队,但该团队后来被解散。
尽管科科塔洛对 OpenAI 反对加州 SB 1047 法案表示失望,但他并不感到意外,该法案旨在规范高级 AI 系统的风险。他与其他人士联名致信州长纽森,批评 OpenAI 的立场,认为这是对公司最初计划彻底评估 AGI 长期风险并制定相应法规和法律的背叛。
“我们加入 OpenAI 是因为我们希望确保公司开发的极其强大的 AI 系统的安全性。但我们选择离开,因为我们不再相信公司能够安全、诚实、负责任地开发其 AI 系统,”他们在信中写道。
Leike 和 Schulman 转而加入了 OpenAI 的竞争对手 Anthropic,担任安全研究职位,该公司对 SB 1407 法案表示了一定程度的支持,尽管有一些保留。在离开 OpenAI 之前,Schulman 曾表示他相信 AGI 在未来两到三年内是可行的。Sutskever 则更进一步,成立了自己的初创公司,致力于开发安全的超级智能 AI。
值得注意的是,尽管这些研究人员离开了 OpenAI,但他们仍然致力于 AI 领域的工作。这表明他们对这项技术仍然抱有期望,但不再认为 OpenAI 是合适的工作场所。
本文链接:https://fsby.vip/chatgpt/90.html
chatgpt官网网页版chatgpt官网注册流程chatgpt官网视频chatgpt官网中文版手机版怎么使用官网原生chatgptchatgpt 官网怎样打开chatgpt官网桌面版使用教程chatgpt官网中文版能做什么chatgpt官网介绍chatgpt官网拒绝访问
网友评论