文章预览
点击 上方 蓝字 关注我们 据一位前雇员透露,近期 OpenAI 公司约有一半的人工通用智能(AGI)/人工超级智能(ASI)安全研究人员选择离职,这可能与公司在管理潜在超级智能 AI 风险方面的分歧有关。 前 OpenAI 安全研究员丹尼尔·科科塔洛向《财富》杂志透露,包括一些知名领导者在内的约半数安全研究人员已经离职。 科科塔洛并未对所有离职者的动机进行评论,但他推测这与他自己的看法相符:OpenAI 在开发 AGI 方面已接近成功,但似乎并未准备好应对随之而来的所有挑战。 他指出,这导致了公司内部在发表有关 AGI 风险的研究时出现了“寒蝉效应”。他还提到,OpenAI 的通信和游说部门对什么内容适合发表有了越来越大的影响。 OpenAI 首席执行官山姆·奥特曼的临时解职也与安全问题有关,但在一家律师事务所为其辩护后,他得以复职。 在大约 30
………………………………