由于部分研究人员担心,AGI可能逃脱人类控制并对全人类构成生存威胁,因此OpenAI自成立以来就雇用了大量研究人员,专注于「AI安全」领域。根据Kokotajlo的说法,这支队伍最近正因辞职而人数锐减,其中包括OpenAI联合创始人、ChatGPT架构师John Schulman和Scaling Law论文共同作者之一Jeffrey Wu。John Schulman已入职Anthropic,Jeff Wu的领英显示他7月已离职,目前未透露去向。此外,离职的还包括以下员工:- Jonathan Uesato,GPT-4o的核心贡献者之一,曾在DeepMind Gemini团队工作- Jan Hendrik Kirchner,GPT-4技术报告的共同作者之一,8月已入职Anthropic- Yuri Burda,已在OpenAI任职8年,今年7月后离职并加入Anthropic- Todor Markov,GPT-4o的核心贡献者之一,已在OpenAI任职近6年,今年6月离职- Steven Bills,曾参与ChatGPT的开发,已加入AnthropicKokotajlo本人是一名哲学专业的博士生,于2022年加入OpenAI担任治理研究员,并于4月辞职,因为他对公司在「构建通用人工智能系统方面的负责任行为失去了信心。」他在接受采访时表示,2024年出现了缓慢而稳定的离职潮。大约30名AI安全方面的员工中,现在只剩下16人左右。「(离职潮)并不是一个协调一致的事情,我认为只是大家在个体层面上放弃。」这些离职背后的意义可能不止于科技公司中常见的跳槽。这可能说明,OpenAI对技术风险的谨慎程度逐渐滑坡,以及奥特曼主导的盈利动机可能导致危险行为。根据The Information之前的披露,。因此,奥特曼强烈的盈利动机也是事出有因。纽约时报在今年6月的报道中也提到,Kokotajlo认为科技巨头们开发AGI的竞赛是鲁莽的。