本文来自:财联社,作者:牛占林,头图来自:视觉中国


财联社5月18日讯,据媒体周五报道,在两位关键领导人离职后,OpenAI专注于研究人工智能(AI)生存危险的团队部分辞职或被其他小组吸收。


在接受采访时,OpenAI公司证实,该公司不再将所谓的“超级对齐”团队作为一个独立的实体,而是将该团队更深入地整合到其研究工作中,以帮助公司实现其安全目标。


在去年7月份,OpenAI宣布成立一个新的研究团队“超级对齐”,要用AI监督AI的方式,解决超智能“AI对齐”问题。“AI对齐”的意思是,要求AI系统的目标要和人类的价值观与利益相一致。公司创始人之一伊利亚·苏茨克沃被任命为团队共同负责人。


而现在AI风险团队解散是公司内部最近出现动荡的又一证据,也再次引发了人们对该公司在开发AI产品时如何平衡速度与安全的质疑。OpenAI章程规定,必须安全地开发通用人工智能(AGI),即可以与人类匹敌或超越人类的技术。


上个月,超级对齐团队两名研究人员因泄露公司机密而被解雇,另一名成员也在2月离开。到了本周二,伊利亚在社交平台X上宣布,他将在近十年后离开公司,相信在首席执行官奥尔特曼等人的领导下,能够打造出既安全又有益的通用人工智能。伊利亚此前与奥尔特曼就AI的发展速度发生过冲突。


随后,超级对齐团队另一位负责人Jan Leike也宣布离职。不过有知情人士声称,对Leike来说,伊利亚的退出导致分歧严重到了无法调和的地步。


Leike周五发布声明称,超级对齐团队一直在努力争取资源。“在过去的几个月里,我的团队一直在逆风航行。有时候我们在计算资源上挣扎,而且越来越难以完成这项关键的研究。”


他还表示,他的离职是因为他与OpenAI在公司的“核心优先事项”上存在一系列分歧,他认为,公司不够关注AI相关的安全措施。


OpenAI在周二宣布,公司联合创始人JohnSchulman将成为未来对齐工作的科学负责人。另外,OpenAI在一篇博客文章中表示,已任命研究总监Jakub Pachocki接替伊利亚担任首席科学家。


本文来自:财联社,作者:牛占林,头图来自:视觉中国