转载请注明出处: CHATWEB
本文的链接地址: https://chatweb.com.cn/post-121.html
在人工智能领域,安全问题一直是重中之重。然而,近期OpenAI的一系列变动引起了业内的广泛关注。据报道,这家专注于开发有益于人类的AI技术的公司,其AGI安全团队——专注于长期超级智能AI风险的研究小组——已经流失了近一半的成员。
前OpenAI治理研究员Daniel Kokotajlo透露,AGI安全团队的规模在过去几个月内从大约30人减少到了16人左右。这些研究人员原本的任务是确保未来的AGI系统的安全性,避免它们对人类造成潜在威胁。团队规模的缩减引发了人们对于OpenAI是否开始忽视AI安全性的担忧。
Kokotajlo强调,人员流失并非是有计划的集体行动,而是由于团队成员逐渐对公司的方向失去了信心。随着OpenAI越来越注重产品的开发和商业化,安全研究团队的规模缩减似乎成了一种必然趋势。
针对外界的担忧,OpenAI回应称,公司一直致力于开发最可靠、最安全的人工智能系统,并且坚信自身拥有解决潜在风险的有效科学方法。
今年早些时候,OpenAI的联合创始人兼首席科学家Ilya Sutskever宣布离职,他所领导的安全研究团队也随之解散。这些变动无疑加剧了外界对于OpenAI在安全性研究方面的担忧。
转载请注明出处: CHATWEB
本文的链接地址: https://chatweb.com.cn/post-121.html