OpenAI新发《防范AI风险指导方针》:董事会有权阻止新AI模型发布

据互联网消息,当地时间周一(12月18日),人工智能AI)研究公司OpenAI公布了一套关于防范AI风险的指导方针,其中值得关注的一条规则是,即使CEO等公司领导层认为AI模型是安全的,董事会也可以阻止其发布。

OpenAI新发《防范AI风险指导方针》:董事会有权阻止新AI模型发布

OpenAI开发的聊天机器人ChatGPT已经发布了一整年,这款现象级应用极大促进了AI领域的发展,与之而来的还有对AI发展失控的担忧。

全球监管机构都在制定各自的AI法规,而作为AI领域领头羊的OpenAI也在采取行动。

近日,OpenAI宣布成立名为“准备”(Preparedness)的安全团队,希望最大限度地降低AI带来的风险。该团队由麻省理工学院的可部署机器学习中心主任Aleksander Madry领导,将针对各类AI模型进行能力评估及红队测试,以追踪、预测及防范各类别的灾难性风险。

OpenA于当地时间周一I发布了名为“准备框架”(Preparedness Framework)的指导方针,并强调这套指南目前仍处于测试阶段。

据悉,“准备”(Preparedness)团队每月将会向一个新的内部安全咨询小组发送报告,随后该小组将对其报告进行分析,并向OpenAI首席执行官山姆·奥特曼和董事会提交建议。奥尔特曼和公司高层可以根据这些报告决定是否发布新的AI系统,同时董事会有权撤销这一决定。

OpenAI联合创始人之一的奥特曼在此前的一场人事巨震中被除名,并且一度离开OpenAI,但最终得以重返OpenAI并继续担任CEO一职。然而,新组建的“初始”董事会并没有他的席位。

值得一提的是,Preparedness团队将会对OpenAI最先进、尚未发布的AI模型反复评估,并根据不同类型的感知风险评为四个等级【“低”、“中”、“高”和“严重”】。根据新的指导方针,OpenAI目前将会只推出风险评级为“低”和“中”的AI模型,确保避免安全性风险问题。

这一系列举措表明OpenAI对AI安全性问题的重视,并在积极采取行动,以确保AI技术的安全和可持续发展。

© 版权声明

相关文章

暂无评论

暂无评论...