openai创始人士参与人工智能项目 (OpenAI-加强安全团队并赋予董事会对高风险人工智能的否决权)

文章编号:2781 更新时间:2024-01-13 分类:互联网资讯 阅读次数:

资讯内容

何,至少OpenAI正在采取行动来防范有害的威胁,并通过建立安全咨询小组和更新的预备框架来管理安全风险。

openai创始人士参与人工智能项目Ope

根据评估结果,如果模型被评估为具有高风险或关键风险,将采取相应的措施,如不部署或不进一步开发该模型。

最后,虽然OpenAI过去可能会吹嘘不发布高风险模型的做法,但现在他们正在考虑风险的现实性,并对此加以关注。

OpenAI还计划建立一个跨职能安全咨询小组,该小组将审查专家报告并提出高层建议,以便领导层和董事会做出决策。

他们的框架将不同模型分为四个风险类别进行评估:网络安全、说服力、模型自主性和CBRN。

这一举措旨在阻止高风险产品或流程未经董事会批准而获得发布的情况。

然而,关于领导层是否会使用否决权以及透明度问题,目前还没有明确的答案。

无论如何,OpenAI的努力表明他们正在积极应对安全问题。

标签: OpenAIAI头条ChatGPT人工智能

本文地址: https://yihaiquanyi.com/article/8e5808165f6a7486b56c.html

上一篇:鸿蒙打不开b站启动B站鸿蒙原生应用开发B站...
下一篇:问界m9丹霞橙配色官宣问界M9丹霞橙配色官宣...

发表评论