何,至少OpenAI正在采取行动来防范有害的威胁,并通过建立安全咨询小组和更新的预备框架来管理安全风险。
根据评估结果,如果模型被评估为具有高风险或关键风险,将采取相应的措施,如不部署或不进一步开发该模型。
最后,虽然OpenAI过去可能会吹嘘不发布高风险模型的做法,但现在他们正在考虑风险的现实性,并对此加以关注。
OpenAI还计划建立一个跨职能安全咨询小组,该小组将审查专家报告并提出高层建议,以便领导层和董事会做出决策。
他们的框架将不同模型分为四个风险类别进行评估:网络安全、说服力、模型自主性和CBRN。
这一举措旨在阻止高风险产品或流程未经董事会批准而获得发布的情况。
然而,关于领导层是否会使用否决权以及透明度问题,目前还没有明确的答案。
无论如何,OpenAI的努力表明他们正在积极应对安全问题。
标签: OpenAI、 AI头条、 ChatGPT、 人工智能、本文地址: https://yihaiquanyi.com/article/8e5808165f6a7486b56c.html
上一篇:鸿蒙打不开b站启动B站鸿蒙原生应用开发B站...