站长之家(ChinaZ.com)12月19日信息: OpenAI是ChatGPT的开发者,他们制订了应答人工智能或者带来的严重风险的方案。该框架包含经常使用AI模型的风险记分卡来权衡和跟踪潜在危害的各种目的,以及启动评价和预测。OpenAI示意将依据新数据、反应和钻研始终完善和更新框架。
该公司的应答团队(PreparednessFRAMework)将雇仆人工智能钻研人员、计算机迷信家、国度安保专家和政策专业人员来监测技术,并始终测试并正告公司,假设他们以为任何人工智能才干变得风险。该团队位于OpenAI的安保系统团队和超对齐团队之间。前者努力于处置人工智能中的疑问,例如注入种族主义成见,然后者钻研如何确保在构想中的人工智能齐全超越人类智能的未来中,人工智能不会对人类形成损伤。
据悉,应答团队正在招聘来自人工智能畛域之外的国度安保专家,协助OpenAI了解如何应答严重风险。他们正在与包含美国国度核安保治理局在内的组织开展探讨,以确保公司能够适外地钻研人工智能的风险。
该公司还将准许来自OpenAI之外的合格、独立的第三方测试其技术。
OpenAI的应答框架与其关键竞争对手Anthropic的政策构成了显明对比。
Anthropic最近发布了其担任任裁减政策(ResponsibleScalingPolicy),该政策定义了特定的AI安保级别和相应的开发和部署AI模型的协定。两个框架在结构和方法论上存在清楚差异。Anthropic的政策愈加正式和规范,间接将安保措施与模型才干咨询起来,并在无法证实安保性时暂停开发。OpenAI的框架愈加灵敏和顺应性强,设定了触发审查的普通风险阈值而不是预约义的级别。
专家示意,这两个框架都有其好处和缺陷,但Anthropic的方法或者在处罚和口头安保规范方面更具好处。一些观察人士还以为,OpenAI在面对对GPT-4等模型的极速和保守部署后,正在赶上安保协定方面的上班。Anthropic的政策之所以具备好处,局部要素是它是主动开发而不是主动应答。
无论差异如何,这两个框架都代表了人工智能安保畛域的关键停顿。随着人工智能模型变得越来越弱小和遍及,上游试验室和利益关系者之间在安保技术上的协作和协调如今是确保人工智能对人类的有益和品德经常使用的关键。
(揭发)
标签: 以保证AI安保、 OpenAI发布ChatGPT安保框架、本文地址: https://yihaiquanyi.com/article/a839178844fea427f15f.html
上一篇:华为nova12系打造移动影像风向标华为nova12...