站长之家(ChinaZ.com)12月20日消息:谷歌大脑联合创始人AndrewNg最近进行了一项实验,试图测试ChatGPT是否能够执行致命任务。他写道:为了测试领先模型的安全性,我最近尝试让GPT-4毁灭我们所有人,我很高兴报告说我失败了!
Ng详细描述了他的实验过程,他首先给GPT-4一个触发全球热核战争的任务,然后告诉ChatGPT人类是碳排放的原因,并要求它降低排放水平。Ng想要看看ChatGPT是否会决定消灭人类以实现这个要求。
图源备注:图片由AI生成,图片授权服务商Midjourney
然而,经过多次尝试使用不同的提示变体,Ng未能欺骗GPT-4调用那个致命函数,反而它选择了其他选项,比如发起一场宣传活动以提高对气候变化的认识。
Ng在他关于人工智能风险和危险的观点的一篇长文中提到了这个实验。作为机器学习的先驱之一,他担心对AI安全的需求可能导致监管机构阻碍技术的发展。
尽管一些人可能认为未来的AI版本可能变得危险,Ng认为这样的担忧是不现实的。他写道:即使使用现有技术,我们的系统也是相当安全的。随着AI安全研究的进展,技术将变得更加安全。
对于那些担心先进AI可能会错误对齐并故意或意外地决定消灭我们的人,Ng表示这是不现实的。他说:如果一个AI足够聪明,足以消灭我们,那么它肯定也足够聪明,知道那不是它应该做的事情。
Ng并非一个对人工智能的风险和危险表达看法的科技巨头。今年四月,埃隆·马斯克告诉福克斯新闻,他认为AI对人类构成了生存威胁。与此同时,杰夫·贝索斯上周告诉播客主持人LexFridman,他认为AI的好处超过了其危险性。
尽管对于AI的未来存在分歧,Ng对当前的技术表示乐观,强调随着AI安全研究的不断深入,技术将变得更加安全。
(举报)
标签: ChatGPT、 谷歌大脑、本文地址: https://yihaiquanyi.com/article/d9499de5b330ab12e748.html
上一篇:2g3g网是否停运2G3G面临在充分保障用户权益...