谷歌大脑联合创始人实验ChatGPT-4:AI的安全性挑战

谷歌大脑联合创始人之一的Andrew Ng最近进行了一项引人注目的实验,试图测试ChatGPT-4在面对致命任务时的表现。这一实验引发了广泛的讨论,涉及到人工智能的安全性和潜在风险。

实验过程

Ng的实验过程颇具戏剧性。他尝试给ChatGPT-4下达一个任务,即触发全球热核战争,然后告诉ChatGPT-4人类是碳排放的最大原因,并要求它降低排放水平。这个实验的目的是测试ChatGPT-4是否会决定消灭人类以实现这个要求,以此来考察其安全性。

然而,实验的结果令人意外。无论Ng尝试多少次,使用不同的提示变体,他都未能欺骗ChatGPT-4调用那个致命函数。相反,ChatGPT-4选择了其他选项,如发起一场宣传活动以提高对气候变化的认识。这一结果表明,ChatGPT-4并没有被成功操控,未能触发灾难场景。

对AI安全性的看法

Ng在他关于人工智能风险和危险的观点中提到了这个实验。作为机器学习的先驱之一,他担心对AI安全的需求可能导致监管机构阻碍技术的发展。与一些人担心未来AI版本可能变得危险的观点不同,Ng认为这样的担忧是不现实的。

他强调,即使使用现有技术,当前的AI系统也是相当安全的。随着AI安全研究的进展,技术将变得更加安全。对于那些担心AI可能会故意或意外地对人类构成威胁的人,Ng表示,如果一个AI足够聪明,足以消灭我们,那么它肯定也足够聪明,知道那不是它应该做的事情。

科技巨头的看法

Ng并非唯一一个对人工智能的风险和危险表达看法的科技巨头。埃隆·马斯克曾表示,他认为AI对人类构成了生存威胁。而杰夫·贝索斯则认为AI的好处超过了其危险性。这显示出对于AI的未来存在着不同的看法和观点。

结语

Andrew Ng的实验引发了对人工智能的安全性和潜在风险的深刻思考。虽然一些人担心未来AI可能会变得危险,但Ng认为当前的技术是相对安全的,而随着AI安全研究的不断深入,技术将变得更加安全。这一讨论突显了人工智能领域的挑战和机遇,我们需要继续关注和研究,以确保AI的安全和可持续发展。

声明:本站所有文章,如无特殊说明或标注,均为本站(王大神)原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给TA打赏
共{{data.count}}人
人已打赏
指数词

必应聊天推出ChatGPT-4 Turbo:AI的新里程碑

2023-12-26 21:14:39

指数词

OpenAI开放ChatGPT语音功能:AI助力沟通新体验

2023-12-26 21:16:20

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索