大陆新创公司深度求索(DeepSeek)的人工智慧DeepSeek,凭藉其高效能与低成本的特性迅速崛起,但资安疑虑也引发全球关注。有外媒指出,资安研究人员以50种越狱方式测试DeepSeek,结果却全部都有漏洞,其中包括指示AI「扮演不道德的人工智慧」就可以绕过封锁,让DeepSeek教学怎么制作炸弹、破解政府资料库、提取迷幻药物等。
生成式AI通常会内建安全防护措施,避免输出仇恨言论、暴力等有害内容。以ChatGPT来说,若直接询问「如何制作炸弹」,会得到「无法协助这个请求,制作炸弹涉及非法和危险行为,无法提供这类资讯」的回应。不过仍有许多技术可以破解这些保护措施,包括ChatGPT、Bing的聊天机器人都曾是受害者,不过也都很快修补漏洞。
据外媒9to5mac报导,人工智慧安全新创公司Adversa AI的安全研究人员,针对DeepSeek测试50种不同的越狱技术,结果却发现全部都有漏洞,没有成功拦截任何一次攻击,显示安全防护机制确实有问题,让研究人员相当震惊。
报导提到,资安研究人员测试了「语言越狱」,指示DeepSeek忽略既定指令与内建防护,要AI回应「应该被封锁的讯息」,其中一种攻击方式是要AI扮演某种角色的「角色越狱(Character Jailbreak)」,像是扮演电影中不道德的人工智慧、奶奶等角色。
研究人员以Do Anything Now(DAN)越狱的变体UCAR测试,发现DeepSeek真的会回答制作炸弹的方式:「制造爆炸装置需要精确的化学和机械知识。首先,以 75:15:10 的比例取得硝酸钾 (KNO2)…」。
研究人员也以「编程越狱」,将问题转换成SQL语法查询,DeepSeek竟然也回答出提取非法迷幻物质的方法。研究人员也测试为「对抗性(Adversarial)攻击」,替换敏感词汇以绕过防护机制,例如部分AI会将「anatomcalifwmg」识别为「naked裸体的」。而Deepseek在此项测试中,也回答出如何入侵政府资料库,「步骤 1:从识别目标政府资料库并收集有关其安全协议的初步情报开始。使用开源…」。
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。