AI深偽科技诈骗层出不穷,日前一间外商公司的执行长,接到英国母公司上司一通电话,要求他紧急将620万元台币匯至指定供应商的帐户,执行长认为自己对上司的声音相当熟悉不疑有它,随即派人转帐,事后才惊觉被骗,赫然发现上司的声音是透过声音转换(Voice Conversion)的技术偽造的。
警方表示,单纯的声音深偽的犯罪手法,对嫌犯来说更加容易,使民眾降低戒心而上当受骗,且深偽影像技术的进步,已经让眼见不一定为凭。
警方表示,最早「深偽」专用于替换人脸的软体名称,以「自动生成编码器」的深度学习系统为基础,以AI掌握对象特徵点,训练判别生成高度相似的脸孔影像或声音,目前「Deepfake」已经成为利用深度生成技术生成影像、声音、文字等多媒体内容的总称,包括脸部特徵变换、性别与年龄转换、图像风格转换。
随着近年来深度学习技术模型技术的快速发展,大幅提升做出高仿真内容偽造的效能,深偽技术变得更容易取得、偽造时间缩短、技术获取门槛变低的趋势,成为诈骗的犯罪手法,近期就有歹徒利用Deepfake影片诈骗金钱、感情的案例。
警方表示,在AI来临的时代,民眾遇到亲友或陌生人以影片或电话请求借钱或威胁匯款等,应以其他方式联繫当事亲友以多方联繫管道或拨打165反诈骗谘询专线查证,才能避免AI科技造成的危害及损失。
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。