AI深偽科技诈骗层出不穷,日前一间外商公司的执行长,接到英国母公司上司一通电话,要求他紧急将620万元台币匯至指定供应商的帐户,执行长认为自己对上司的声音相当熟悉不疑有它,随即派人转帐,事后才惊觉被骗,赫然发现上司的声音是透过声音转换(Voice Conversion)的技术偽造的。

警方表示,单纯的声音深偽的犯罪手法,对嫌犯来说更加容易,使民眾降低戒心而上当受骗,且深偽影像技术的进步,已经让眼见不一定为凭。

警方表示,最早「深偽」专用于替换人脸的软体名称,以「自动生成编码器」的深度学习系统为基础,以AI掌握对象特徵点,训练判别生成高度相似的脸孔影像或声音,目前「Deepfake」已经成为利用深度生成技术生成影像、声音、文字等多媒体内容的总称,包括脸部特徵变换、性别与年龄转换、图像风格转换。

随着近年来深度学习技术模型技术的快速发展,大幅提升做出高仿真内容偽造的效能,深偽技术变得更容易取得、偽造时间缩短、技术获取门槛变低的趋势,成为诈骗的犯罪手法,近期就有歹徒利用Deepfake影片诈骗金钱、感情的案例。

警方表示,在AI来临的时代,民眾遇到亲友或陌生人以影片或电话请求借钱或威胁匯款等,应以其他方式联繫当事亲友以多方联繫管道或拨打165反诈骗谘询专线查证,才能避免AI科技造成的危害及损失。

#声音 #技术 #AI #深偽 #执行长