大陆国安部微信公眾号23日发文,随着人工智慧技术发展,「深度偽造」(Deepfake)技术进入生活成为新兴技术工具,但也因为应用门槛低,高度欺骗性的视觉听觉偽造内容难以发现,让潜在安全风险凸显,示警应保护好个人隐私,特别是核心涉密职位人员,切勿将国家、商业秘密或个人隐私等敏感资讯输入相关技术软体中,不用网路传播涉密内容。

所谓的「深度偽造」技术是深度学习(Deep Learning)与偽造(Fake)的结合,利用人工智慧的深度学习演算法进行自动化的数据处理,进行图片、音讯及影片智慧类比和偽造,延伸包括影片、音讯与虚假网路身份偽造技术等,出现高度逼真且难以甄别的影音内容。

例如透过将提供的人物面部照片特徵「转换」到其他人物形象上,进而实现「改头换面」;又或藉由音讯偽造技术达到语音复制,高度模拟目标人物的声音。

大陆国安部撰文指出,深度偽造技术可能威胁国家安全和公共安全。深度偽造技术不仅会在一般行业得到应用,也有可能成为间谍情报机关进行认知战的新工具。随着深度偽造技术的发展,某些境外间谍情报机关可能进一步利用该技术反覆运算情报技术手段,展开招募策反、污蔑抹黑、混淆视听等活动。

#深度偽造 #大陆 #国安部 #间谍 #窃密