印度大选开票大致完成,莫迪执政联盟胜选但席次缩水,这次选举的一个问题就是选举中深度偽造(deepfakes)和操纵选民的影音益发普遍,AI生成的内容已在世界各地的政治运动和选举中大量出现,导致对民主过程的完整性以及虚假资讯和错误资讯破坏力的担忧。

在选举中使用AI生成内容是一个复杂的问题,需要从多个角度仔细考虑。AI建立的个性化内容可以增强政治运动的影响力,候选人和政党可以利用这些技术,根据不同受眾量身定做资讯,将演讲翻译成各种语言,并加上视觉效果和动画。但是同样的工具也可能被滥用来制作误导或彻底虚假的内容,从而破坏选举过程的公正性,让选民混乱。

缺乏全面的AI选举使用法规和保障措施加剧了这一问题,儘管一些AI公司已採取措施来防止产生错误资讯,但这些措施往往很容易被规避。还有许多公司将利润置于道德考虑之上,缺乏明确的指导方针和执法机制,让恶意行为者利用这些技术谋取私利。

AI生成内容可能会放大现有的偏见和两极分化,针对特定受眾量身定做资讯并强化某些叙事,AI也会助长回音效应,进一步加剧社会在政治上的分裂。这可能会导致公眾话语的混乱,削弱共同事实和客观现实的基础,最终破坏民主的根基。

AI本身并无善恶,关键在于使用的目的和背后的意图。儘管会被滥用,但AI也可以用于打击虚假资讯和错误资讯。例如AI驱动的事实核查系统和内容审核工具可以检测和标记深度偽造和其他被操纵的内容,为虚假资讯的传播提供剎车。

科技公司有责任将道德考虑和公眾利益置于短期利润之上,他们应投资开发检测和验证AI生成内容的强大系统,实施更严格的防止滥用工具的保障措施。

民间组织和独立监督机构在提高人们对AI生成内容在选举中的潜在风险的认识、宣导负责任的AI使用、以及让政府和企业负起责任方面可以发挥作用。

媒体素养和批判性思维让公民有能力了解AI生成内容,教育计画应着力于培养公眾认知,有能力评估深度偽造和被操纵内容,建立怀疑和查核事实的文化。

在选举中使用AI生成内容是一个影响深远的复杂问题,关系到民主过程的完整性和公眾对资讯来源的信任。解决这一挑战需要各利益团体共同努力,包括政府、科技公司、民间组织和公眾,制定健全的法规和道德准则、提高媒体素养和批判性思维,如此才可以发挥AI的益处,同时在选举时降低其潜在风险。

(作者为台北商业大学前校长)

#生成 #选举中 #工具 #公眾 #资讯