近年来,随着生成式AI的迅速崛起,AI搜寻工具逐渐取代传统搜寻引擎,成为民眾获取资讯的新途径。但一份由哥伦比亚大学新闻学院发表的最新研究却揭露出目前主流的AI搜寻工具在资讯引用上错误率竟高达6成之多,这一结果对整个AI产业与资讯传播环境无疑是当头棒喝。
这份引发科技界关注的研究,以8个主流AI搜寻工具进行测试,包括OpenAI旗下的ChatGPT Search、Google的Gemini、Perplexity、微软的Copilot以及xAI公司推出的Grok系列等。研究者选择了200篇真实新闻文章的摘录,以这些摘录要求AI工具辨识原始文章的标题、出版社、出版日期及网页连结。结果这些被寄予厚望的AI搜寻引擎却频频出错,其中错误率最高的Grok-3 Search竟达94%,微软的Copilot则有约7成的错误率,即使如同市场明星一般的ChatGPT Search,也达到近6成的错误引用。
更令人担忧的是,AI搜寻工具在面对缺乏确切资讯的情况下,不仅没有拒绝回答,反而自信满满地「杜撰」资讯。这种被称为「幻觉」(hallucination)的现象,并非单一厂商的特例,而是普遍存在于现有的AI搜寻引擎之中。
更进一步而言,这些AI工具还牵涉到道德及法律层面的争议。研究指出,部分AI搜寻工具无视网站设定的机器人排除协议(Robot Exclusion Protocol),擅自索取那些被明确禁止存取的内容,进而引发内容版权与隐私争议。这种行为不仅侵犯出版商权益,更进一步损害使用者对AI科技的信任。
面对如此高的错误引用率与道德争议,AI产业与科技巨头们似乎仍未提出具体且令人满意的解决方案。以Google为例,这家坐拥逾18万名员工的科技大厂,曾经自称为「AI-first」,多年来也不断强调AI的重要性,但Google旗下的Gemini更是有超过半数的引用是错误或虚假的连结。
当大眾越来越依赖这些AI工具进行知识获取与判断时,高错误率将带来严重的资讯污染,造成用户的误解甚至误判。尤其年轻一代使用者,倘若持续将AI视为唯一且便利的资讯来源,可能导致他们缺乏基本的资讯辨识与批判性思考能力。
对于出版业与内容产业而言,这种侵权行为不仅造成流量与收入的流失,更破坏了版权内容产业原本的商业模式与经济循环,从长远来看将进一步削减专业新闻媒体的生存空间。
综观上述现象,AI搜寻工具的问题已不再只是技术缺陷,更是牵涉到伦理道德、商业生态与使用者教育的全面问题。当这些AI工具已然进入大眾生活并改变了资讯的传播方式,相关企业必须立即承担起社会责任,加强资讯引用的准确性与透明度,同时严格遵守内容授权协议。
我们也必须重新思考AI在社会中的定位与功能,AI科技的初衷是辅助与扩展人类能力,而非取代人类的思考与判断。面对科技的快速演进,培养公民批判性的资讯素养,提倡多元资讯来源,才是防范AI错误资讯泛滥的最佳解方。
AI搜寻工具的兴起原本是要提供人们更便利、更智慧的搜寻体验,但现在看来,距离真正达到这一愿景还有很长的路要走。在此之前,用户与科技业者都必须时刻谨慎、保持怀疑,才能避免被这些充满「自信错误」的资讯误导,深陷于虚假资讯的泥沼中。(作者为台北商业大学前校长)
※以上言论不代表旺中媒体集团立场※
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。