Omdia首席分析师Mark Beccue指出,生成式AI无法从根本上解决AI面临的挑战——偏见、隐私、责任、一致性和可解释性(Interpretability),事实上,生成式AI在很大程度上加剧了这些问题。
举例来说,作为大多数生成式AI输出来源的大型语言模型(LLM)是根据公共资料所训练,这些资料可能包括有害语言或种族、性别、性取向、能力、语言、文化等方面的偏见内容,这意味着输出本身可能就有偏见或不当内容。另一个例子是,生成式AI输出不易解释。与大多数深度学习AI一样,其产出结果难以溯源。虽然可解释性是所有AI的挑战,但对于生成式AI输出,这项挑战更为艰鉅。因为根据定义,生成式AI所产出的内容是被「创造」出来的。
2023年将是生成式AI的早期市场阶段。Omdia预测,针对生成式AI的使用将在今年将涌现大量的创造性革新,然而,对于生成式AI的定义及其作用也会产生相对的疑惑。
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。