Omdia首席分析师Mark Beccue指出,生成式AI无法从根本上解决AI面临的挑战——偏见、隐私、责任、一致性和可解释性(Interpretability),事实上,生成式AI在很大程度上加剧了这些问题。

举例来说,作为大多数生成式AI输出来源的大型语言模型(LLM)是根据公共资料所训练,这些资料可能包括有害语言或种族、性别、性取向、能力、语言、文化等方面的偏见内容,这意味着输出本身可能就有偏见或不当内容。另一个例子是,生成式AI输出不易解释。与大多数深度学习AI一样,其产出结果难以溯源。虽然可解释性是所有AI的挑战,但对于生成式AI输出,这项挑战更为艰鉅。因为根据定义,生成式AI所产出的内容是被「创造」出来的。

2023年将是生成式AI的早期市场阶段。Omdia预测,针对生成式AI的使用将在今年将涌现大量的创造性革新,然而,对于生成式AI的定义及其作用也会产生相对的疑惑。

#AI #生成式 #挑战 #Omdia #输出