由于ChatGPT、新版的Bing搜索、谷歌的Bard和一大批基于大型语言模型交谈式机器人或搜寻工具的出现,人们对这些系统趋之若鹜,我们不得不开始担心它们的可能危害。

研究人员已经知道,对于其所不知道的问题,ChatGPT等会「一本正经的胡说八道」,因此大型语言模型对于搜索查询或任何其他问题的请求都有可能是错误的,但是这些大的科技公司决定,ChatGPT等人工智慧系统由于对话自然且具吸引力、其回答问题的能力,以及将这些模型与其他软体工具结合起来的潜力(无论是搜寻引擎还是为你订购演唱会门票),这些优点超过了不精确和错误回答的潜在风险。

当这些系统产生幻觉时,或者甚至只是从他们的训练资料中摘取错误资讯时,实际上可能会有真正的受害者。例如Stack Overflow是一个协助程式设计的网站,最近不得不禁止使用者提交使用ChatGPT生成的程式的答案,因为充斥着看起来合理但是错误的程式。很多科幻杂志也不得不停止接受投稿,因为太多人提交的故事并非出自他们自己的创意,而是出自ChatGPT。

人类已经学会了对来自其他人的建议保持怀疑,例如很多YouTube或脸书的教学内容,人们不会完全买单。然而当涉及到人工智慧系统如ChatGPT时,我们似乎都不会竖起怀疑的耳朵,让ChatGPT宰制我们的思想。

最近微软将ChatGPT结合到搜寻引擎Bing里面并开放试用,但出师不利变成负面宣传,包括聊天机器人自称Sydney、变得脾气暴躁,甚至变得极具敌意和威胁性等等,微软决定限制用户聊天的对话长度。但许多人发现,儘管这种对话长度限制明显使新的Bing更加安全,但也大大降低了其实用性。

对话长度限制明显是微软不得不实施的一种权宜之计,因为它在推出时没有进行足够严格的测试。谷歌的Bard也有相同的困境,回答出错误的答案,显然将不完全正确的ChatGPT结合到搜寻引擎是自讨苦吃,前途充满荆棘。

ChatGPT用来写程式或科幻小说或许无害,但万一人们问的是生病时要吃甚么药?错误的回答可能致命。或者像Sydney那样具有敌意和侮辱性回答,导致用户心理受创或自我伤害。

考虑到这些潜在的危害,政府是否应该介入并制定关于如何建立和部署这些人工智慧系统的明确规定。像欧盟提出的原始草案中提到的基于风险的方法的想法是一个可能的起点,但是风险的定义和这些风险评估不应该完全由科技公司自己来制定,必须有明确的外部标准和责任,否则憾事总有一天会发生。

(作者为台北商大前校长、叡扬资讯资深顾问)

※以上言论不代表旺中媒体集团立场※

#ChatGPT #错误 #对话 #Bing #人们