从2022年底至今,科技界最热门的话题之一就是由OpenAI公司所开发的ChatGPT交谈机器人,尝试模仿人脑和模拟人类的交谈和写作的能力。
人类的大脑估计包含500~1000亿个神经元,这些神经元透过复杂的网络互相联络和触发。ChatGPT的类神经网络则有多达1750亿个参数,已达人脑神经元的规模,但这些参数的连结和其彼此的关系则不如人脑的复杂,所以或许在推理或同理心等需要复杂神经元连接网络的能力尚不如人类,但因电脑记忆不会失效,所以在资料的记忆上是远超过人类的。
人类大脑透过和环境的接触和教育来训练,当遇到事情需要处理时,大脑就启动网络的相关部分,如过去经验的网络来寻求答案。ChatGPT也需要训练和学习,人类喂给它的资料包括相等于5700亿字元的文字资料、上亿个符号资料,主要包括网路所有网页资料、维基百科和上万本书的语料库。而且因为它有完美的记忆,所以看过就记住,当问他问题时,或许它已经看过类似的问题和答案,如果没有,它可从类似的资料中编出一份答案。
看到ChatGPT的热潮,国科会也说要发展台湾的ChatGPT,以避免ChatGPT的「偏见」。问题是聊天机器人技术背后的大型语言模型需要大量资料的训练,还有后续维护所需要的电脑计算资源,台湾是否可以负担得起?与其花费大量力气建立台湾的ChatGPT,倒不如将资源用在如何利用ChatGPT让台湾各方面都能获益。例如政府各机关目前的网站有哪些可提供交谈式机器人来解答民眾的疑惑,先把这些小的ChatGPT建起来绝对要比建国家的ChatGPT重要。
既然ChatGPT是从现成的网路大海和书本中学习,虽然有些资料会事先标注为有偏见或错误,但资料量毕竟太大,不可能请人一一标注,所以ChatGPT就难免会学习到一些错误或带有偏见的内容,因此在回答问题时也就不可能完全正确可信。这就正如「尽信书不如无书」。
所以「尽信ChatGPT不如无ChatGPT」,对于ChatGPT给的答案,我们必须先怀疑其正确性,尤其用在攸关重要事情的地方。但在人工智慧的风潮下,加上媒体的炒作,某些人可能只好拿ChatGPT的答案来当成最终的答案,未来的世界将会真假难分矣!
而且第一版的ChatGPT只是个开始,下一版的ChapGPT绝对会更聪明,未来人类如何自处和维持人类的尊严,这才是更须深思的问题!(作者为前国立台北商业大学校长)
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。