生成式人工智慧(GAI, Generative AI)的快速崛起引起了社会各界的兴奋和担忧,虽然这项技术有望在从创意工作到科学研究等领域带来革命性的进步,但它也带来了一系列的伦理挑战。

围绕GAI的道德困境核心是三个基本问题:未经授权使用受版权保护的资料进行模型训练、GAI回答有时是虚假或错误的以及AI能源消耗对环境的惊人影响。这些是GAI根深柢固的问题,一些专家将它们描述为威胁整个领域道德合法性的「原罪」。

第一个也许是最广为人知的道德问题是未经许可广泛使用受版权保护的材料来训练AI模型。开发大型语言模型和其他GAI的公司从网路上收集了大量文字、图像和其他内容,通常不考虑版权或智慧财产权。这种做法引发了艺术家、作家、音乐家和其他创意人士的大量诉讼和强烈抗议,认为自己的作品在未经同意或补偿的情况下被盗用。

困扰GAI的第二个主要道德问题是助长虚假信息的泛滥,如最近美国总统大选的辩论,有假消息说CNN转播不是即时播出,而是会迟个几秒以便对辩论内容编辑剪接,虽然是假消息,但一些GAI却无法分辨真假而做出错误的回答。AI会延续甚至有时放大训练资料中存在的偏见和错误,从而导致招聘、医疗、贷款和刑事司法等领域的歧视性和错误性的结果。

围绕生成人工智慧的第三个关键伦理问题是其严重的环境影响。随着科技公司竞相开发更大、更强大的AI模型,训练和执行这些系统的能源需求正在飙升。AI资料中心消耗的电力比一些国家还多,而且这一趋势预计在未来几年只会加速。

随着GAI不断发展并融入社会的各个方面,解决这些伦理挑战变得越来越迫切。建议的解决方案包括:

1. 为AI训练中使用受版权保护的内容制定明确的指导方针和法律框架,平衡AI发展的需求与内容创作者的权利。

2. 对AI资料标注劳工实施公平的劳动条件,包括提高薪资、心理健康支援以及限制接触有害内容。

3. 投资研发更节能的AI架构,研发资料中心的永续能源解决方案。

4. 提高AI开发流程的透明度,并促进有关AI道德影响的公眾对话。

5. 鼓励AI伦理讨论,不是单面听科技公司提供的叙述,并纳入哲学家、社会科学家和受影响社区的见解。

6. 开发强大的测试和审计机制,以在部署AI前识别并减少系统中的错误和偏差。

7. 提升数位素养和批判性思考,帮助大眾更好地理解和判断AI产生的内容。

GAI面临的伦理挑战是复杂且多方面的,需要技术专家、政策制定者、伦理学家和公眾的共同努力来解决,否则生成式AI恐怕变成另一种GAI,怪诞式AI(Grotesque AI)呀!

(作者为台北商业大学前校长)

#AI #GAI #伦理 #内容 #问题