生成式人工智慧(GAI, Generative AI)的快速崛起引起了社會各界的興奮和擔憂,雖然這項技術有望在從創意工作到科學研究等領域帶來革命性的進步,但它也帶來了一系列的倫理挑戰。

圍繞GAI的道德困境核心是三個基本問題:未經授權使用受版權保護的資料進行模型訓練、GAI回答有時是虛假或錯誤的以及AI能源消耗對環境的驚人影響。這些是GAI根深柢固的問題,一些專家將它們描述為威脅整個領域道德合法性的「原罪」。

第一個也許是最廣為人知的道德問題是未經許可廣泛使用受版權保護的材料來訓練AI模型。開發大型語言模型和其他GAI的公司從網路上收集了大量文字、圖像和其他內容,通常不考慮版權或智慧財產權。這種做法引發了藝術家、作家、音樂家和其他創意人士的大量訴訟和強烈抗議,認為自己的作品在未經同意或補償的情況下被盜用。

困擾GAI的第二個主要道德問題是助長虛假信息的氾濫,如最近美國總統大選的辯論,有假消息說CNN轉播不是即時播出,而是會遲個幾秒以便對辯論內容編輯剪接,雖然是假消息,但一些GAI卻無法分辨真假而做出錯誤的回答。AI會延續甚至有時放大訓練資料中存在的偏見和錯誤,從而導致招聘、醫療、貸款和刑事司法等領域的歧視性和錯誤性的結果。

圍繞生成人工智慧的第三個關鍵倫理問題是其嚴重的環境影響。隨著科技公司競相開發更大、更強大的AI模型,訓練和執行這些系統的能源需求正在飆升。AI資料中心消耗的電力比一些國家還多,而且這一趨勢預計在未來幾年只會加速。

隨著GAI不斷發展並融入社會的各個方面,解決這些倫理挑戰變得越來越迫切。建議的解決方案包括:

1. 為AI訓練中使用受版權保護的內容製定明確的指導方針和法律框架,平衡AI發展的需求與內容創作者的權利。

2. 對AI資料標註勞工實施公平的勞動條件,包括提高薪資、心理健康支援以及限制接觸有害內容。

3. 投資研發更節能的AI架構,研發資料中心的永續能源解決方案。

4. 提高AI開發流程的透明度,並促進有關AI道德影響的公眾對話。

5. 鼓勵AI倫理討論,不是單面聽科技公司提供的敘述,並納入哲學家、社會科學家和受影響社區的見解。

6. 開發強大的測試和審計機制,以在部署AI前識別並減少系統中的錯誤和偏差。

7. 提升數位素養和批判性思考,幫助大眾更好地理解和判斷AI產生的內容。

GAI面臨的倫理挑戰是複雜且多方面的,需要技術專家、政策制定者、倫理學家和公眾的共同努力來解決,否則生成式AI恐怕變成另一種GAI,怪誕式AI(Grotesque AI)呀!

(作者為台北商業大學前校長)

#AI #GAI #倫理 #內容 #問題