近年來,在巨量資料及雲端運算之驅動下,資料科學為企業帶來新一波的數位轉型衝擊,最大重點是基於大數據、物聯網及人工智慧(Artificial Intelligence, AI)等科技,使企業從過去主要憑直覺與經驗的決策模式,進化為藉由數據取得更精準的預測能力。有鑑於此,各個產業紛紛致力於蒐羅及保存資料,挖掘新經濟時代的金礦。然而,企業蒐集、保存的資料得靠一連串的處理與分析,才能真正變身為賦予企業洞燭機先能力的有用知識。因此,與他人合作開發及應用AI技術,往往是企業將「數據」變成「智慧」所不可或缺的下一步。此時,如何透過對現行法規的認識及契約約定的安排,儘可能地減少相關法律風險的實現可能性,即為重要課題。

AI軟體開發及應用所涉及之法律問題例示

一、蒐集、處理及利用原始數據之權限:

原始數據可以多種型態呈現,如照片、文字、影片、語音等,故可能牽涉的權利態樣也很多元,最常見者如著作權及個人資料保護等。先談著作權,若原始數據被認為是受著作權保護之著作,則將之利用於機器學習時,因往往涉及重製甚至改作等行為,故在現行法未將此種利用行為明文列舉為著作財產權限制態樣之一的情況下,除非構成著作權法第65條「合理使用」,否則即可能涉及著作權之侵害。

原始數據更常涉及個人資料。我國個人資料保護法採行「個資當事人知情同意」、「目的拘束」及「資料蒐集最小化」等原則;換言之,個人資料之蒐集、處理及利用,原則上必須充分告知當事人蒐集之「特定目的」並經當事人同意,且其後的處理及利用亦必須在蒐集「特定目的」之「必要範圍」內始得合法為之。然而,人工智慧可能運用的場景是隨著科技與商業模式的演進而不斷地改變與擴展,故蒐集資料時往往難以逆料其將來的利用態樣,更遑論明確告知當事人特定目的並取得其同意,再加上當事人同意之品質及有效性亦可能受到挑戰,因此,較諸「告知後同意」手段,建議應優先考慮原始數據得否「去識別化」。

二、AI軟體開發契約應訂明相關權利義務內容、責任歸屬及風險分配等事項:

AI軟體較諸一般電腦程式有下列特點:(一) AI模型開發係藉由推斷及試誤的方式進行,與傳統演繹法的電腦程式不同,本質上即蘊含可能無法順利找出數據間關係以完成開發之風險;(二) AI模型的開發得否順利完成及其預測精準度,與原始數據及訓練資料組之品質有極大關聯;(三) 開發完成的AI模型常有再利用於其它開發案件之需要。

鑑於上述特點,加上委託開發之用戶與供應商對於AI軟體開發契約的內容可能各有不同想像,但相關法律規範及實務見解卻有所欠缺而無從發揮補充功能,故以契約明確約定相關之權利義務內容、責任歸屬及風險分配實至為重要。

譬如,AI軟體開發過程中涉及許多項目的產出,包括:原始數據、訓練資料組、訓練程式、AI模型、輸入資料、AI輸出、know-how等。其中部分項目可能無任何法律明文規定何人在何種條件下得以利用,因此,若契約當事人希望對該等項目之利用權歸屬及使用條款有所釐清或限制,則必須在契約中約定清楚。

又如前述,AI模型本質上有無法順利開發完成的可能,故在著手嘗試之前,供應商也不知道能否生成符合用戶需求之AI模型;況AI模型可否開發完成及其預測效度,復與原始數據及訓練資料組之品質習習相關,而原始數據常多由用戶提供。因此,若AI模型未能完成開發或其預測效度不如預期時,契約雙方恐就有無債務不履行、有無瑕疵、應歸責何造及因果關係等事項發生爭執。因此,契約中關於AI模型的規格、驗收方式、未能完成開發或其效用未達通常或契約預定標準時如何認定責任歸屬及因果關係、報酬是否因而採分段給付模式等,均宜有清楚詳盡的約定,以資遵循。

三、AI軟體應用結果侵害權利或造成損害時之法律責任:

AI絕非百分之百安全之科技,從多起自駕車事故即可窺見一二。由於AI軟體自開發至應用階段參與者眾多,包括:原始數據提供者、訓練資料組製作者、用戶、供應商及與AI系統互動者等,故當執行AI軟體的結果侵害他人權利造成損害時,並不容易確認對外應承擔法律責任之主體。不過,縱使真正原因難以特定,只要受害人證明係起因於AI系統,透過民法第185條第1項後段所定「數人共同不法侵害他人權利而不能知其中孰為加害人」之「共同危險行為」理論及客觀化的過失標準,即有可能成功對AI系統端之所有參與者請求連帶負損害賠償責任。此外,在企業以AI軟體作為提供之商品或服務時,消費者即可能依消費者保護法第7條第3項請求負商品責任。從而,企業應用人工智慧時,自須留意AI技術應用結果可能侵害之權利及造成之損害,並為相關之準備或因應。

結語

AI技術為企業帶來新能力與新機會的同時,也附帶新挑戰與新風險;且AI技術涉及法律問題層面之廣,至少遍及民法、智慧財產權法、個資法、競爭法等領域。因此,企業在應用AI進行商業活動布局時,也莫忘了藉由專家的協助找出潛在的法律風險及研議消弭或減輕風險之道,讓企業更能快意馳騁在數位轉型的新戰場上!

#企業