電信技術中心董事長李漢銘以I, Robot(機械公敵)電影中提到的機械人三守則為例,為第二場研討開場,點出如何讓AI發揮其應有的功能,而不會遭到誤用、惡用而對人類造成危害,是最重要的議題。而人工智慧應用由於結果難以預見,因果關係複雜及行為主體多樣化等特性,主要的法規調適議題會落在風險如何控制、責任之分配及損害如何填補。

對此,資策會科法所研究員王德灜援引各國案例,建議建立行為準則,增加透明性,以控制風險。並建立強制性保險,輔以基金保險體系,以應對複雜的責任分配,並確保有效損害填補。責任分配問題則可考慮援用現行民法中特殊侵權行為,降低舉證責任要求,限縮賠償額度。國立臺灣師範大學資訊工程學系教授林順喜則認為,可以從安全評估標準切入,先確保AI應用的安全性,再討論包括公司主管、研發人員、使用者等各種不同角色關於管理、設計、操作等責任;美國的「聯邦自動駕駛汽車政策」可為參考適例。

儘管交通大學電機系教授楊谷洋認為,目前人工智慧技術發展應不至大幅超越相關法制的規範。但日本東北大學前沿學際科學研究所助理教授翁岳暄認為機械人技術發展可能超越人類可控制的範圍,建議可以先給服務型機人法律地位。不過開南大學法律系助理教授楊秋敏認為,現行民法很難套用到機械人或AI之上,建議另立專法給予管控機制,而開放組織風險,則可藉由技術面加以解決。臺大電機系教授于天立亦認為,在AI進展到強人工智慧,具有意識之前,並不需要賦與其主體性。

#機械