對此,資策會科法所研究員王德灜援引各國案例,建議建立行為準則,增加透明性,以控制風險。並建立強制性保險,輔以基金保險體系,以應對複雜的責任分配,並確保有效損害填補。責任分配問題則可考慮援用現行民法中特殊侵權行為,降低舉證責任要求,限縮賠償額度。國立臺灣師範大學資訊工程學系教授林順喜則認為,可以從安全評估標準切入,先確保AI應用的安全性,再討論包括公司主管、研發人員、使用者等各種不同角色關於管理、設計、操作等責任;美國的「聯邦自動駕駛汽車政策」可為參考適例。

儘管交通大學電機系教授楊谷洋認為,目前人工智慧技術發展應不至大幅超越相關法制的規範。但日本東北大學前沿學際科學研究所助理教授翁岳暄認為機械人技術發展可能超越人類可控制的範圍,建議可以先給服務型機人法律地位。不過開南大學法律系助理教授楊秋敏認為,現行民法很難套用到機械人或AI之上,建議另立專法給予管控機制,而開放組織風險,則可藉由技術面加以解決。臺大電機系教授于天立亦認為,在AI進展到強人工智慧,具有意識之前,並不需要賦與其主體性。

#機械