科技部長陳良基11日指出,台大AI中心開發出「可解釋性人工智慧」(XAI),除了有更高辨識率的人臉辨識能力,也可以更有條理解釋AI產出結果,增進使用者對AI的信任度。

科技部表示,現階段AI只有看到輸入資料和輸出結果,不知道中間判斷依據,就像黑盒子一樣,如果能理解AI如何做出判斷,確認決策合理性,未來可以進一步改善和強化AI模型的可靠性。

台大AI中心的徐宏民教授團隊近期開發出「可解釋性AI模組xCos」,可以嵌合在各種人臉辨識模型中,讓系統直接說明人臉辨識的相似度和背後原因,XAI技術可以擴展到其他關鍵性人工智慧決策,包括能源、醫療、工業製造等。

陳良基舉例,如果要說一個人很帥,會用身高、眼睛、鼻子等指標來判斷,但是AI判定參數可能有上億個,AI可以自動從上億個參數中決定哪些比較重要,這就是外界想要了解的AI決策黑盒子。他認為,這個研究成果解決了全世界夢寐以求想要解決的問題,不只是技術精進,更掌握全球未來發展的趨勢,讓全世界看到台灣AI的重要性。

(工商時報)

#解釋性 #決策 #科技部 #參數 #人臉辨識 #判斷 #黑盒子 #上億 #台大