科技部於5月11日邀請臺灣大學人工智慧技術暨全幅健康照護聯合研究中心(簡稱臺大AI中心)的徐宏民教授團隊,首度發表在科技部的支持下所開發出的可解釋性人工智慧(Explainable AI ,XAI)模組xCos,除了具備高度人臉辨識能力外,更關鍵突破打開AI的黑盒子。這項技術不僅協助國內外相關業者開發AI辨識技術、明白AI決策建議背後的理由,更大幅提升人類對於使用AI的信任度。

科技部自2017年宣布人工智慧(AI)科研戰略,引導臺灣成為AI發展重鎮,於2018年起補助臺灣大學(核心技術與生技醫療)、清華大學(智慧製造)、交通大學(智慧服務)及成功大學(生技醫療)成立AI創新研究中心。部長陳良基表示,「可解釋性AI模組xCos」該研究成果在近年世界各國強調AI透明度的當下,讓系統直接告訴我們人臉判釋的相似度及背後原因,並正將XAI技術擴展到其他關鍵性的人工智慧決策,包括能源、醫學、工業製造等領域。

徐宏民教授說明,這套模組除了可供末端使用者了解人臉辨識結果的原因,更可協助開發人員探究及檢視系統的運作機制,該團隊為加速技術擴散與落地應用,所研發之可解釋性AI模組xCos可與其他人臉辨識系統作相互搭配,團隊亦已將這項技術以Open Source方式供國內外產學研單位使用,同時也將XAI技術擴展到其他關鍵性的人工智慧決策系統,如AI僅告知發電廠未來1小時是否要增加發電量,但XAI可以補充說明是因為預測氣候的改變或其他特殊原因等;AI可以說出X光片是否有肺炎徵兆,但XAI可更進一步指出病徵的位置,這些應用可強化對AI的信任,更可協助系統開發人員進一步檢視AI判斷是否合理,便於改善與強化AI模型。

#解釋性 #團隊 #科技部 #人臉辨識 #模組 #應用 #技術 #人工智慧 #xCos