機器學習公平性摘要
機器學習公平性摘要

Google身為AI與機器學習領導者,對公平性非常重視,由AI首席研究員紀懷新率領團隊先針對圖像、文字與推薦系統做改善,目前已有13個成果導入現有產品中。

機器沒有情緒、沒有文化脈絡,不可能帶有偏見,但經由人類餵養大量資料訓練而成的演算法、AI模型,不僅很難不承襲人類想法與文化的習氣,更有可能因為將原有的偏見或歧視更加放大。

以去年底Google執行長Sundar Pichai親赴國會作證為例,只是為了解釋搜尋演算法沒有刻意打壓保守派言論,而在Google搜尋輸入「笨蛋」來搜尋圖片,第一個跳出來的就是美國總統川普,則是使用者眾志成城的結果,Google並無插手。都反映出「公平」與機器學習結合,是近年來AI界的熱門議題。

紀懷新表示,人類長期以來不自覺在許多方面都有偏見,比方說,覺得護士就是女性、醫生是男性,或是,美國車輛安全性測試與修正所用假人只以男性身型製作,導致女性在車禍中受重傷的比例比男性高47%,而早年攝影大廠柯達的膚色校準標準色卡皆為白人,黑人與黃種人被排除在外。

也因此,Google對機器學習的公平性重視度持續升高,紀懷新表示,Google已經有13個機器學習公平性的成果導入現有產品中,以Pixel手機與Google Clips攝影機的拍照功能為例,特別加強有色人種拍出來的成果,不過強化不是以「審美」的方式(比如自動美肌變白)進行,Google也盡量不要加入自己價值系統與判斷,更會避免創造、強化社會上已存在的偏見(如瘦才是美)。

他進一步表示,留言區、Google翻譯等,一個單字、一句話單獨存在,或處於一段文字之中,產生的正、反面意義完全不同,Google會特別運用機器學習來理解上下文/脈絡對原本中性的詞彙帶來的影響為何。

公平性可以做的項目太多,紀懷新表示,短期來說,圖片、文字與推薦系統是優先透過機器學習改善公平性的產品項目。他也表示,類似於「川普等於笨蛋」這類因為「用戶大數據」而產生的不公平,Google能不能即時偵測到系統因為用戶而起的偏見,是很大的挑戰,畢竟Google發表產品前的測試雖然已經盡量周全,然而用戶的創意超乎想像。

#川普