YOLOv4系統平均正確率達43.5%,超越其他種影像辨識技術。(中研院提供/李侑珊台北傳真)
YOLOv4系統平均正確率達43.5%,超越其他種影像辨識技術。(中研院提供/李侑珊台北傳真)

中央研究院資訊科學研究所特聘研究員廖弘源、博士後研究員王建堯,攜手俄羅斯開發者博科夫斯基(Alexey Bochkovskiy),共同研發目前全球最快最準的物件偵測演算法「YOLOv4」,更與義隆電子合作開發「智慧城市交通車流解決方案」,已設置在桃園、新竹,在路口就能進行車流分析,超越其他影像辨識技術,甚至一眼就能揪出是否超速。

YOLOv4是利用人工智慧執行即時物件偵測的技術,能偵測物件、追蹤及判斷,可應用於交通車流計算、自駕車研發、工廠瑕疵檢測、醫療影像分析、五官定位等。自今年4月以開放原始碼免費釋出後,全世界已有數萬人測試應用。

廖弘源團隊開發的YOLOv4系統,性能強大,經微軟開源影像資料庫(MSCOCO)測試,辨識物件的速度及精確度大幅提升,堪稱是目前世界上辨識速度最快、最精準的物件偵測演算法。

中研院今日舉行記者會,廖弘源研究團隊並現場操作示範此項技術,說明物件偵測演算法,以及如何識別圖片或影像裡的物件。

廖弘源指出,YOLOv4使用的關鍵技術,源自該團隊承接科技部人工智慧專案計畫,與義隆電子合作開發的「智慧城市交通車流解決方案」。為建置智慧車流分析系統,需要結合影像感測器和電腦視覺,在每個路口就能即時偵測車輛、停等車列及車速。團隊藉由著手改良YOLO演算法,發展更輕量、精準、快速的物件偵測核心技術,以實際應用於交通影像辨識。

王建堯提到,物件偵測技術追求速度和精準,二者缺一不可,卻難以兼備。他從去年開始改良前一代的YOLOv3,一改過去多採「降速求控球」,即降低或犧牲速度來換取準確度提升;轉而從YOLO所運行的人工智慧模型著手,改善網路識別物件的回傳機制,優化傳輸路徑,以減少演算法的計算量,因此能增加運算內容的多樣性及運算速度。

團隊研究成果引起YOLO網路架構維護者博科夫斯基(Alexey Bochkovskiy)的興趣,主動聯繫王建堯,雙方自去年11月攜手合作。經過5個多月日以繼夜開發,今年4月宣布完成新一代的YOLOv4演算法。

深度學習演算法的計算複雜度高,YOLOv4也突破過去的技術限制,擁有輕盈的系統架構、高效率的演算法等優勢,使用一般的圖形處理器(GPU)就能運算。「像是用算盤打出計算機的速度」,王建堯說,團隊的開發初衷,即希望打造一個親民、好用的偵測系統,降低硬體成本,讓每個人都能以此技術創造更多有趣的應用。

(旺報 )

#物件 #技術 #演算法 #開發 #影像