繪圖晶片大廠輝達(NVIDIA)執行長黃仁勳14日發表GTC 2020技術大會主題演說,說明NVIDIA在人工智慧及高效能運算(AI/HPC)、自主機器、醫療科技、電信系統等領域最新發展,同時宣布採用台積電7奈米製程的Ampere架構繪圖處理器(GPU)A100全面進入生產階段。

 黃仁勳表示,雲端運算與AI強大的趨勢,正在推動資料中心設計的結構性轉變,因此以前完全由中央處理器(CPU)組成的伺服器機海,如今只需GPU加速運算即可完成。NVIDIA最新A100 GPU代表20倍的AI效能提升,以及從資料分析、到訓練、再到推論的端到端機器學習加速器,這是業界首次可以在單一平台上加速橫向或縱向擴充的作業負載,A100將同時提升吞吐量,並降低資料中心的成本。

 A100汲取NVIDIA Ampere架構設計上的突破,為NVIDIA帶來八代GPU中有史以來最大的效能躍進,同時整合AI訓練與推論,效能較先前的GPU提升最高達20倍。作為通用型作業負載加速器的A100,也是專為資料分析、科學運算與雲端繪圖所打造。

 黃仁勳也同時宣布推出三款基於A100的超級運算產品線,分別是應用在雲端伺服器的HGX A100超大規模資料中心加速器構建模組、具備最強運算效能的DGX A100 Superpod超級電腦、以及搭載Mellanox高速網路的EGX A100邊緣運算AI平台。

 黃仁勳介紹NVIDIA第三代AI系統DGX A100,可提供5個Petaflops(每秒1000兆次浮點運算)的AI效能,首度把整個資料中心的運算力與功能整合成單一平台。DGX A100第一筆訂單來自美國能源部的阿貢國家實驗室,並運用該叢集的AI與運算力進一步瞭解並對抗新冠肺炎病毒。

 另外,EGX A100適用於大型商用伺服器等邊緣運算裝置,可用來管理機場中數百架攝影機。黃仁勳表示,物聯網和AI的融合掀起一波smart everything的革命,現今大型產業可提供智慧連接產品與服務,如同電話產業提供智慧型手機一樣。EGX邊緣AI平台將標準的伺服器轉變成微型雲端原生且安全的AI資料中心,企業將能打造從智慧零售、機器人工廠、到自動化客服等AI服務。