NVIDIA 闡述人工智慧技術: AI 已是進行式、 GPU 是具高度彈性且全面的 ASIC

2017.09.15 04:46PM
是NVIDIA 闡述人工智慧技術: AI 已是進行式、 GPU 是具高度彈性且全面的 ASIC這篇文章的首圖

雖然 NVIDIA 即將在十月下旬舉辦 GTC 台灣場次,不過稍早台灣 NVIDIA 仍請來解決方案架構育工程部門副總 Marc Hamilton 針對目前 NVIDIA 在人工智慧相關領域的技術發展與現狀進行簡介; NVIDIA 是以 GPU 技術為發展基礎的晶片商,是如何與人工智慧熱潮產生關連的?關鍵在於 NVIDIA 在相當早就開始發展 GPU 運算,而透過 GPU 運算技術發展日趨成熟, NVIDIA 耕耘已久的 CUDA 核心技術也廣被業界導入,成為當前新一代基於機械神經網路的深度學習基礎。

 

不過現在在深度學習與人工智慧領域,也有不少廠商推出基於 FPGA 或是專用加速器的解決方案, NVIDIA 又怎麼看這些競爭對手的產品呢? Mr. Hamilton  表示, GPU 本身就是相當龐大且複雜的 ASIC ,具備高度的可程式化彈性,相較其它競爭對手所提供的解決方案不僅架構更完整,同時也在軟體與開發環境有良好的基礎;舉例來說, Google的 TPU 雖是針對 FP16 最佳化的加速器架構,可於推理時提供最佳的效率,但在深度學習的訓練部分卻不僅止於 16bit ,在 16bit 外仍需仰賴其它更完整的加速架構,故 Google 也購買大量的 GPU 作為人工智慧使用。

是NVIDIA 闡述人工智慧技術: AI 已是進行式、 GPU 是具高度彈性且全面的 ASIC這篇文章的第1圖

在結合產業這點, NVIDIA 也將打造 DGX 系統的經驗轉移到產業上,提出 HGX 的概念,讓伺服器廠商,服務商可藉由 HGX 平台打造適合它們伺服器架設環境的系統平台。

是NVIDIA 闡述人工智慧技術: AI 已是進行式、 GPU 是具高度彈性且全面的 ASIC這篇文章的第2圖

而在實際應用面, Mr. Hamilton 舉出通用電器的 GE AVITAS 為例,通用電器做為工廠設備供應商,以基於 NVIDIA 的架構,透過部屬大量感測器、 Tegra 做為端點感測,同時在工廠端與雲端伺服器使用 DGX 系統,藉此作為智慧工廠的架構,相較過去的智慧工廠容易誤判感測器警報造成不必要的通知, GE AVITAS 透過深度學習的方式,讓系統對於感測器通部的判斷更正確,使系統能夠依照深度學習從感測器錯誤回報情況研判正確性,減少智慧工廠的錯誤通報率。

是NVIDIA 闡述人工智慧技術: AI 已是進行式、 GPU 是具高度彈性且全面的 ASIC這篇文章的第3圖

是NVIDIA 闡述人工智慧技術: AI 已是進行式、 GPU 是具高度彈性且全面的 ASIC這篇文章的第4圖

是NVIDIA 闡述人工智慧技術: AI 已是進行式、 GPU 是具高度彈性且全面的 ASIC這篇文章的第5圖

同時 NVIDIA 也展示了幾項與深度學習相關的應用,包括透過深度學習學習畫作並在影像中臨摹處理的 Style Transfer ,且在伺服器端使用的結果可移轉到同樣具備 CUDA 的架構上,這項功能也被應用於 Ansel 遊戲截圖,讓玩家在遊戲中可套用 Style Transfer 提供有趣的遊戲截圖;另外也包括都市監控、自動駕駛的展示。

是NVIDIA 闡述人工智慧技術: AI 已是進行式、 GPU 是具高度彈性且全面的 ASIC這篇文章的第6圖

此外比較難得的是 NVIDIA 首度在台灣展示針對機器人開發的 ISSAC 平台,透過 VR 裝置與虛擬的機器人互動,作為訓練機器人的手段,更重要的是可在實際生產機器人前先在虛擬環境中完成訓練,減少在實際環境中因為錯誤操作造成機器人毀損的問題。