Google推出第二代TPU:Cloud TPU,強調在邏輯推演的效能加速上,能讓人工智慧學習時,降低對CPU與GPU的依賴。
Google 為了強化基於深度學習的人工智慧發展,在先前推出針對 TensorFlow 演算法的加速器 TPU ,以硬體加速的方式提升深度學習中訓練的效能,而今天 Google 在 IO 大會宣布推出第二世代的 TPU ,稱為 Cloud TPU ,相較前一世代是針對訓練部分進行硬體加速, Cloud TPU 進一步加入邏輯推演的加速。
過往邏輯推演的部分仰賴 CPU與 GPU的大量效能,可想而知的是 Google 希望藉由 Cloud TPU 導入邏輯推演的能力,進一步降低對於 CPU 與 GPU 的需求,而每個 Cloud TPU 可提供達 180TFLOPS 的深度學習效能,同時 Google 也打造了新一代的相互連結高速網路架構,將 64 組 TPU 構成一套名為 TPU POD 的超級電腦系統,一組 TPU POD 可提供達 11.5PFLOPS 的深度學習效能。
Google 強調 TPU POD 效能相當驚人,相較於 32 顆搭載目前市場最頂尖的 GPU 加速器(沒意外應該是 NVIDIA 的 Tesla P100 )進行翻譯訓練一整天訓練的成果,現在只需要 1/8 個 TPU Pod 進行半天就能達到相同的精度成效。
Google 也在今日將 Cloud TPU 投入 Google Compute Engine 當中,與現行的 CPU 與 GPU 硬體加速架構進行混用, Cloud TPU 也可與這些硬體加速架構混用進行加速,這也意味著 Google 在第二代 TPU 導入邏輯推理能力後,也還不會貿然把全部的架構 TPU 化,而開發者可透過 GitHub 上的 TensorFlow 框架進行 Cloud TPU 開發應用, Google 也正導入僅需要修改少數代碼就可在 CPU 、 GPU 與 TPU 訓練深度學習模型的 high-level API 。