NVIDIA 刷新三項 AI 自然語言理解技術紀錄,包括最快訓練速度、最快推論速度與訓練最龐大模型紀錄

2019.08.13 09:00PM
Building, Technology, Door, iron, Architecture, Technology, Facade, Door, Window, Electronic device, Building, Glass, Metal

在當前 AI 相關應用當中,最多是基於影像辨識做為基礎的應用,另外一個領域則是自然語意會話交流的應用,然而能夠正確理解人類的語言並不容易, NVIDIA 在今日宣布其基於 GPU 加速的技術創下包括 BART 的訓練時間、最快辨識速度基處設施與達成訓練當前最大規模 BERT AI 模型的壯舉。

因為要能夠理解人類的自然語言實際上也是需要經過翻譯的過程,如何把人類自然語意敘述的內容正確的轉化為他們所表達的意義,是 AI 在自然語意會話所需的能力,但用於訓練自然語意辨識的模型相當龐大,基本的影像辨識模型約需要 2,600 萬筆參數,然而自然語意的複雜度需要更龐大的訓練參數,這也意味著訓練如此大規模的模型需要比起影像辨識更多的時間。

, Luigi Bertolli, Logo, Font, Desktop Wallpaper, Product, Brand, Computer, Sky, Meter, luigi bertolli, Blue, Text, Font, Sky, Azure, Logo, Brand, Electric blue, Technology, Screenshot

▲ BERT 全稱為 Bidirectional Encoder Representation from Transformers

Computer program, Angle, Screenshot, Line, Presentation, Computer, Font, Meter, multimedia, Text, Product, Font, Technology, Line, Screenshot, Electronic device, Animation

▲自然語意會話 AI 已經進入戰國時代

自然語意對話 AI 在 2017 年起由 Google 挑起戰火,而後陸續包括微軟、阿里巴巴、 Uber 、百度與 Facebook 等也都投入相關技術,畢竟自然語意對話可應用在相當廣泛的領域,諸如內容搜尋、語音助理、客服機器人、零售對話機器人等等,同時亦可作為各家技術大廠在 AI 技術力的展示。

Product design, , Product, Angle, Font, Presentation, Technology, Design, Brand, Meter, logitravel, Text, Font, Line, Brand, Architecture, Window

▲藉由 NVIDIA 新一代超級電腦 DGX SuperPOD 將 BART 訓練壓縮在一小時內

Font, Angle, Product design, Poster, Line, Brand, Design, Technology, Presentation, Product, soul eater demotivational posters, Text, Product, Font, Technology, Parallel, Screenshot

▲即便是大量伺服器模組進行訓練,性能仍呈現相當線性的增長

NVIDIA 此次所創下的第一項紀錄是打破 BERT 模型的訓練紀錄,透過 NVIDIA 架設在總部的新一代超級電腦 DGX SuperPOD ,一舉將 BERT-Large 訓練時間壓縮到 53 分鐘內,更難能可貴的是在增加大量的 GPU 後,性能仍呈現線性的增長,並未因為處理器的疊加而呈現衰竭,其關鍵在於 DGX SuperPOD 採用了 InfiniBand 技術使 DGX-H2 模組相互連接,使模組之間以高速通道相互連接,同時還具備容易擴充與建設的特性。即便以單一 DGX-2 系統進行 BERT-Large 訓練,仍能在 2.8 天內完成。

Product design, Brand, Font, Product, Technology, Green, Customer service representative, Customer, Customer Service, Angle, customer service rep, Text, Product, Font, Technology, Screenshot

▲透過訓練完成的模型,僅藉由 Tesla T4 16GB 就達到 2.2ms 的反應速度

另一項指標性的紀錄是達成高速推論速度的基礎建設,透過訓練完成的 BERT 模型導入到基於 NVIDIA Tesla T4 16GB GPU 的 AI 基礎設施,並搭配 TensorRT 執行,達到 2.2ms 的反應速度,遠勝過基於 CPU 伺服器的表現,更較業界普遍認定實用級的 10ms 推論速度還快。

Angle, Sound Alfeld, Point, Line, Screenshot, Second, Meter, Brand, Month, Alfeld, sound alfeld, Text, Line, Font, Slope, Technology, Diagram, Parallel, Screenshot

▲ NVIDIA 此次亦完成 83 億筆參數模型訓練的偉業

第三項 NVIDIA 在 AI 自然語言理解的成就就是達到前所未有的大規模模型訓練,此次 NVIDIA 所使用的客製化超大型 BERT 達到 83 億筆參數,也是當前最大規模的 AI 模型,遠大於 BERT-Large 的 24 倍,這也是拜新一代超級電腦架構的性能與記憶體規模能夠迅速處理這樣的大型模型,更大型的 BERT 模型亦有助於處理更複雜的自然語言。

此次 NVIDIA 也宣布將多項自然語言理解軟體開放,希望能夠促使基於自然語意理解 AI 技術發展,讓更多技術能夠應用新一代對話 AI 解決各領域的問題。當前大型企業如微軟也使用基於 NVIDIA GPU 技術的 Azure AI 平台訓練 BERT 並在 Bing 提供更精確的搜尋結果,新創公司 Clinc 也藉由 NVIDIA 提供的對話 AI 解決方案為國際級汽車製造商、醫療保健組織、金融機構、旅遊與飯店業者等提供基於自然與易理解的 AI 客服。

以下是當前 NVIDIA 所釋出的軟體最佳化:

BERT training code with PyTorch  ( NVIDIA GitHub )
TensorFlow 用的 NGC model scripts 和check-points
TensorRT 最佳化的 BERT 樣本 ( GitHub )
Faster Transformer : C ++ API ,TensorRT 套件和 TensorFlow OP
MXNet Gluon-NLP :支援 AMP 的 BERT(包括訓練與推論)
TensorRT optimized BERT : AI Hub 上的 Jupyter Notebook
Megatron-LM :用於訓練大型 Transformer 模型的 PyTorch 編碼

2 則回應