專家觀點 硬科技 Google 記憶體 tpu 硬科技 TPU v3 硬科技:HotChips 32的新牙膏Google TPU篇 Google這間公司最可怕之處,在於其恐怖的前瞻執行力,每當眾人還在清談「技術趨勢」之際,就突然石破天驚的昭示天下:我們早就應用在實際的產品。其諸多豐功偉業中的最知名案例,莫過於在2013年底,Google爆炸性的公開其「規劃佈署已達3年」的B4資料中心廣域網路,開大規模商業化軟體定義網路(SDN)之先河。 近年來Google投入人工智慧市場,自行打造的TPU更是值得大書特書的經典,專注於推論的第一代TPU早在2015年就投入應用,2016年Google I/O公佈其全貌,而隔年用於深度學習的TPU v2就登場了,2018年Google I/O更跑出性能暴漲「8倍」的第三代,就算第四代早就默默 痴漢水球 4 年前
快訊 COMPUTEX台北國際電腦展 Google 機器視覺 機器學習 tpu TensorFlow Computex 2019 :華碩發表 Google Edge TPU 相容產品,包括 Tinker Edge T AI 、單板電腦與 Mini PC Google 在去年 IO 大會發表針對邊際運算的 Edge TPU 平台,而華碩的 Tinker 開發版在今年 Computex 宣布與 Google 取得合作,推出 Edge TPU 相容平台,包括瞄準 Maker 的開發平台 Tinker Edge AI ,單板電腦 CR1P-CM-A ,同時還預計推出一款整合 TPU 的 Mini PC 微型電腦。 由於此系列直接取得 Google 的合作使用由 Google 開發的 Edge TPU 處理器,對於機器視覺、語音判斷等應用開發者,可藉由 Google 的 TensorFlow 語法在雲運算或是高性能的 AI 學習主機開發人工智慧模型,並 Chevelle.fu 5 年前
專家觀點 硬科技 Google AI tpu 硬科技:科科們來瞧瞧一窩蜂猛衝人工智慧的勇者們 近年來工人智慧... 呃,將類神經網路換成幾個新潮名詞的人工智慧正夯,結合自動駕駛這股看似可以永遠消滅馬路三寶的熱潮,不分業界廠商或學術機構,清一色爭先恐後的涉足這個早不新奇的領域 ,近年來的IEEE HotChips的議程標題,剛剛好完美呈現這股「趨勢」,這2年佔了將近一半的比例,如計入HotChips 30在議程以外的技術教程 (Tutorial)、主題演講 (Keynote) 和宣傳海報 (Poster) 就更誇張了。如同IEEE ISCA ( International Symposium on Computer Architecture,國際計算機架構會議) 從1990年代以降,因為 痴漢水球 6 年前
科技應用 Google edge cloud IOT tpu Google Cloud IoT Edge服務平台推出 強化物聯網端點運算布局 並發表學習加速器Edge TPU實現軟硬體整合 Google Cloud IoT Edge服務平台,將與Android Things緊密結合,將Google Cloud應用與廣泛物聯網裝置銜接,也可對應Linux架構相容平台使用,藉此讓開發者、企業端能快速藉由雲端連接方式將各類服務快速佈署至各類終端裝置,並且透過端點學習方式加快裝置運算效率。 呼應亞馬遜所推出的AWS IoT平台,以及微軟所打造的Azure IoT平台,Google在Google Cloud NEXT 2018活動中宣布推出Google Cloud IoT Edge服務平台,其中將包含Edge IoT Core、Edge ML軟體元件,同時也針對端點運算推出結合人工智慧運算 Mash Yang 6 年前
產業消息 Google 機器學習 tpu TensorFlow Google 將 TPU 加速器濃縮到邊際運算領域,推出 AIY Edge TPU 與開發板 Google 為了其 TensorFlow 機器學習框架,開發了專為其提升效率的 ASIC 晶片" TPU ",做為在進行 TensorFlow 等機器學習行為提供更有效率的運算,而 Google 也為了將 TPU 技術帶到邊際運算,在 Google Cloud Next 大會宣布兩款針對邊際運算的產物,為 AIY Edge TPU 以及基於這款晶片的兩款開發工具,將 Google 的 TPU 技術帶到邊際運算領域。 當然針對邊際運算不可能實現與 Google Cloud 資料中心同級的運算規模, AIY Edge TPU 是為了執行 TensorFlow Lite 的加速 Chevelle.fu 6 年前
產業消息 Google 網路開發年會 Google google maps tpu Google Assistant Waymo Google I/O Google I/O 2018懶人包:實景導航地圖、Android P、摩斯密碼輸入法、Google Photos與TPU 3.0 今年的Google I/O主要的內容依舊繞不開AI,新版的數位助理大幅提升語意辨識以及回應的流暢度。重要的Google Maps也增加了利用VPS技術的實景導航功能,讓你可以直接用手機鏡頭比對街景,知道自己的所在位置。另外在Google Photos、Gboard、Waymo等方面都有大幅更新,更別說今年的重點Android P的多種新介面與功能,來看看這次活動的總整理吧! Google Maps實景導航不怕迷路 就算現在有了Google Maps,最常碰到的問題肯定是地圖上的圓點一直轉,你永遠不知道到底面對的是哪個方向。然而在今年的Google I/O上,Google Maps結合VPS視覺 Chevelle.fu Tandee 艾莉莎 6 年前
產業消息 Google 網路開發年會 機器學習 tpu TensorFlow 深度學習 deep learning Google Cloud Google I/O 2018: Google 宣布第三世代深度學習加速器 TPU 3.0 ,達 100PFLOPS 且須動用水冷 Google 在今年 IO 大會的主軸繼續圍繞在 AI 應用層面,然而作為 AI 背後仍需要深度學習的伺服器作為基礎,先前 Google 已經針對其語法 TensorFlow 推出專屬加速架構 TPU ,而今年 IO 宣布最新的版本 TPU 3.0 ,性能宣稱達 100PFLOPS ,為 TPU 2.0 的八倍,但也因為倍增的性能, TPU 3.0 已經無法以風冷抑制發熱,需動用水冷作為冷卻機制。 目前 Google 並未針對 TPU 3.0 做更進一步說明,不過截至 TPU 2.0 , TPU 仍須搭配 CPU 與 GPU 混合使用,同時以現階段深度學習框架而言, TPU 扮演的是針對 Te Chevelle.fu 6 年前
科技應用 硬科技 Google AI tpu 雲端 深度學習 人工智慧 硬科技:一窺Google TPU全貌 見證雲端霸主在AI的發展 近一年來,隨著古老的類神經網路以「機械學習」之名再度受到重視,拜在過去一直被視為「機器永遠不可能打敗人類」的圍棋世界,AlphaGo痛宰世界頂尖職業棋士的豐功偉業之所賜,「人工智慧晶片」成為處理器領域的新顯學,不僅現有市場巨頭爭先恐後的搶著「沾光」,更不乏紛紛投入研發工作的新創公司與學術機構,也引爆了一連串不同類型的晶片,如汎用處理器、GPU、高度可程式化的FPG、與ASIC,何種最適合人工智慧應用的雞同鴨講嘴砲戰。 但有那個實力在最短時間內「真槍實彈」的大規模應用,為客戶提供價值,為企業創造利潤,才是真正的硬道理,這也就是為何經常不動聲色、鴨子划水、但一出手,就絕對保證「轟動武林,驚動萬教」 痴漢水球 7 年前
產業消息 Google 網路開發年會 tpu TensorFlow 深度學習 deep learning 深度學習 人工智慧 tensorflow gpu Google IO 2017 : Cloud TPU 發表 ,除訓練外還具備邏輯推演能力 大幅強化深度學習效能 Google推出第二代TPU:Cloud TPU,強調在邏輯推演的效能加速上,能讓人工智慧學習時,降低對CPU與GPU的依賴。 Google 為了強化基於深度學習的人工智慧發展,在先前推出針對 TensorFlow 演算法的加速器 TPU ,以硬體加速的方式提升深度學習中訓練的效能,而今天 Google 在 IO 大會宣布推出第二世代的 TPU ,稱為 Cloud TPU ,相較前一世代是針對訓練部分進行硬體加速, Cloud TPU 進一步加入邏輯推演的加速。 過往邏輯推演的部分仰賴 CPU與 GPU的大量效能,可想而知的是 Google 希望藉由 Cloud TPU 導入邏輯推演的能力,進 Chevelle.fu 7 年前
新品資訊 NVIDIA GTC 深度學習 tpu TensorFlow 深度學習 deep learning nvidia volta 黃仁勳 GTC 2017 : NVIDIA 為何在 Tesla V100 以及 Xavier 導入 TensorFlow 加速器 NVIDIA 在今年 GTC 大會,正式宣布首款基於 Volta 架構的 GPU 產品 Tesla V100,同時也針對去年所發表的新一代自動駕駛車平台 Xavier 進行技術規格更新,而此次兩個基於 Volta 架構的產品最大的特色就是在架構中導入針對深度學習框架 TensorFlow 的加速器,也不禁令人好奇為何需要在架構中融合加速器。 去年 Google已經宣布將針對 TensorFlow開發名為 TPU 的 ASIC 加速器,而 Tesla V100 的 Tensor Core 以及 Xavier 中的 Xavier DLA 也是類似的意義,皆是專為 TensorFlow 最佳化的硬體 Chevelle.fu 7 年前