產業消息 Google nvidia tpu Google Cloud 大型語言模型 生成式AI Google Cloud 攜手 NVIDIA 合作夥伴關係,原限使用於 TPU 的 PaxML 大型語言模型框架已針對 NVIDIA 加速運算最佳化 Google Cloud 於 Cloud Next '23 宣布擴大與 NVIDIA 合作關係,除了 Google C;loud 在一系列服務導入 NVIDIA 加速硬體、在 Google Cloud 提供 NVIDIA DGX Cloud 、於 Google Cloud Marketplace 提供 NVIDIA AI Enterprise 以外, Google 用於建立大型語言模型( LLM )的 PaxML 框架也針對 NVIDIA 加速運算進行最佳化,不再僅限於 Google TPU 執行。 ▲ PaxML 原是為跨多個 Google TPU 加速器切片建構的開發框架,現在可在 Chevelle.fu 1 年前
產業消息 nvidia gpu vmware 虛擬化 大型語言模型 生成式AI LLM VMWare 攜手 NVIDIA 推出 VMWare Private AI Foundation with NVIDIA ,協助企業在公眾雲環境安全且高效率的使用生成式 AI 技術 VMWare 於 2023 年 VMware Explore 大會宣布與 NVIDIA 合作,針對當前火熱生成式 AI 成立 VMWare Private AI Foundation with NVIDIA ,使企業能在安全、確保資料隱私的前提高效率且具擴充性於 VMWare 的平台使用完整的 NVIDIA AI Enterprise 資源與技術,同時企業可透過直連 GPU 或虛擬 GPU ( vGPU )進行擴展,使用最多 16 個 vGPU 進行 AI 模型訓練。 VMWare 預計於 2024 年初與 NVIDIA 共同推出 VMWare Private AI Foundation wi Chevelle.fu 1 年前
遊戲天堂 nvidia NPC 大型語言模型 生成式AI LLM NVIDIA ACE Gamescon 2023 : NVIDIA 為基於生成式 AI 的遊戲 NPC 技術 NVIDIA ACE 添加 NeMo SteerLM ,開發者能針對角色特性進一步進行個性化訓練 NVIDIA 在 2023 COMPUTEX 針對下一代遊戲 NPC (非玩家角色)提供稱為 NVIDIA ACE 的生成式 AI 技術,結合大型語言模型、 Audio2Face 角色臉部表情對應等套件,使遊戲開發者能作為與 AI 語音助理相似的自然反應 NPC ; NVIDIA 在 2023 Gamescon 進一步公布使開發者能針對 NVIDIA ACE 所使用的語言模型進行訓練的 NeMo SteerLM 。 ▲ NVIDIA ACE 是結合 Riva 語言轉文字、 NeMo 大型語言模型、 Audio2Face 技術 NVIDIA ACE 套件是結合 NVIDIA Riva 的語言轉文 Chevelle.fu 1 年前
人物專訪 Google AI tpu LaMDA Bard 大型語言模型 Google Bard 解密:與 DeepMind 傑出科學家紀懷新博士一起探索 Bard 的意義與未來 Google 在 2023 年 7 月為甫在同年 3 月開放的互動式大型語言模型 Bard 升級支援包括中文語系在內 40 種以上的語言,使台灣的使用者亦可體驗 Google 這項創新的 AI 服務與應用;台灣 Google 請到參與 Bard 開發的 Google DeepMind 的傑出科學家紀懷新博士針對 Bard 進行解密,自 Bard 的來由到展望進行說明,同時也解釋 Bard 的基本原則與 Google 當前賦予他的任務。 Bard 是 Google AI First 旅程中的重要一環,也是 Google 深耕大型語言模型十年來的最新應用 ▲ Google 的 AI 技術早已深入服 Chevelle.fu 1 年前
產業消息 nvidia 大型語言模型 生成式AI LLM SIGGRAPH 2023 : NVIDIA AI Workbench 加速全球企業使用自定義生成式 AI ,簡化模型調整自部署程序 NVIDIA 在 SIGGRAPH 宣布整合易用的工作空間 NVIDIA AI Workbench ,使開發者利用 NVIDIA AI Workbench 在桌上型電腦或工作站環境快速建立、測試與自訂預訓練生成式 AI 大型語言模型,並擴大到資料中心、公有雲或 NVIDIA DGX Cloud ,協助企業加速採用符合需求的自訂生成式 AI 。 NVIDIA AI Workbench 旨在簡化企業使用 AI 項目的各項作業,開發者可在本地系統執行減化界面,就能使用自定義資料自 Hugging Face 、 GitHub 與 NVIDIAS NGC 等熱門資源庫自定義模型,後續於多個平台分享。 現 Chevelle.fu 1 年前
產業消息 nvidia AI 資料中心 Grace Hopper SuperChip 大型語言模型 生成式AI GH200 HBM3e SIGGRAPH 2023 : NVIDIA 公布 141GB HBM3e 版 NVIDIA GH200 Grace Hopper Superchip ,並宣布 NVLink dual-GH200 雙晶片伺服器系統 NVIDIA 已經在 Computex 2023 期間公布首款混合 CPU 與 GPU 的 NVIDIA GH200 Grace Hopper Superchip 開始量產,並預計在 2023 年末推出;或許是受到 AMD 也將推出第一款資料中心級 APU 產品 Instinct MI300A 的影響,在 SIGGRAPH 2023 主題演講, NVIDIA 再宣布將推出採用 HBM3e 記憶體版本的 NVIDIA GH200 Grace Hopper Superchip ,不僅將 GPU 記憶體頻寬提高到 5TB/s ,同時相較先前公布的 GH200 配有 96GB 的 HBM3 記憶體, Chevelle.fu 1 年前
產業消息 微軟 AI meta 大型語言模型 生成式AI LLM LLaMA Llama 2 Meta 攜手微軟宣布新一代大型語言模型 Llama 2 ,免費開放研究與商業使用、與高通合作移植到 Snapdragon 平台裝置 由於生成式 AI 的盛行與硬體技術不斷突破,作為對話應用與生成式 AI 基礎的大型語言模型的開發與研究進展也更為加速; Meta 宣布全新一代的開源大型語言模型 Llama 2 ,強調將免費提供研究與商業使用,同時強化與微軟 Microsoft 的長期合作關係,微軟將成為 Llama 2 商用化的特選夥伴,另外亦宣布攜手高通,將把 Llama 2 移植到基於 Snapdragon 技術的平台強化邊際 AI 技術; Meta 允諾負責人的建構 Llama 2 ,同時也將協助開發者落實相同承諾。 Llama 2 將自即日起於 Azure AI 模型目錄上線,開發者可透過 Micrososft Az Chevelle.fu 1 年前
產業消息 Android pc AI meta snapdragon 8cx Snapdragon 8 Gen 3 大型語言模型 LLM Llama 2 高通宣布與 Meta 合作強化終端 AI 技術,自 2024 年起為旗艦智慧手機與 PC 提供 Llama 2 大型語言模型技術 高通積極推廣混合式 AI 概念,並強調借助使終端設備具備更強大的 AI 性能,能夠縮減使用延遲並提升個人隱私;高通在 2023 年的 Snapdragon Summit 前夕宣布與 Meta 合作,雙方將針對使邊際設備執行 Meta 的 Llama 2 大型語言模型進行合作,提供 2024 年的旗艦手機、 PC 平台能夠獨立執行 Llama 2 ,不需仰賴連接到雲端平台。高通最終的目標是使除了智慧手機、 PC 以外野能在 VR / AR 頭戴設備與汽車執行 Llama 2 等生成式 AI 。 高通與 Meta 的目標是提供 2024 年的高階 Snapdragon 平台能執行 Liama 2 Chevelle.fu 1 年前
科技應用 meta 大型語言模型 LLaMA Meta 計劃將大型語言模型 LLaMA 商業化 提升市場競爭力 Meta正計劃將其大型語言模型LLaMA商業化,讓企業和新創公司可以使用此模型來創建應用服務,提高對OpenAI、Google和微軟等公司的競爭力。 金融時報報導指稱,Meta準備將今年初公佈的大型語言模型LLaMA (Large Language Model Meta AI)轉為商用,讓企業或新創業者能以此模型建立應用服務。 而將LLaMA轉為商用,預期Meta將以此與OpenAI、Google、微軟在內業者競爭。 在先前公布細節中,LLaMA參數規模介於70億組至650億組,並且能在單張顯示卡上完成運算,因此凸顯其應用彈性。 新版商用版本預計以更廣泛形式對外提供使用,並且允許企業以客製化形 Mash Yang 1 年前
產業消息 AMD 深度學習 加速器 NVIDIA A100 Instinct MI200 大型語言模型 LLM MosaicML 結合 PyTorch 2.0 與 ROCm 5.4 的 AMD Instinct MI250 已在大型語言模型逐漸追上 NVIDIA A100 受到 NVIDIA 先期投入市場的軟硬體優勢, AMD 的 Instinct MI200 加速器系列雖獲得美國橡樹嶺實驗室新一代超級電腦 Frontier 採用,但市場討論度則仍較 NVIDIA 來的少;不過 AMD 也正努力的持續自軟體與硬體兩方面強化,根據 MosaicML 公布的部落格文章, AMD 的 Instinct 250 在 PyTorch 2.0 與 ROCm 5.4 的雙重加持下,已有著趨近 NVDIA A100 的效能,同時不須針對 AMD Instinct 修改代碼即可進行大型語言模型 LLM 訓練。 MosaicML 的官方部落客表示其軟體 MosaicML 可為 NV Chevelle.fu 1 年前