科技應用 生成式AI 英國政府導入自動生成式人工智慧技術工具 提升議會紀錄彙整與回覆效率 英國政府導入自動生成式人工智慧技術工具後,希望提升公務效率,並計畫推廣至中央部門、公共服務部門使用。 金融時報報導指稱,英國政府近期開始導入自動生成式人工智慧技術工具,藉此彙整、總結議會紀錄內容,同時也將針對議會提問內容進行回覆草稿提擬。 此項政策為英國新任首相Rishi Sunak推動白廳工作效率的一部分,並且計畫能進一步推廣於中央部門、公共服務部門使用,藉此減少以傳統人力處理煩冗工作比例。 而依照英國負首相Oliver Dowden說明,此項工作模式調整仍會配合人工進行雙重檢查,確保人工智慧彙整、總結會議內容無誤,同時也能確保自動生成內容正確性,預計透過25名公務人員以三個月時間進行測試, Mash Yang 1 年前
產業消息 nvidia 大型語言模型 生成式AI NVIDIA NeMo LLM Hugging Face ServiceNow StarCode2 BigCode ServiceNow、Hugging Face與NVIDIA共同推出程式碼生成的開放大型語言模型StarCode2,提供3B、7B與15B三種模型大小 ServiceNow、Hugging Face與NVIDIA宣布共同推出開放大型語言模型StarCode2,可用於程式碼生成,提供效能、透明度與成本效益;StarCode2與由ServiceNow和Hugging Face共同管理的BigCode社群共同開發,經過619種程式語言訓練,能進一步在企業進行訓練與嵌入執行特定任務,諸如原始程式碼生成、工作流程生成、文章摘要等,開發人員可藉此加速創新與提升生產力。 StarCode 2提供三種模型大小,包括ServiceNow訓練的30億(3B)參數模型、Hugging Face訓練的70億(7B)參數模型,與透過NVIDIA NeMo建構以及在NV Chevelle.fu 1 年前
產業消息 三星 hpc AI 加速器 生成式AI HBM3e HBM3e 12H 三星將於2024年上半年量產36GB HBM3e 12H,採用12層堆疊、達1,280GB/s頻寬 不讓美光8層堆疊的HBM3e專美於前,三星宣布業界首款12層堆疊的HBM3e 12H DRAM,將容量推進至36GB,對於高效能運算、AI加速器等產品相較HBM3 8H可提升達50%的記憶體容量,同時傳輸頻寬一舉提升至1,280GB/s,預期相較HBM3 8H於AI領域可提高34%訓練性能、推論的同時用戶數則可提高11.5倍。三星HBM3e 12H已經送樣,預計2024年上半年量產 ▲三星HBM3e 12H將於2024年上半年量產 三星HBM3e 12H採用TC NCF(熱壓非導電薄膜)技術,使12層堆疊與8層堆疊的高度相同,滿足當前HBM封裝需求,TC NFC將為更多層堆疊帶來優勢,尤其可減 Chevelle.fu 1 年前
科技應用 Google 生成式AI 新聞倡議計畫 Google 與出版業者合作 以 AI 自動彙整並生成內容 Google新聞倡議計畫下,將與小型出版商合作用AI創作內容。 作為2018年開始推行的Google新聞倡議計畫一部分,Google近期似乎開始與部分內容出版業者合作,使其能透過Google提供的自動生成式人工智慧工具創作內容。 據說此合作主要先與資源相對較少的小型內容出版業者合作,使其能以人工智慧方式彙整各類內容,並且以重新撰寫文章呈現,藉此降低約每年數萬美元的人力成本。 Google並未針對相關傳聞多作說明,但表示此項與小型內容出版業者的合作僅為早期發展階段,主要希望讓業者能更快完成內容出版。至於在目前多數內容出版業者成本受限、人力缺乏情況下,Google此項合作協議預期能吸引更多內容出版 Mash Yang 1 年前
產業消息 世界行動通訊大會 nand 美光 摺疊手機 UFS 4.0 大型語言模型 生成式AI LLM 美光宣布9x13mm封裝UFS 4.0行動儲存解決方案已送樣,採232層3D NAND、容量達1TB 美光Micron於MWC宣布其業界最小尺寸UFS 4.0行動儲存解決方案已送樣,基於232層3SD NAND與先進封裝,在9x13mm大小的UFS封裝晶片可提供1TB容量,同時循環讀寫性能也獲得翻倍的提升,尤其對於生成式AI盛行的當下,加載大型語言模型LLM的速度可提升40%。美光升級版UFS 4.0已經送樣,提供256GB、512GB與1TB三種容量。 ▲美光小尺寸UFS 4.0解決方案基於232層3D NAND顆粒,封裝僅9x13mm 此小型化封裝是美光繼2023年6月推出11x13mm封裝的UFS 4.0解決方案後又一突破,其9x13mm尺寸也是目前全球最小且性能最強大的UFS 4.0儲 Chevelle.fu 1 年前
產業消息 nvidia 美光 記憶體 推論加速器 生成式AI LLM HBM3e H200 美光8層堆疊24GB HBM3e記憶體正式量產,NVIDIA H200 Tensor Core GPU率先採用 美光Micron宣布兼具高效能、大容量且更節能的HBM3e記憶體已正式量產,同時NVIDIA H200 Tensor Core GPU為首款宣布採用美光8層堆疊的24GB HBM3e解決方案的產品,並於2024年第二季出貨。同時美光預計於2024年3月還將推出12層堆疊36GB HBM3e記憶體樣品,並成為NVIDIA GTC大會贊助夥伴,屆時將分享更多美光AI記憶體產品組合與藍圖。 ▲於2023年11月公布的NVIDIA H200 Tensor Core GPU將是美光HBM3e的先行導入產品 HBM記憶體是當前高效能運算、AI應用、資料中心等不可或缺的記憶體技術,美光新一代HBM3e記憶體 Chevelle.fu 1 年前
產業消息 AI OPPO 生成式AI Reno11 OPPO宣布AI中心強化產品AI體驗,預計2024Q2於Reno11系列導入包括AI橡皮擦等生成式AI OPPO於MWC 2024宣布成立OPPO AI中心,專注在為OPPO產品用戶提供差異化的AI使用體驗,強調將以用戶為核心探索AI產品與功能,並提供AI用戶最新的體驗,並導入OPPO的手機;OPPO同時也宣布將在2024年第二季前為Reno11系列導入生成式AI,包括OPPO AI橡皮擦等功能,希冀為Reno11系列用戶率先提供差異化的體驗,各地區更新時間待後續公布。 ▲OPPO設立OPPO AI中心,並公布自研大型語言模型AndesGPT OPPO以4大定義作為AI手機的特質,一是AI手機須有效率運用運算資源滿足生成式AI運算需求;第二是AI手機應透過感測器即時感之外在環境因應用戶所處環境; Chevelle.fu 1 年前
產業消息 世界行動通訊大會 nvidia AI 客服 triton 電信 生成式AI NVIDIA NeMo ServiceNow ServiceNow偕NVIDIA為電信產業推出專用生成式AI提升客服服務品質,釐清與彙整客戶問題加速問題解決與降低成本 數位工程流程公司ServicweNow於MWC 2024宣布繼2023年5月的雙方合作後擴大與NVIDIA合作,為電信產業量身打造生成式AI解決方案,希冀能為電信產業提升服務品質,將助業者帶來更準確、快速的客戶服務,以及將複雜的資訊彙整為簡單的摘要提供更具效率與正確的服務保證。根據IDC調查,全球達73%的電信服務供應商將支援營運的AI與ML投資視為轉型的首要任務。 ServiceNow與NVIDIA合作的第一項解決方案為Now Assist for Telecommunications Service Management(TSM),此方案基於Service的Now平台,透過NVIDIA A Chevelle.fu 1 年前
產業消息 世界行動通訊大會 Android Windows on Snapdragon Snapdragon 8 Gen 3 大型語言模型 生成式AI LLM Snapdragon X Elite Qualcomm AI 高通已在多項個人裝置與物連網領域實現人工智慧商業化,並於MWC 2024展示Android手機與Windows PC的客製化多模態與大型視覺模型 高通在MWC 2024的其中一項重點就是展現高通Snapdrgaon平台在包括下一代PC、智慧手機、軟體定義車輛、XR與物連網領域的大規模設備AI商業化,加速AI無所不在的世界,其中新世代的Snapdragon 8 Gen 3與Snapdragon X Elite平台更雙雙為智慧手機、PC奠定執行強大裝置端AI的基礎;高通強調透過在多個平台開放的Qualcomm AI Hub資源,能加速開發者為使用高通平台的終端導入AI功能,同時高通也展示旗下Qualcomm AI Reaseach於Android手機、Windows PC執行大型多模態模型與大型視覺模型的研究成果。 高通合作夥伴如小米、OP Chevelle.fu 1 年前