產業消息 nvidia 大型語言模型 生成式AI NVIDIA NeMo LLM Hugging Face ServiceNow StarCode2 BigCode ServiceNow、Hugging Face與NVIDIA共同推出程式碼生成的開放大型語言模型StarCode2,提供3B、7B與15B三種模型大小 ServiceNow、Hugging Face與NVIDIA宣布共同推出開放大型語言模型StarCode2,可用於程式碼生成,提供效能、透明度與成本效益;StarCode2與由ServiceNow和Hugging Face共同管理的BigCode社群共同開發,經過619種程式語言訓練,能進一步在企業進行訓練與嵌入執行特定任務,諸如原始程式碼生成、工作流程生成、文章摘要等,開發人員可藉此加速創新與提升生產力。 StarCode 2提供三種模型大小,包括ServiceNow訓練的30億(3B)參數模型、Hugging Face訓練的70億(7B)參數模型,與透過NVIDIA NeMo建構以及在NV Chevelle.fu 1 年前
產業消息 世界行動通訊大會 nvidia AI 客服 triton 電信 生成式AI NVIDIA NeMo ServiceNow ServiceNow偕NVIDIA為電信產業推出專用生成式AI提升客服服務品質,釐清與彙整客戶問題加速問題解決與降低成本 數位工程流程公司ServicweNow於MWC 2024宣布繼2023年5月的雙方合作後擴大與NVIDIA合作,為電信產業量身打造生成式AI解決方案,希冀能為電信產業提升服務品質,將助業者帶來更準確、快速的客戶服務,以及將複雜的資訊彙整為簡單的摘要提供更具效率與正確的服務保證。根據IDC調查,全球達73%的電信服務供應商將支援營運的AI與ML投資視為轉型的首要任務。 ServiceNow與NVIDIA合作的第一項解決方案為Now Assist for Telecommunications Service Management(TSM),此方案基於Service的Now平台,透過NVIDIA A Chevelle.fu 1 年前
產業消息 nvidia AI 伺服器 聊天機器人 HPE 生成式AI NVIDIA NeMo Llama 2 NVIDIA L40S 慧與科技在HPE Discover大會宣布攜手NVIDIA打造企業級的生成式AI解決方案 現在NVIDIA作為生成式AI的最強勢硬體供應商,系統整合產業業者無不積極與NVIDIA攜手提供產業所需的解決方案。HPE慧與科技於年度盛事HPE Discover大會宣布擴大與NVIDIA的合作,為企業打造企業級的生成式AI解決方案;強調透過雙方共同設計、預先配置的人工智慧與推論解決方案,使企業能快速自訂基礎設施並使用自有資料訓練模型,同時於邊際到雲端部署基於生成式AI的客製化應用與服務,簡化開發與部署生成式AI基礎架構的複雜性。 雙方合作的全新解決方案預計於2024年第一季正式推出 HPE與NVIDIA雙方合作開發全端、開箱即可用的AI解決方案,包括HPE機器學習開發環境軟體、PE Ezm Chevelle.fu 1 年前
產業消息 企業 大型語言模型 NVIDIA NeMo NVIDIA推出NVIDIA NeMo Retirever企業級生成式AI微服務,為聊天機器人、Copilot與摘要工具提供商機 NVIDIA宣布擴展NVIDIA NeMo系列框架工具,推出NVIDIA NeMo Retirever企業級生成式AI微服務,使企業可將客製化大型語言模型與企業資料連接,旨在為聊天機器人、Copilot與摘要工具提供商機。NVIDIA NeMo Retirever將經過NVIDIA最佳化的檢索增強生成功能添加至人工智慧代工服務中。目前開發者已能夠率先註冊與體驗NVIDIA NeMo Retirever,對於需要最大化推論效能的開發者,可在搭載TensorRT-LLM軟體的NVIDIA GH200 Superchip的系統執行模型。 並且作為NVIDIA AI Enterprise軟體平台的一部 Chevelle.fu 1 年前
產業消息 gpu amazon aws NVIDIA NeMo NVIDIA的NVIDIA NeMo框架、GPU成為亞馬遜Amazon Titan Foundation訓練大型語言模型的幕後功臣 雖然許多雲端服務公司皆積極打造為旗下服務與技術最佳化的自研晶片,然而從提供服務與進行人工智慧訓練的領域,仍為自硬體、軟體至服務等完善布局的NVIDIA的天下;Amazon Web Service(AWS)的科學家與開發者為開發生成式AI服務Amazon Bedock的基礎模型Amzon Titan,即攜手NVIDIA,並以NVIDIA的GPU結合AWS的EFA(Elastic Fabric Adaptor)高速互聯架構作為基礎硬體設施,搭配NVIDIA NeMo框架進行開發。 ▲NVIDIA NeMo不僅作為建構、客製化與執行大型語言模型框架,又能透過平行技術串接海量GPU進行大規模且高效能的 Chevelle.fu 1 年前
產業消息 AI 雲端 大型語言模型 生成式AI NVIDIA NeMo LLM Snowflake Snowflake 與 NVIDIA 合作,整合 NVIDIA NeMo 助企業於 Snowflake 資料雲打造自定義大型語言模型 現在許多企業皆希望能導入客製化的大型語言模型,作為進行數位轉型或是加速特定流程的手段,不過若企業從無到有建立大型語言模型需要花費漫長的時間,但隨著 NVIDIA 與多家知名雲服務商攜手提供基於雲的大型語言模型技術後,使企業得以以低成本、短時間取得大型語言模型技術;知名雲服務商 Snowflake 在年度活動 Snowflake 宣布攜手 NVIDIA ,將 NVIDIA NeMo 技術整合到 Snowflake 資料雲端服務,使企業能在 Snowflake 資料雲端使用自有專用資料建構自定義的大型語言模型。 ▲ NVIDIA NeMo 能使企業與開發者在雲環境輕鬆建構客製化的大型語言模型 NV Chevelle.fu 1 年前
產業消息 nvidia 大型語言模型 NVIDIA NeMo LLM NVIDIA 公布開源的 NeMo Guardrails 軟體,協助大型語言模型準確、適當的同時也能切題與安全 隨著 ChatGPT 為首引領生成式 AI 的浪潮,原本艱深的生成式 AI 與自然語言互動聊天成為一般人得以一親芳澤的新生活技術,不過與此同時也有許多人擔憂生成式 AI 蓬勃發展的背後缺乏一道最後的道德防線;作為在這波生成式 AI 的硬體技術領導廠商的 NVIDIA 宣布推出開源軟體 NeMo Guardrails ,旨在協助企業使用基於大型語言模型( LLM )為基礎的生成式 AI 時,能夠作為一道護欄,確保應用能符合其安全要求。 NeMo Guardrails 將透過 GitHub 以開源形式提供,或企業亦可透過 NVIDIA AI Enterprise 取得完整的企業支援服務。 NVID Chevelle.fu 2 年前
科技應用 NVIDIA GTC nvidia AI 大型語言模型 NVIDIA Picasso NVIDIA NeMo LLM GTC 2023 : NVIDIA 成立 NVIDIA AI Foundations ,助企業建構、改良與操作自定義大型語言模型與生成式 AI 模型 NVIDIA 在 GTC 宣布成立 NVIDIA AI Foundations 機構,以基於 LLM 大型語言模型延伸的 NVIDIA NeMo 語言服務、 NVIDIA Pacasso 影像服務與 NVIDIA BioNeMo 生物學三大領域,幫助企業能夠建構、改良與操作自定義大型語言模型與生成式 AI 模型,而與隱私權較無爭議的 NeMo 與 Picasso 能夠利用 NVIDIA DGX Cloud 提供基於雲的服務,便於開發者不須擁有伺服器,可透過瀏覽器連接到公有雲服務直接進行開發。 其中 Adobe、Getty Images、Morningstar、Quantiphi 和 Shutt Chevelle.fu 2 年前