科技應用 Google meta 人工智慧技術 LLaMA 亞馬遜等 Meta 曾於 2024 年尋求微軟、亞馬遜等公司資金訓練 Llama 語言模型 報導指出 Meta 曾在 2024 年向微軟與亞馬遜等企業尋求資金,目的為訓練其 Llama 大型語言模型以擴大發展。 The Information網站報導指稱,Meta在當前的人工智慧技術發展競爭似乎面臨巨大成本壓力,甚至曾在2024年向微軟、亞馬遜等業者尋求資金,藉此訓練其Llama大型自然語言模型。 為了改善成本問題,Meta內部更提出名為「Llama聯盟」 (Llama Consortium)的合作協議,藉此吸引更多潛在投資人參與Llama日後的功能開發。不過,目前此合作協議似乎未能吸引足夠資金注入。 雖然Meta與亞馬遜、微軟、Google等業者競爭人工智慧市場,但本身也以合作形式 Mash Yang 3 天前
科技應用 meta LLaMA Llama 4 Meta 發表 Llama 4 Scout 與 Llama 4 Maverick 模型 並預告更大參數規模的 Behemoth Meta 公司公開了其最新的大型語言模型系列,包括 Llama 4 Scout 和 Llama 4 Maverick。同時,Meta 也預告正在開發一款名為 Behemoth,擁有更大參數規模的模型。 日前公布將在美國西岸時間4月29日舉辦首屆LlamaCon開發者活動之後,Meta宣布推出Llama 4大型自然語言模型其中兩種版本,分別為LLama 4 Scout與Llama 4 Maverick。 其中,Llama 4 Maverick將鎖定主流應用,可用於數位助理服務與聊天機器人,而規模較小的LLama 4 Scout則可處理文件內容摘要、解析大量使用者活動行為,並且提供個人化互動,或是 Mash Yang 19 天前
產業消息 NVIDIA GTC nvidia AI 企業 微服務 LLaMA NeMo NIM Llama Nemotron GTC 2025:NVIDIA推出Llama Nemotron開源推論AI模型系列,協助開發者與企業建構代理型AI平台 NVIDIA之所以在AI領域一枝獨秀的關鍵在於強大的硬體及豐富軟體生態系的結合,使開發者能受益容易使用的AI工具、模型進行開發;NVIDIA在GTC 2025主題演講宣布提供具推論能力的開源Llama Nemotron模型系列,針對開發者與企業提供商業就緒的基礎,使其可建立具備獨立作業或由多個AI模型相互結合的先進AI代理。包括埃森哲、Amdocs、Atlassian、Box、Cadence、Crowdstrike、德勤、IQVIA、微軟、SAP及ServiceNow等皆攜手NVIDIA推出全新的推論模型與軟體。 NVIDIA Llama Nemotron Super模型與NIM微服務將透過託 Chevelle.fu 1 個月前
科技應用 meta 開發者大會 LLaMA LlamaCon Meta 將舉辦首屆 LlamaCon 開發者大會 Meta 宣布將舉辦首屆 LlamaCon 開發者大會,可能在活動中發表新一代 Llama 4 大型自然語言模型。 更新多版Llama大型自然語言模型後,Meta稍早宣布將舉辦首屆LlamaCon開發者活動,時間預計是在美國西岸時間4月29日。 Meta說明屆時將公布其最新開源人工智慧技術發展成果,並且協助更多開發者以Llama大型自然語言模型打造應用服務與產品,同時也透露將在近期公布更多活動細節。 在近期更新中,Meta已經在去年12月公布參數規模達700億組的人工智慧模型Llama 3.3,標榜效能超越亞馬遜近期推出的Nova。而市場預期Meta很快就會公布下一款Llama 4的大型自然語 Mash Yang 2 個月前
科技應用 微軟 LLaMA Phi-4 微軟推出 140 億參數輕量級自然語言模型 Phi-4 微軟 Phi-4 自然語言模型擁有 140 億參數,性能可媲美 Llama 等大型模型,並提升數學推理和語言理解能力 接連更新旗下Phi自然語言模型之後,微軟宣布推出新款參數規模在140億組的輕量級自然語言模型Phi-4,標榜性能可對比Llama在內大型自然語言模型。 Phi-4強調可在有限參數規模之下提升數學推理能力,以及更高的語言理解能力,甚至能在數學處理表現超越Llama 700億參數規模版本。 而Phi-4主要透過高品質合成資料,搭配經篩選整理的真實資料,並且以重新調整的後期訓練技術,使其推理精度可以大幅提升,同時也能藉由較小參數規模提高運作效率,更可輕易佈署於更多終端裝置上使用。 目 Mash Yang 4 個月前
科技應用 meta 人工智慧模型 LLaMA Llama 3.3 Meta 發表 Llama 3.3 AI 模型 Meta 推出參數規模達 700 億的 Llama 3.3 人工智慧模型,效能超越亞馬遜近期推出的 Nova。 今年7月推出參數規模高達4050億組的人工智慧模型Llama 3.1之後,Meta近期接續公布參數規模達700億組的Llama 3.3,標榜執行效能表現與參數規模達4050億組的人工智慧模型Llama 3.1相當,甚至超越亞馬遜近期公布的Nova模型。 此次推出參數規模達700億組的Llama 3.3,本身是以多語言大型自然語言模型形式打造,以超過15兆以上字詞進行預先訓練,並且藉由公開指令集與超過2500萬筆合成資料進行微調,目前已經以開源形式透過GitHub及Hugging Fa Mash Yang 4 個月前
科技應用 人工智慧模型 LLaMA Scale AI Meta 向美、英、加、澳、紐等國政府開放 Llama AI 模型 Meta宣布,將向負責國家安全工作事宜的政府機構、承包商開放提供使用其Llama人工智慧模型。 而此作法,Meta執行長Mark Zuckberg在近期財報會議上便已透露此規劃,並且說明目前正與政府機構合作導入Llama人工智慧模型,藉由人工智慧方式加速各類國家安全工作事宜推進。 目前Meta合作對象包含埃森哲 (Accenture Federal Services)、AWS、Anduril、Booz Allen、Databricks、Deloitte、IBM、Leidos、洛克希德馬丁 (Lockheed Martin)、微軟、甲骨文、Palantir、Scale AI與Snowflake。 Mash Yang 5 個月前
產業消息 8GB 高通 NPU 邊際運算 GEMINI 生成式AI LLaMA Apple Intelligence Snapdragon 8 Elite 高通2024年Snapdragon高峰會觀察,不再強調裝置端AI算力與可執行模型大小背後的意涵 在2023年的高通Snapdragon高峰會,高通介紹Snapdragon 8 Gen 3時,特別聚焦在AI算力與可執行的模型大小,藉此強調是足以在裝置端執行生成式AI的平台,而緊接在後的聯發科天璣9300發表會也不認輸的公布比高通更高的數據;事隔一年,高通新一代旗艦平台Snapdragon 8 Elite雖然同樣聚焦在邊際AI,但卻未刻意公布AI性能與可執行的模型規模,而是著重在溝通能夠以低延遲的方式執行多模態模型(LMM)。 ▲高通2023年發表Snapdragon 8 Gen 3時還特別強調能執行10B參數模型,但Snapdragon 8 Elite發表卻未提及能執行的模型大小 會有這樣 Chevelle.fu 6 個月前
科技應用 meta LLaMA Hugging Face Meta Llama 開源模型下載量破 3.5 億次 Meta 宣布其開源大型自然語言模型 Llama 在 Hugging Face 平台下載量已達 3.5 億次,每月使用量增長 10 倍。 Meta宣布其以開源形式提供使用大型自然語言模型Llama已經在Hugging Face託管平台累積將近3.5億次下載量,對比去年同期累積下載量約成長超過10倍,其中在7月公布的Llama 3.1下載量就累積超過2000萬次。 目前Llama已經透過AWS、Azure、Google Cloud、NVIDIA、IBM、Snowflake、Groq、Databricks等業者服務提供使用,同時每月使用量更增加10倍以上,甚至在Hugging Face平台上更有超 Mash Yang 7 個月前
產業消息 nvidia gpu NVIDIA Hopper GPT-3 NVIDIA H100 大型語言模型 LLM LLaMA NVIDIA H200 NVIDIA H100最新MLPerf訓練測試基準較2023年以3.2倍GPU規模實現3倍以上的性能 NVIDIA持續引領AI產業硬體的關鍵在於不僅止於GPU硬體技術、還有與持續不斷精進的軟體與網路技術結合;NVIDIA公布最新MLPerf Training v4.0基準測試表現,在GPT-3 175B大型語言模型訓練的表現,以較2023年多出3.2倍的GPU數量實現3倍以上的性能增長,展現強大的軟體調校能使GPU數量與性能呈現幾乎1:1的擴充效率,也顯示在相同的硬體架構之下持續擴充規模仍可在軟體不斷增強獲得出色的成效。NVIDIA預期在NVIDIA Blackwell推出後,MLPerf測試基準成績將有更驚人的成果,並邁向訓練與推論的兆參數生成式AI模型世代。 NVIDIA在2023年使用3 Chevelle.fu 10 個月前