當前AI硬體產業幾乎處在NVIDIA喊水會結凍的GPU加速時代,許多晶片商預測短時間難以在具備完整生態系與硬體技術領先的模型訓練與高通正面對抗,紛紛把AI技術目標放在邊際設備的AI推論應用;採用Arm指令集自研伺服器晶片的Ampere宣布與高通合作,將旗下處理器與高通Qualcomm Cloud AI 100 Ultra平台結合,旨在提供更具能源效益且減少對GPU依賴的解決方案。
▲Qualcomm Cloud AI 100 Ultra鎖定推論應用,結合高度能源效率的Ampere處理器能提供一套節能推論系統
Ampere希冀透過與高通的技術聯手,能夠提供更低能耗且高效能的AI推論平台,並顛覆低功耗等同低效能的刻板印象,為開始產生能源焦慮的AI產業提供比GPU加速更具經濟與能源效率的推論方案。
▲AmpereOne下一版將為12通道256核,以N3製程生產
另外Ampere也公布許多產品藍圖,採用自研架構的192核心AmpereOne將在2024年內推出,後續12通道256核心AmpereOne處理器已經準備透過N3製程(應該是台積電)生產,可使用與現行192核心相同的風冷散熱解決方案,並較現行CPU提升40%效能。此外Ampere也成立UCIe工作小組,透過開放介面提供更彈性的晶片設計,使來自其它客戶的IP能與Ampere的CPU整合。