亚洲国产精品久久久久婷蜜芽,caoporn国产精品免费视频,久久久久久久久免费看无码,国产精品一区在线观看你懂的

歡迎訪問深圳市中小企業(yè)公共服務(wù)平臺電子信息窗口

權(quán)威機構(gòu)預(yù)測:AI服務(wù)器需求仍舊很大,產(chǎn)業(yè)鏈繼續(xù)受益

2024-02-28 來源:賢集網(wǎng)
4166

關(guān)鍵詞: 人工智能 AMD HBM

根據(jù)TrendForce集邦咨詢最新預(yù)估,以2024年全球主要云端服務(wù)業(yè)者(CSP)對高端AI 服務(wù)器(包含搭載NVIDIA、AMD或其他高端ASIC芯片等)需求量觀察,預(yù)估美系四大CSP業(yè)者包括Microsoft、Google、AWS、Meta各家占全球需求比重分別達20.2%、16.6%、16%及10.8%,合計將超過6成,居于全球領(lǐng)先位置。其中,又以搭載NVIDIA GPU的AI 服務(wù)器機種占大宗。


受國際形勢變化影響,NVIDIA后續(xù)發(fā)展仍有挑戰(zhàn)

NVIDIA近期整體營收來源以數(shù)據(jù)中心業(yè)務(wù)為關(guān)鍵,主因其GPU服務(wù)器占整體AI市場比重高達6——7成,只是后續(xù)仍須留意三大狀況,可能使NVIDIA發(fā)展受限。其一,受國際形勢變化影響,中國將更致力于AI芯片自主化。而NVIDIA推出的H20等中國特規(guī)方案,性價比可能不及既有的H100或H800等,中國客戶采用度可能較先前保守,進一步影響NVIDIA市占率。



其二,在具規(guī)模及成本考量下,美系大型CSP業(yè)者除Google、AWS外,Microsoft、Meta等亦有逐年擴大采自研ASIC趨勢。其三,來自AMD的同業(yè)競爭,AMD采高性價比策略,對標(biāo)NVIDIA同級品,AMD提供僅60——70%價格,甚至代表性或具規(guī)??蛻裟芤愿蛢r策略方式搶進市場,預(yù)期2024年尤以Microsoft為最積極采納AMD高端GPU MI300方案業(yè)者。


云端需求爆發(fā)

AI云端算力占主要需求,未來邊緣側(cè)AI算力需求也有望高增長。云端是指利用數(shù)據(jù)中心的強大算力,對海量數(shù)據(jù)進行大模型訓(xùn)練和推理;邊緣側(cè)是在終端設(shè)備上利用訓(xùn)練好的模型進行推理,進而開發(fā)豐富多樣的應(yīng)用類型。GPT-4多模態(tài)大模型在各種專業(yè)和學(xué)術(shù)基準(zhǔn)上已具備與人類水平相當(dāng)表,未來有望賦能垂直應(yīng)用,包括但不限于自然語言生成、圖像生成、視頻生成、音樂生成、藝術(shù)創(chuàng)作等領(lǐng)域。Stability AI CEO表示,隨著GPU和算力的提升,其開發(fā)的Stable Disffusion多模態(tài)大模型可能一年之內(nèi)就能在智能手機上運行,未來新技術(shù)也將在更多低價的設(shè)備上進行訓(xùn)練,AI推動的創(chuàng)意快速涌現(xiàn)。

互聯(lián)網(wǎng)云廠商是目前AI云端算力的主要需求方。OpenAI使用多個云計算提供商的服務(wù)來支持GPT的訓(xùn)練和推理,包括亞馬遜AWS、谷歌云、微軟Azure和IBM云(根據(jù)ChatGPT回答)。Trendforce預(yù)估2022年搭載GPGPU的AI 服務(wù)器年出貨量約13萬臺,占整體服務(wù)器采購量的1%。其中,互聯(lián)網(wǎng)大廠是核心采購來源方。

我們認(rèn)為未來AI算力領(lǐng)域未來呈現(xiàn)三點發(fā)展趨勢:(1)需求端:從GPT-4僅5個月內(nèi)就實現(xiàn)對GPT-3.5的迭代并推廣上市來看,我們認(rèn)為圖片和視頻類AIGC應(yīng)用的成熟節(jié)奏在加快,將推動算力加速升級。(2)供給端:算力升級背后是更高的硬件資本支出,未來HBM/存算一體等新技術(shù)有望降低算力成本,伴隨而來的是新市場的高速增長,例如美光預(yù)計全球HBM市場有望從2021年10億美元提升至2025年70億美元;(3)除云端算力外,我們認(rèn)為AI將帶來消費類硬件終端的投資機會,建議重點關(guān)注算力芯片、射頻通信芯片、攝像頭等功能芯片,以及PCB、電子元器件和功能件等。


最終贏家還得是HBM

AI服務(wù)器通常采用異構(gòu)形式,依據(jù)所搭載的芯片類型,可以分為CPU+GPU、CPU+FPGA、CPU+ASIC等多種組合。

目前,GPU仍然是數(shù)據(jù)中心加速的首選方案,但其他非GPU芯片的應(yīng)用也在逐漸增多。

據(jù)IDC預(yù)測,到2025年,其他非GPU芯片的占比將超過20%,顯示出多樣化的芯片應(yīng)用趨勢。

在性能上,ASIC(專用集成電路)通常表現(xiàn)出色,但其可編程性和靈活性相對較弱。因此,在訓(xùn)練或通用場景下,GPU往往成為更合適的選擇。



ASIC與FPGA相比,在量產(chǎn)后成本較低且性能優(yōu)異,但缺乏FPGA的可編程特性,這意味著其靈活調(diào)整的空間較小。同時,ASIC的一次性開發(fā)成本也相對較高。隨著人工智能產(chǎn)業(yè)生態(tài)的逐步完善,作為全定制化芯片的ASIC有望迎來更廣闊的發(fā)展空間。

FPGA具備快速、低功耗、靈活和高效的優(yōu)點。硬件可編程的特性使得FPGA在AI訓(xùn)練中既能提供充足的算力,又具有靈活性,可以重新編程以適應(yīng)不同任務(wù)的需要。

傳統(tǒng)的GPU(圖形處理器)最初的設(shè)計目的是進行圖形渲染計算,隨著人工智能計算需求的不斷增長,GPGPU(通用計算GPU)應(yīng)運而生。GPGPU通過移除GPU的圖形顯示部分,將其余的計算資源全部用于通用計算,從而在AI、數(shù)據(jù)分析以及高性能計算(HPC)等領(lǐng)域得到了廣泛應(yīng)用。

通用GPU在硬件加速能力方面具有顯著優(yōu)勢,尤其在深度學(xué)習(xí)訓(xùn)練方面表現(xiàn)出色,因此成為了目前主流的AI硬件產(chǎn)品。

在市場上,英偉達的A100和H100、AMD的MI250、寒武紀(jì)的思元系列以及華為的昇騰系列等產(chǎn)品占據(jù)了較大的市場份額。

從AI服務(wù)器的產(chǎn)業(yè)鏈角度來看,AI服務(wù)器的核心組件包括GPU、DRAM(動態(tài)隨機存取存儲器)、SSD(固態(tài)硬盤)和RAID卡、CPU(中央處理器)、網(wǎng)卡、PCB(印刷電路板)、高速互聯(lián)芯片(板內(nèi))以及散熱模組等。

隨著GPU算力需求的不斷提升,對硬件的傳輸速率也提出了更為嚴(yán)苛的要求。從PCB(印刷電路板)的角度來看,這一趨勢將顯著推動高頻高速板、HDI(高密度互連)以及ABF載板的需求增長。同時,為了滿足更高的傳輸效率,還需要配套損耗更低的CCL(覆銅板),這無疑對PCB及其上游材料供應(yīng)端產(chǎn)生了顯著的促進作用。

此外,AI服務(wù)器出貨量的持續(xù)增長也催生了HBM(高帶寬內(nèi)存)需求的爆發(fā)。

HBM憑借其高帶寬、低功耗以及小體積等獨特優(yōu)勢,在AI服務(wù)器場景中得到了廣泛應(yīng)用。

HBM主要應(yīng)用于高性能服務(wù)器領(lǐng)域,其最早落地于2016年的NVP100 GPU(采用HBM2技術(shù))。隨后,在2017年的V100、2020年的A100以及2022年的H100中,HBM2和更先進的HBM2e/HBM3技術(shù)得到了應(yīng)用。而最新一代的HBM3e技術(shù)則搭載于英偉達2023年發(fā)布的H200中,為服務(wù)器提供了更快的數(shù)據(jù)處理速度和更高的內(nèi)存容量。