算力的基礎(chǔ)是AI芯片不假,但服務(wù)器才是發(fā)揮效用的趁手工具
對于大規(guī)模模型訓(xùn)練而言,算力硬件無疑是支撐其發(fā)展的核心基石之一。隨著全球算力需求逐漸轉(zhuǎn)向人工智能領(lǐng)域,搭載GPU的AI服務(wù)器應(yīng)運而生,成為滿足這一需求的關(guān)鍵力量。
據(jù)TrendForce預(yù)測,2023年AI服務(wù)器(包括搭載GPU、FPGA、ASIC等各類加速器)的出貨量將達到約118萬臺,同比增長率高達38.4%。這一增長速度遠超整體服務(wù)器市場,預(yù)計AI服務(wù)器在整體服務(wù)器出貨量中的占比將接近9%,預(yù)計到2026年,AI服務(wù)器的占比將提升至15%,出貨量有望達到236萬臺。
AI服務(wù)器成長力道強勁
服務(wù)器作為一種高性能計算機,通常用于處理網(wǎng)絡(luò)上的數(shù)據(jù)、存儲和傳輸數(shù)據(jù),并提供各種網(wǎng)絡(luò)服務(wù),以滿足客戶端請求與需要,在網(wǎng)絡(luò)環(huán)境中扮演十分重要的角色。
AI服務(wù)器即專門為人工智能應(yīng)用設(shè)計的高性能計算平臺,與傳統(tǒng)服務(wù)器相比,在用途上AI服務(wù)器專門設(shè)計用于處理大規(guī)模數(shù)據(jù)和提供高效計算能力以支持人工智能應(yīng)用;在硬件配置上,二者皆采用高速網(wǎng)絡(luò)技術(shù)與硬件加速技術(shù),與傳統(tǒng)服務(wù)器以CPU為主要算力的形式不同,AI服務(wù)器需要滿足AI算法下高性能計算、高存儲需求,因而配置更加復(fù)雜,除了CPU之外,通常還需配備GPU、FPGA、ASIC等加速芯片,以滿足AI算法訓(xùn)練和推理過程中對高吞吐量計算的需求,此外也需要配備大內(nèi)存、高速SSD等存儲產(chǎn)品。
當前AI服務(wù)器多屬于“機架服務(wù)器”,一個機柜放多個服務(wù)器機箱,規(guī)格以U為代稱,比如1U、2U、4U、7U等,AI需求越高,數(shù)字則越大。
AI大模型有訓(xùn)練(Training)、推理(Inference)兩大應(yīng)用場景需求,以此劃分,AI服務(wù)器主要有訓(xùn)練型與推理型兩類,其中訓(xùn)練型AI服務(wù)器算力要求極高,多數(shù)部署于云端,推理型AI服務(wù)器則對算力無太高需求,主要部署于云端與邊緣側(cè)。
在AI需求推動下,AI服務(wù)器成長力道強勁。全球市場研究機構(gòu)TrendForce集邦咨詢預(yù)估,2024年全球AI服務(wù)器(包含AI Training及AI Inference)將超過160萬臺,年成長率達40%。
此外今年3月,科技大廠戴爾大幅上調(diào)了AI服務(wù)器全球TAM(潛在市場規(guī)模),該公司預(yù)計2025年與2027年全球AI服務(wù)器TAM分別達到1050億美元與1520億美元,高于此前預(yù)期的910億美元與1240億美元。
服務(wù)器革命:從幕后到臺前的算力基石
AI服務(wù)器對算力行業(yè)的重塑,是一次可以類比電車對燃油車的革命。
當年不少人認為汽車技術(shù)已經(jīng)相當固定了的時候,新能源車成了產(chǎn)業(yè)鏈徹頭徹尾的顛覆者,這一影響一直延續(xù)至今還在持續(xù)發(fā)酵。
無可爭辯的是,下一個時代是數(shù)字經(jīng)濟時代,所以這輪的服務(wù)器革命乘數(shù)效應(yīng)注定將更為宏大,整個人類社會和經(jīng)濟構(gòu)成模式都將被撬動。服務(wù)器這個典型to B的產(chǎn)品,成為了每一個個體不得不去關(guān)心的工業(yè)品,這也解釋了文章開頭提到的名場面。
電車顛覆的是出行鏈,往最大了說也就是能源革命;而服務(wù)器的變化,重塑的是信息時代的數(shù)字基座,是將人類從機械、電力、信息時代推向數(shù)字時代的“行星發(fā)動機”。
可以得到佐證的是,在英偉達披露的數(shù)據(jù)中心資本開支構(gòu)成中,服務(wù)器單一占比高達70%,是最大的成本項。數(shù)字經(jīng)濟,用硬件的黑話來說,是一堆服務(wù)器的搭積木游戲。
服務(wù)器從來都在技術(shù)的前沿
有人認為,服務(wù)器無非就是由主板、內(nèi)存、CPU、磁盤、網(wǎng)卡、GPU顯卡、電源、主機箱等硬件設(shè)備組成的一臺大電腦,早在1945年馮諾依曼就給這個技術(shù)定了性,毫無新意可言。再加上服務(wù)器公司由于盈利能力弱,一直都是邊緣板塊。
但從工程創(chuàng)新上,信息時代開始至今的60年間,服務(wù)器其實從未停止迭代的腳步,經(jīng)歷了從大型機/小型機、到PC、到云計算用服務(wù)器的至少3代升級。只不過吃虧于to B的屬性,沒有幾個人會對機房里傻大黑粗的服務(wù)器有什么興趣。
復(fù)盤歷史上服務(wù)器的變革,對產(chǎn)業(yè)鏈和商業(yè)模式也都有舉足輕重的影響。上一輪帶來產(chǎn)生顛覆性結(jié)果的是Wintel聯(lián)盟,帶領(lǐng)X86一桶天下,服務(wù)器CPU壟斷者英特爾在歷史上長期都是芯片的絕對王者。其次是,云計算時代白牌服務(wù)OEM廠商的崛起,臺系廠商默默占據(jù)了關(guān)鍵位置,并為當今的AI服務(wù)器格局早早埋下了伏筆。
AI的算力黑洞,唯有升級服務(wù)器可對抗
在算力即國力的時代背景下,大規(guī)模并行計算成為數(shù)字時代的剛需,背后遵循著大力出奇跡的樸素道理。AI帶來的算力需求近乎無上限,而服務(wù)器中的CPU,已經(jīng)成為新大陸下的舊地圖。
在云計算時代,大家更多做的是閑置算力的優(yōu)化,是中間層和軟件層的革新,本質(zhì)是一種共享經(jīng)濟而非技術(shù)革命。而面對新時代的需求,提升服務(wù)器及其集群算力成為木桶的最短板,我們再也繞不開對硬科技的技術(shù)升級。
AI 服務(wù)器相較于傳統(tǒng)服務(wù)器最大的差異在于,靠堆料高性能GPU和HBM,最終呈現(xiàn)了突出的異構(gòu)計算能力,成為填補算力黑洞唯一可行的硬件解法。比如在訓(xùn)練AI服務(wù)器中,GPU的成本占比超過70%,而在基礎(chǔ)型服務(wù)器中,這一占比僅僅不到20%。
服務(wù)器平臺的升級,也從跟隨英特爾CPU的代際變化,變成了英偉達GPU的代際變化。服務(wù)器單機價值量也從1萬美元左右,飆升到20萬美元左右。
英偉達,無疑成為AI服務(wù)器革新中最大的贏家,市值也一路從3000億美元攀升至3萬億美元。顯然,萬億美元從來不是芯片公司的對價,而是對服務(wù)器或者說數(shù)字經(jīng)濟這個大賽道的暢想。
做好生態(tài)建設(shè)
AI大模型時代,進口品牌GPU等高端芯片供應(yīng)面臨周期波動挑戰(zhàn),為國產(chǎn)AI芯片加速推向市場打開關(guān)鍵窗口。不過,AI大模型的訓(xùn)練、推理和海量數(shù)據(jù)存儲無一不需要高性能算力支撐,也對國產(chǎn)算力底層基礎(chǔ)設(shè)施能力和生態(tài)建設(shè)提出考驗。
艾瑞咨詢產(chǎn)業(yè)數(shù)字化研究院負責(zé)人徐樊磊表示,在AI大模型爆發(fā)之前,國內(nèi)的智能算力資源主要用于推理端。AI大模型趨勢到來,使國內(nèi)廠商開始推出訓(xùn)練端的算力硬件產(chǎn)品和服務(wù),但目前相關(guān)產(chǎn)品能力比起全球領(lǐng)先算力能力仍有較大差距。
業(yè)內(nèi)人士表示,在計算層面,由于芯片廠商在開發(fā)過程中使用的技術(shù)路線不同,導(dǎo)致芯片適配服務(wù)器等設(shè)備的開發(fā)周期普遍很長。在訓(xùn)練層面,單芯片算力有限,而大模型訓(xùn)練需要大規(guī)模的算力集群,需要算力系統(tǒng)具有靈活的算力擴展能力。在存儲層面,多模態(tài)大模型的訓(xùn)練和推理對存儲提出了更高要求。
近年來,我國AI算力市場高度依賴英偉達GPU硬件和相應(yīng)的軟件生態(tài)。周韡韡坦言,全球90%的AI工程師都在使用英偉達GPU配套的CUDA軟件生態(tài),這和英偉達GPU在全球的壟斷地位完全匹配?!耙恍﹪a(chǎn)GPU計算性能并非絕對不夠,而是若要把國產(chǎn)GPU和基于CUDA架構(gòu)開發(fā)的設(shè)備進行適配,需要在調(diào)試和優(yōu)化上花費大量精力,導(dǎo)致用戶使用算力的效率下降?!?/span>
然而,隨著英偉達芯片進口難度不斷提升,國產(chǎn)AI芯片自主創(chuàng)新任重道遠。
記者梳理發(fā)現(xiàn),浪潮信息、海光信息、希姆計算、中科通量、瀚博半導(dǎo)體、墨芯人工智能、摩爾線程、天數(shù)智芯、寒武紀、燧原科技等芯片公司推出了應(yīng)用于不同場景的AI推理和訓(xùn)練任務(wù)的芯片加速卡,涉及CPU、GPU、RISC-V等不同設(shè)計架構(gòu)。
海光信息表示,海光DCU兼容CUDA生態(tài),對文心一言等大多數(shù)國內(nèi)外主流大模型適配良好。依托DCU可以實現(xiàn)LLaMa、GPT、Bloom、ChatGLM、悟道、紫東太初等為代表的大模型全面應(yīng)用。
如何進一步提升國產(chǎn)AI芯片競爭力?中國工程院院士、清華大學(xué)教授鄭緯民認為,要開發(fā)基于國產(chǎn)AI芯片的系統(tǒng),這一過程中最重要的是做好生態(tài)建設(shè)?!皣a(chǎn)AI芯片只要達到國外芯片60%的性能,如果生態(tài)做好了,客戶也會滿意。”鄭緯民稱。
徐樊磊建議,做好自主創(chuàng)新要從人才、設(shè)施、科研和生態(tài)領(lǐng)域四方面突破,逐步提升智能算力設(shè)備軟硬件功能。在硬件方面,提高國產(chǎn)AI芯片的穩(wěn)定性和兼容性,特別是提升芯片之間、服務(wù)器集群之間的數(shù)據(jù)傳輸效果。在軟件生態(tài)方面,降低適配門檻,讓開發(fā)者逐漸使用國產(chǎn)芯片生態(tài)。
