ChatGPT出圈、相關(guān)芯片受益,這些芯片廠商將要“狂飆”?
最近,以ChatGPT為首的生成類模型已經(jīng)成為了人工智能的新熱點,硅谷的微軟、谷歌等都紛紛大舉投資此類技術(shù)(微軟100億美元入股ChatGPT背后的OpenAI,谷歌也于近日發(fā)布了自研的BARD模型),而在中國以百度等為代表的互聯(lián)網(wǎng)科技公司也紛紛表示正在研發(fā)此類技術(shù)并且將于近期上線。
以ChatGPT為代表的生成類模型有一個共同的特點,就是使用了海量數(shù)據(jù)做預訓練,并且往往會搭配一個較為強大的語言模型。語言模型主要的功能是從海量的現(xiàn)有語料庫中進行學習,在經(jīng)過學習之后可以理解用戶的語言指令,或者更進一步根據(jù)用戶的指令去生成相關(guān)的文字輸出。
生成類模型大致可以分成兩大類,一類是語言類生成模型,另一類是圖像類生成模型。語言類生成模型以ChatGPT為代表,如前所述其語言模型不僅可以學習理解用戶指令的意義(例如,“寫一首詩,李白風格的”),而且在經(jīng)過海量數(shù)據(jù)訓練之后,還能夠根據(jù)用戶的指令生成相關(guān)的文字(在上例中就是寫一首李白風格的詩)。這意味著ChatGPT需要有一個足夠大的語言模型(Large Language Model,LLM)來理解用戶的語言,并且能有高質(zhì)量的語言輸出——例如該模型必須能理解如何生成詩歌,如何生成李白風格的詩歌等等。這也意味著語言類生成式人工智能中的大語言模型需要非常多的參數(shù),才能完成這類復雜的學習并且記住如此多的信息。以ChatGPT為例,其參數(shù)量高達1750億(使用標準浮點數(shù)的話會占用700GB的存儲空間),其語言模型之“大”可見一斑。
另一類生成類模型是以擴散模型(Diffusion)為代表的圖像類生成模型,典型的模型包括來自OpenAI的Dalle,谷歌的ImaGen,以及目前最熱門的來自Runway AI的Stable Diffusion。這類圖像類生成模型同樣會使用一個語言模型來理解用戶的語言指令,之后根據(jù)這個指令來生成高質(zhì)量的圖像。與語言類生成模型不同的是,這里使用到的語言模型主要用語理解用戶輸入,而無需生成語言輸出,因此參數(shù)量可以小不少(在幾億數(shù)量級),而圖像的擴散模型的參數(shù)量相對而言也不大,總體而言參數(shù)量大約在幾十億數(shù)量級,但是其計算量并不小,因為生成的圖像或者視頻的分辨率可以很高。
生成類模型通過海量數(shù)據(jù)訓練,可以產(chǎn)生前所未有的高質(zhì)量輸出,目前已經(jīng)有了不少明確的應用市場,包括搜索、對話機器人、圖像生成和編輯等等,未來可望會得到更多的應用,這也對于相關(guān)的芯片提出了需求。
ChatGPT有望助力高性能GPU等發(fā)展
作為人工智能深度發(fā)展到一定階段的產(chǎn)物,ChatGPT對芯片算力需求極高,高性能GPU等產(chǎn)品有望從中受益。
業(yè)界指出,自然語言類AI應用底層算力芯片以高性能GPU為主,在該類芯片中英偉達占據(jù)主要市場。據(jù)悉,ChatGPT已導入了至少1萬顆英偉達高端GPU。花旗銀行分析,ChatGPT可能會在未來12個月內(nèi)為英偉達帶來30億美元至110億美元的銷售額。
另一大芯片廠商AMD在今年CES上展示了下一代面向數(shù)據(jù)中心的APU產(chǎn)品Instinct MI300,計劃下半年推出。Instinct MI300采用chiplet設計,擁有13個小芯片,晶體管數(shù)量高達1460億個,超過了英特爾的1000億晶體管的Ponte Vecchio,成為了AMD投入生產(chǎn)的最大芯片。AMD表示,Instinct MI300可以將ChatGPT和DALL-E等超大型AI模型的訓練時間從幾個月減少到幾周,從而節(jié)省數(shù)百萬美元的電力。
隨著ChatGPT概念持續(xù)火熱,國內(nèi)AI芯片廠商同樣有望受益。除此之外,由于ChatGPT依賴非常大量的算力(芯片)來支持其訓練和部署,目前ChatGPT在應用時仍需要大算力服務器支持,這也有望間接帶動服務器內(nèi)存發(fā)展。
英偉達是ChatGPT熱潮最大受益者
英偉達是此次ChatGPT熱潮的最大受益者,因為英偉達用于服務器的AI芯片對于超大型AI 模型的學習和推理至關(guān)重要,幾乎壟斷全球服務器用AI芯片市場。
Open AI表示,ChatGPT 是與英偉達和微軟合作完成的超級AI。 準確地說,微軟已經(jīng)與英偉達合作,在其云(Azure HPC Cloud)中構(gòu)建了由大量AI芯片組成的超級計算機(HPC)集群,并將其提供給OpenAI。
據(jù)了解,用于 ChatGTP 學習和推理的超級計算機擁有 285000個CPU(中央處理器)內(nèi)核和10000多顆AI芯片。事實上,如果你問ChatGPT是如何學習的,它會回答,“它正在使用英偉達AI芯片學習和執(zhí)行?!?/span>
OpenAI CEO Sam Altman表示,ChatGPT處理用戶查詢的每筆成本約為2美分。這是引入和使用英偉達AI芯片所需的成本。如果ChatGPT用戶數(shù)量增加,云和AI芯片的使用將不可避免地增加,這將增加英偉達的銷售額和營業(yè)利潤。
研究人員Uh Gyu-jin表示:“如果說游戲?qū)τミ_的增長作出了貢獻,因為高性能GPU被用來驅(qū)動現(xiàn)有的高端游戲,那么最近數(shù)據(jù)中心銷售的增長是急劇的,因為GPU已被用作數(shù)據(jù)中心加速器?!彪S著超大型人工智能的需求增加,英偉達的銷售額和營業(yè)利潤有望獲得大幅增長。
投資者也注意到了這一點,并將英偉達列為ChatGPT熱潮的最大受益者?;ㄆ旒瘓F分析師Atif Malik預估,ChatGPT可能會在未來12個月內(nèi)為英偉達帶來30億美元至110億美元的銷售額。
事實上,從今年開始,英偉達在數(shù)據(jù)中心領(lǐng)域的銷售額有望首次超過游戲,占比達到57%。隨著人工智能概念被引入數(shù)據(jù)中心,其銷售額占比將大幅提升。特別是在應用人工智能深度學習技術(shù)時,收集和分析大規(guī)模信息的云服務必須得到有效管理。因此,英偉達GPU安裝在需要深度學習技術(shù)的地方越來越多,例如,提供云服務的亞馬遜、微軟、IBM和阿里巴巴。
英特爾和AMD等其他半導體公司也生產(chǎn)用于服務器的AI芯片,但沒有英偉達AI芯片并行處理技術(shù)(CUDA)的優(yōu)勢,它們的市場份額僅個位數(shù);而蘋果、高通等都專注于為智能手機、平板電腦和物聯(lián)網(wǎng)等邊緣設備開發(fā)AI芯片,因此英偉達有望在服務器用的AI芯片領(lǐng)域繼續(xù)占據(jù)主導地位。
HBM需求攀升利好三星、SK海力士
英偉達GPU搭載了包括高帶寬存儲器(HBM)在內(nèi)的大量DRAM。三星電子、SK 海力士、美光等有望直接或間接受益于英偉達AI芯片需求的快速增長。因為AI半導體需要“HBM3”才能學習和推理,而 AI芯片僅用于推理需要“GDDR6”和“GDDR7”存儲器。
ChatGPT等AI聊天機器人執(zhí)行大量計算的時候需要高性能和大容量內(nèi)存的支持。隨著AI聊天機器人服務市場爆發(fā),對內(nèi)存的需求將會增加。三星電子和 SK 海力士一致認為,“ChatGPT 等AI聊天機器人服務中長期將對內(nèi)存半導體市場產(chǎn)生積極影響?!?/span>
三星電子指出, HBM數(shù)據(jù)處理速度比DRAM快,為GPU和人工智能加速器提供數(shù)據(jù)的高性能高帶寬內(nèi)存 (HBM) 的需求將會擴大。從長遠來看,隨著AI聊天機器人服務的擴展,對用于CPU的128GB 或更大容量的高性能 HBM 和高容量服務器 DRAM 的需求預計會增加。
SK海力士解釋說,從內(nèi)存的角度來看,AI聊天機器人需要高性能的DRAM和高性能的計算存儲設備,可能加快市場重心轉(zhuǎn)向大容量服務器內(nèi)存的時間。SK海力士提到,服務器內(nèi)存從64GB遷移到128GB的速度可能更快。
HBM可以消除 CPU、GPU 和內(nèi)存之間的性能差距造成的瓶頸,補充了現(xiàn)有 DRAM 的局限性,被認為是一種具有前景的下一代內(nèi)存產(chǎn)品。CPU和GPU的性能每年都在大幅提升,但支撐它們的內(nèi)存半導體性能卻一直相對滯后,HBM 作為替代方案應運而生。目前,通過與中央處理器 (CPU) 和圖形處理器 (GPU) 配對,可以明顯提高服務器性能的HBM訂單正在明顯增加。今年第一季度,HBM供應商三星電子、SK海力士相關(guān)業(yè)務咨詢呈指數(shù)級增長。特別是SK海力士,客戶的需求電話紛至沓來。一位業(yè)內(nèi)人士透露,“目前,英偉達在大部分服務器 GPU產(chǎn)品中都使用 SK 海力士HBM3”。
HBM唯一缺點是價格高。HBM盡管性能出色,但平均售價至少比最高性能的 DRAM 高出三倍,因為生產(chǎn)過程復雜且需要高水平的工藝。HBM2價格是16Gb DRAM的兩倍多,SK海力士HBM3價格已飆升了五倍。從存儲半導體企業(yè)的角度來看,HBM是一個高附加值領(lǐng)域,供應量越大,利潤率就越高。
