訂單排至2024年底,GPU產(chǎn)業(yè)鏈中,核心受益環(huán)節(jié)有哪些?
5月31日晚間,國產(chǎn)GPU廠商景嘉微發(fā)布公告稱,擬向特定對象發(fā)行A股股票預(yù)案,募集資金總額不超過420,073萬元,扣除發(fā)行費用后的募集資金凈額將用于高性能通用GPU芯片研發(fā)及產(chǎn)業(yè)化項目、通用GPU先進(jìn)架構(gòu)研發(fā)中心建設(shè)項目。
公告顯示,“高性能通用GPU芯片研發(fā)及產(chǎn)業(yè)化項目”將由景嘉微全資子公司長沙景美集成電路設(shè)計有限公司組織實施,總投資金額為378,123萬元,自主開發(fā)面向圖形處理和計算領(lǐng)域應(yīng)用的高性能GPU芯片。意在實現(xiàn)國內(nèi)游戲、專業(yè)圖形渲染、數(shù)據(jù)中心、人工智能、自動駕駛等應(yīng)用領(lǐng)域GPU芯片的國產(chǎn)替代。
據(jù)介紹,該項目還將與第三方芯片封裝測試廠商共建公司專用的封裝測試生產(chǎn)線,由公司投資采購相關(guān)封裝測試設(shè)備,第 三方廠商運營該設(shè)備并為公司后續(xù)開發(fā)的 GPU 產(chǎn)品提供封裝測試服務(wù)。該項目實施完成后,公司將實現(xiàn)對先進(jìn)封裝工藝的產(chǎn)能綁定,一方面有利于 將先進(jìn)封裝工藝與高性能 GPU 產(chǎn)品研發(fā)高效結(jié)合,推動 GPU 產(chǎn)品突破前道制程 工藝限制,持續(xù)提升產(chǎn)品性能,從而增強(qiáng)產(chǎn)品競爭力;另一方面,有利于保證公 司 GPU 產(chǎn)品的交付周期、產(chǎn)量和品質(zhì)的穩(wěn)定性、可靠性,提高公司的業(yè)績表現(xiàn)。
至于“通用GPU先進(jìn)架構(gòu)研發(fā)中心建設(shè)項目”,將由景嘉微全資子公司無錫錦之源電子科技有限公司組織實施,總投資金額為96,433萬元,主要布局前瞻性技術(shù)領(lǐng)域,面向滿足未來高性能計算和數(shù)據(jù)處理需求的重要方向,將在江蘇省無錫市建設(shè)通用GPU先進(jìn)架構(gòu)研發(fā)中心。
GPU 封裝:大算力時代下,被寄予厚望的 Chiplet
AIGC 算力大時代下,GPU 支撐強(qiáng)大的算力需求。GPU 即圖形處理器(英語:graphics processing unit),又稱顯示核心、視覺處理器、顯示芯片,可以兼容訓(xùn)練和推理,被廣泛運用于人工智能等領(lǐng)域。作為AI 硬件的心臟,GPU 的市場被英偉達(dá)和 AMD 等海外巨頭壟斷。
ChatGPT 這樣的生成式 AI 不僅需要千億級的大模型,同時還需要有龐大的算力基礎(chǔ)。訓(xùn)練 AI 現(xiàn)在主要依賴 NVIDIA 的 AI 加速卡,達(dá)到 ChatGPT 這種級別的至少需要 1 萬張 A100 加速卡,而一顆英偉達(dá)頂級 GPU 單價高達(dá) 8 萬元。
存算一體化突破算力瓶頸,GPU 封裝進(jìn)入正當(dāng)時。在 AI 運算中,神經(jīng)網(wǎng)絡(luò)參數(shù)(權(quán)重、偏差、超參數(shù)和其他)需要存儲在內(nèi)存中,常規(guī)存儲器與處理器之間的數(shù)據(jù)搬運速度慢,成為運算速度提升的瓶頸,且將數(shù)據(jù)搬運的功耗高。2016 年英偉達(dá)率先推出首款采用 CoWoS 封裝的繪圖芯片,為全球 AI 熱潮拉開序幕。英偉達(dá) H100 擁有 800 億個晶體管,相比上一代的 A100,有著六倍的性能提升以及兩倍的 MMA改進(jìn),采用的 CoWoS 2.5D 晶圓級封裝。在算力芯片性能暴增的時代下,相關(guān)的封裝產(chǎn)業(yè)鏈也逐漸的進(jìn)入高速發(fā)展時期。
Chiplet 是后摩爾時代的半導(dǎo)體工藝發(fā)展方向之一。Chiplet 將大型單片芯片劃分為一組具有單獨功能的小芯片單元 die(裸片),小芯片根據(jù)需要使用不同的工藝節(jié)點制造,再通過跨芯片互聯(lián)和封裝技術(shù)進(jìn)行封裝級別集成,降低成本的同時獲得更高的集成度。
Chiplet 技術(shù)要把原本單個大硅片“切”成多個再通過封裝重新組裝起來,而單個硅片上的布線密度和信號傳輸質(zhì)量遠(yuǎn)高于 Chiplet 之間,這就要求必須發(fā)展出高密度、大帶寬布線的先進(jìn)封裝技術(shù),盡可能的提升在多個 Chiplet之間布線的數(shù)量并提升信號傳輸質(zhì)量。支持Chiplet的底層封裝技術(shù)目前主要由臺積電、日月光、英特爾等公司主導(dǎo),包含從 2D MCM 到 2.5D CoWoS、EMIB 和 3D Hybrid Bonding。
HBM與先進(jìn)封裝需求大漲
2023年ChatGPT引發(fā)的AI熱潮仍在繼續(xù),近期媒體報道,今年擁有云端相關(guān)業(yè)務(wù)的企業(yè),大多都向英偉達(dá)采購了大量GPU,目前該公司訂單已排至2024年。
同時,由于英偉達(dá)大量急單涌入,晶圓代工企業(yè)臺積電也從中受益。據(jù)悉,英偉達(dá)正向臺積電緊急追單,這也令臺積電5納米制程產(chǎn)能利用率推高至接近滿載。臺積電正以超級急件(superhotrun)生產(chǎn)英偉達(dá)H100、A100等產(chǎn)品,而且訂單排至年底。
業(yè)界認(rèn)為,隨著ChatGPT等AIGC(生成式人工智能)快速發(fā)展,未來市場對GPU的需求將不斷上升,并將帶動HBM以及先進(jìn)封裝發(fā)展。
資料顯示,AIGC模型需要使用AI服務(wù)器進(jìn)行訓(xùn)練與推理,其中,訓(xùn)練側(cè)AI服務(wù)器基本需要采用中高端GPU,在這些GPU中,HBM的滲透率接近100%。
全球市場研究機(jī)構(gòu)TrendForce集邦咨詢預(yù)估2023年AI服務(wù)器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬臺,年增38.4%,占整體服務(wù)器出貨量近9%。
從高端GPU搭載的HBM來看,英偉達(dá)高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術(shù)規(guī)格,其中傳輸速度也較HBM2e快,可提升整體AI服務(wù)器系統(tǒng)運算效能。隨著高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,集邦咨詢預(yù)估2023年HBM需求量將年增58%,2024年有望再成長約30%。
先進(jìn)封裝產(chǎn)能方面,當(dāng)前臺積電CoWoS封裝技術(shù)為目前AI服務(wù)器芯片主力采用者。
集邦咨詢估計在高端AI芯片及HBM強(qiáng)烈需求下,TSMC于2023年底CoWoS月產(chǎn)能有望達(dá)12K,其中,英偉達(dá)在A100及H100等相關(guān)AI Server需求帶動下,對CoWoS產(chǎn)能較年初需求量,估提升近5成,加上AMD、Google等高端AI芯片需求成長下,將使下半年CoWoS產(chǎn)能較為緊迫,而此強(qiáng)勁需求將延續(xù)至2024年,預(yù)估若在相關(guān)設(shè)備齊備下,先進(jìn)封裝產(chǎn)能將再成長3-4成。
