AI PC、AI手機密集發(fā)布,生成式AI浪潮向邊緣側延伸
AIGC與終端側設備相結合,可以更加有效地突出用戶使用個性、降低運行成本、加快響應速度,對于生成式AI的商業(yè)落地有著重要促進作用。近來,聯(lián)想、小米等智能終端廠商紛紛加大了針對邊緣AI領域的開發(fā)力度,生成式AI浪潮正在從云端向邊緣與終端側延伸。
AI PC規(guī)模出貨元年即將到來
10月24日,聯(lián)想舉辦第九屆聯(lián)想創(chuàng)新科技大會,除了宣布與微軟、NVIDIA、英特爾、AMD、高通等企業(yè)在智能設備、基礎設施和解決方案領域持續(xù)深化合作之外,還展示了旗下首款AI PC(人工智能電腦)。據(jù)了解,這種本地運行的小型化AI模型,可以幫助用戶實現(xiàn)修圖、智能剪輯、撰寫文檔等功能,甚至根據(jù)用戶思維模式發(fā)現(xiàn)發(fā)任務并自主解決。
對此,聯(lián)想提出,除“公共大模型”外,人們還應發(fā)展企業(yè)端的“企業(yè)級私域大模型”和用戶端的“個人大模型”,以解決“公共大模型”存在的數(shù)據(jù)安全和隱私泄露風險、難以個性化定制、通用訓練推理成本高等問題。其中,個人大模型對應AI PC等邊緣AI產品,通過裁剪和量化等方式,刪減通用大模型中與個人使用無關的結構,實現(xiàn)把高性能的小模型融入終端設備,讓每個用戶擁有自己的個性化大模型。聯(lián)想CEO楊元慶表示,考慮到企業(yè)保護商業(yè)機密的需求,本地部署的未來企業(yè)級大模型將與公有云部署的公共大模型呈現(xiàn)混合部署的形態(tài)。
手機廠商向邊緣AI延伸的力度也很大。小米日前宣布獲得高通驍龍8 Gen 3首發(fā)權,搭載驍龍8 Gen 3處理器的小米14將大幅提升在本地支持大模型的能力。同時,小米也將AI大模型植入澎湃系統(tǒng),支持AI妙畫、AI搜圖、AI寫真、AI擴圖等功能,進一步提升用戶的使用體驗。而在11月1日舉行的2023 vivo開發(fā)者大會上,vivo發(fā)布自研藍心大模型,包括十億、百億、千億三個參數(shù)量級共5款產品,全面覆蓋核心場景。而此前,華為、OPPO、榮耀等頭部手機廠商也都在積極布局大模型的開發(fā)。
手機、PC甚至汽車等終端設備之上越來越多地開始嵌入AI模型,已經成為一個發(fā)展的大趨勢。群智咨詢預測,2024年伴隨著AI CPU 與Windows 12的發(fā)布,將成為AI PC規(guī)模性出貨的元年。而打造“輕量化”,適用于“端側”的AI模型也成為手機廠商當前發(fā)展的重點。
加速AI模型商用落地
AI模型融入終端設備固然有利于改善用戶體驗,提振消費電子市場,但是其對促進AI模型的應用落地意義可能更大。小米AI實現(xiàn)室大模型團隊負責人欒劍介紹,之所以AI大模型能夠受到人們持續(xù)廣泛的關注,是因為它有效推動了人們在信息內容上的大規(guī)模生產。而這又得益于人們通過大數(shù)據(jù)、大任務、大參數(shù)上對AI模型的訓練。下一步如何實現(xiàn)大模型的輕量化,使AI模型也能在終端設備上有效運行,將成為人們開發(fā)的重點。
實際上,生成式AI同智能終端結合,具備許多優(yōu)勢:一是個人信息無需上傳云端,可以降低隱私泄露和數(shù)據(jù)安全風險;二是AI模型接入本地數(shù)據(jù)庫和個人信息,有望實現(xiàn)通用基礎AI大模型向個性化定制小模型轉變,提供更適合的用戶服務;三是通過壓縮AI大模型和終端軟硬件適配,邊緣AI可能降低運行成本、加快響應速度和提高服務效率。
以往人們在使用AI設備時經常會詬病其不夠智能——“我都使用快大半年了,可我每次用完關閉,再重新啟動,它就好像是一個新朋友,對于上次的互動完全沒有記憶?!边@其實正是云端大模型的一種通病。因為它不太可能為每一位用戶存儲大量信息。在云端存儲大量用戶信息,并且動態(tài)加載這些信息,在功能上是一個巨大挑戰(zhàn)。但是,把這項工作下放到端側就會變得相對簡單。
也就是說,生成式AI由云端延伸至邊緣側,使AI技術與PC、手機等終端硬件設備緊密結合,將成為AI大模型應用落地,商業(yè)化發(fā)展的大趨勢。它可以改善或者解決AI發(fā)展中面臨的個性化定制、安全和隱私風險、算力成本高昂、性能表現(xiàn)不及預期、交互能力弱等阻礙,加速AI模型的商業(yè)化應用進程。
終端芯片:CPU+GPU+NPU集成化
AI大模型輕量化、本地化過程也離不開芯片技術的支撐。實際上,高通、英特爾、英偉達、AMD等近來都在紛紛加碼推出針對性的產品。驍龍X Elite作為高通首款推出的“驍龍X系列平臺”PC處理器,集成專用神經處理單元(NPU),可支持百億參數(shù)級大型語言模型。驍龍8 Gen 3平臺將支持軟、Meta、OpenAI、百度等20種以上AI大模型使用。英特爾最新Meteor Lake處理器,首次在PC處理器中內置NPU,并將NPU與處理器內計算引擎的AI功能結合,提升PC運行AI功能的能效。英偉達和AMD也計劃2025年推出Arm架構的PC芯片,進軍邊緣端AI。
高通技術公司高級副總裁兼計算與游戲業(yè)務總經理Kedar Kondap強調大模型本地化的優(yōu)勢?!半S著時間推移,PC將會變得高度智能化,和用戶之間建立起情感紐帶,PC會主動理解用戶的想法,并在滿足需求的同時對用戶隱私提供足夠保護。而且PC將具有即時性,能夠立即回答用戶的問題,提供想要的答案。如果這些需求都要傳達到云端去解決,會增加很多復雜性,在類似用例中,終端側AI處理具備更多優(yōu)勢?!?/span>
而為了滿足大模型從云端向邊緣與終端延伸所需要的更大也更加復雜的AI算力,CPU+GPU+NPU的集成化將成為處理器未來發(fā)展的方向。這又使得Chiplet技術受到更高度重視。在談到這一趨勢時,中興微高速互聯(lián)總工程師吳楓表示,一方面,通過Die to Die互聯(lián)和Fabric互聯(lián)網(wǎng)絡,能夠將更多算力單元高密度、高效率、低功耗地連接在一起,從而實現(xiàn)超大規(guī)模計算。另一方面,通過將CPU、GPU、NPU高速連接在同一個系統(tǒng)中,實現(xiàn)芯片級異構,可以極大提高異構核之間的傳輸速率,降低數(shù)據(jù)訪問功耗,提高數(shù)據(jù)的處理速度,降低存儲訪問功耗,滿足大模型的參數(shù)需求。
原粒半導體聯(lián)合創(chuàng)始人原鋼則強調了Chiplet如何滿足當下算力需求的技術發(fā)展方向?!搬槍吘墏葐稳蝿盏拇竽P蛨鼍埃梢园涯P颓蟹值讲煌珻hiplet進行并行計算,通過在預訓練模型的基礎上進行額外訓練,使其適應特定任務。大模型的邊緣端微調,可使用本地存儲的私有數(shù)據(jù),或者本地新采集的數(shù)據(jù)?!癝oC主控+AI Chiplet”組合可有效復用芯片主控,顯著降低成本,快速滿足各類規(guī)格需求。這將是未來該領域的重要發(fā)展方向。”
