以經(jīng)過簡化的AI訓(xùn)練管道流程來看,在數(shù)據(jù)采集進來后的數(shù)據(jù)存儲階段對主內(nèi)存的需求以小于1TB來計算(實際應(yīng)用中一個集群或?qū)嵗膬?nèi)存容量會是簡化模型的數(shù)倍。),這時GPU還無須參與訓(xùn)練中。
到了數(shù)據(jù)準(zhǔn)備階段,將數(shù)據(jù)進行整理、驗證,此時主內(nèi)存容量上升到1TB。比如SDXL訓(xùn)練網(wǎng)絡(luò)架構(gòu),在數(shù)據(jù)準(zhǔn)備階段,所有的圖像都要被規(guī)整成統(tǒng)一的規(guī)格、大小、像素、尺寸,從而更加高效的利用到網(wǎng)絡(luò)中的這些資源,降低延遲和在空間展示中節(jié)省資源。
電子發(fā)燒友網(wǎng)
2024-07-04
1547
關(guān)鍵詞:
AI
DDR5
PMIC