以經(jīng)過簡化的AI訓(xùn)練管道流程來看,在數(shù)據(jù)采集進(jìn)來后的數(shù)據(jù)存儲階段對主內(nèi)存的需求以小于1TB來計(jì)算(實(shí)際應(yīng)用中一個(gè)集群或?qū)嵗膬?nèi)存容量會是簡化模型的數(shù)倍。),這時(shí)GPU還無須參與訓(xùn)練中。
到了數(shù)據(jù)準(zhǔn)備階段,將數(shù)據(jù)進(jìn)行整理、驗(yàn)證,此時(shí)主內(nèi)存容量上升到1TB。比如SDXL訓(xùn)練網(wǎng)絡(luò)架構(gòu),在數(shù)據(jù)準(zhǔn)備階段,所有的圖像都要被規(guī)整成統(tǒng)一的規(guī)格、大小、像素、尺寸,從而更加高效的利用到網(wǎng)絡(luò)中的這些資源,降低延遲和在空間展示中節(jié)省資源。
電子發(fā)燒友網(wǎng)
2024-07-04
1785
關(guān)鍵詞:
AI
DDR5
PMIC