北京2024年4月19日 /美通社/ -- 4月17日,浪潮信息與Intel聯(lián)合發(fā)布AI通用服務器,可支持千億參數(shù)大模型運行,靈活滿足基于大模型的AI應用及云計算、數(shù)據(jù)庫等通用場景,為企業(yè)大模型應用落地提供更高效的AI通用算力。
在北京舉行的浪潮信息生態(tài)伙伴大會(IPF2024)上,浪潮信息服務器產(chǎn)品線總經(jīng)理趙帥表示,浪潮信息與Intel聯(lián)合發(fā)布AI通用服務器NF8260G7,在業(yè)界首次實現(xiàn)服務器基于通用處理器支持千億參數(shù)大模型的運行。這為AI大模型在通用服務器的推理部署提供了很好的示范,這也使得大模型AI應用可以與云、大數(shù)據(jù)、數(shù)據(jù)庫等通用場景實現(xiàn)更為緊密高效的結合,從而充分釋放AI在各行業(yè)場景落地的廣泛活力和強大能力。
當前,生成式人工智能技術迅猛發(fā)展,AI大模型在各行各業(yè)加速落地,推動智能化的發(fā)展和創(chuàng)新。未來所有的計算設備都需具備AI的能力,一切計算皆AI,面對多元化的AI大模型訓練、推理、云、數(shù)據(jù)庫等業(yè)務負載,需要更加智能的通用算力。而且在大量模型落地應用過程中,千億級參數(shù)是智能涌現(xiàn)的基礎,企業(yè)需要更高計算性能、更高內存帶寬、更高擴展性的通用算力,以加速千行百業(yè)探索智能涌現(xiàn)。
AI通用服務器NF8260G7在2U空間支持4顆英特爾至強處理器,具有AMX(高級矩陣擴展)的AI加速功能,內存帶寬1200GB/S,全鏈路UPI總線互連,傳輸速率高達16GT/s,能夠更好滿足千億大模型低延時要求。英特爾至強處理器最新AMX功能可以讓CPU運行用于AI的矩陣乘法計算,從而優(yōu)化深度學習 (DL) 訓練和推理工作負載,為int8、BF16等不同精度的大模型運行提供更加智能的通用算力。例如在LLM推理過程中,可以大幅提升模型響應速度,吞吐速度最高提升2.7倍。
作為一款2U4路服務器,NF8260G7采用高密度設計,支持16TB大內存容量,并支持12個PCIe5.0擴展,2張高性能AI加速卡,支持Multi-host網(wǎng)絡,避免業(yè)務跨CPU訪問,網(wǎng)絡性能提升20%以上,為生成式AI提供更大參數(shù)量模型的推理和微調能力??蚣芎退惴ǚ矫?,NF8260G7支持PyTorch、TensorFlow等主流AI框架和DeepSpeed等流行開發(fā)工具,滿足用戶更成熟、易部署、更便捷的開放生態(tài)需求。同時,浪潮信息與英特爾的算法工程師團隊緊密協(xié)作,實現(xiàn)在精度幾乎無損情況下,將1026億參數(shù)的源2.0大模型進行NF4歸一化數(shù)據(jù)量化,模型容量縮小至1/4,同時通過 DeepSpeed 張量并行,并將卷積算子進行張量切分,提升4倍計算效率,業(yè)界首次實現(xiàn)單機通用服務器,即可運行千億參數(shù)大模型。
浪潮信息服務器產(chǎn)品線總經(jīng)理趙帥表示:"千億參數(shù),是大模型是否具備智能涌現(xiàn)能力的門檻。浪潮信息與英特爾經(jīng)過大量的系統(tǒng)優(yōu)化,聯(lián)合設計AI通用服務器NF8260G7,在業(yè)界首次實現(xiàn)基于通用處理器支撐千億參數(shù)大模型運行,具備非常重要的標桿示范意義。"
英特爾市場營銷集團副總裁、中國區(qū)數(shù)據(jù)中心銷售總經(jīng)理兼中國區(qū)運營商銷售總經(jīng)理莊秉翰表示:"我很興奮看到NF8260G7可以把處理器的性能發(fā)揮到極致。在蓬勃發(fā)展的智能時代,企業(yè)大模型落地將加速千行百業(yè)的創(chuàng)新。英特爾提供了涵蓋 XPU、軟件在內的廣泛技術棧,通過與浪潮信息的合作,我們能夠為開發(fā)者和企業(yè)用戶提供靈活、無縫、高效的平臺,助力用戶部署和加速其 AI 應用,推動用戶業(yè)務的智能化變革。"