基於現(xiàn)今伺服器對於高速運算力需求逐日加深,將衍生出更多熱能,又逢全球淨零減碳轉(zhuǎn)型熱潮的挑戰(zhàn)。技嘉科技集團旗下子公司技鋼科技則在11月14~16日於美國丹佛舉行的「超級運算Super Computing(SC23」)大展,演示多款創(chuàng)新伺服器,可支援NVIDIA GH200 Grace Hopper超級晶片和下一代AMD Instinct APU加速器平臺,將著重運算中心最重要的需求,支援高效能IT硬體設備的散熱技術(shù),以及實時分析和快速實現(xiàn)成效的AI動力產(chǎn)品。
 |
技嘉Super Computing超進化 展出先進的散熱技術(shù)和可擴展資料中心基礎設施產(chǎn)品 |
因應目前業(yè)界為追求更高效能的需求,而造就了更多熱量產(chǎn)生,當今許多資料中心需要徹底轉(zhuǎn)變其散熱基礎設施,以跟上時代的腳步。技嘉透過持續(xù)開發(fā)Arm和x86處理器架構(gòu)伺服器、擴大高效IT硬體設備所需的先進冷卻散熱技術(shù),支援人工智慧(AI)加速器的多樣化伺服器平臺,讓運算設備可在維持高效能的情況下更節(jié)能,保持領(lǐng)先地位。
在今年SC23展會期間,技嘉除了發(fā)表新款單相浸沒式冷卻槽A1P0-EA0,並結(jié)合技嘉在浸沒式冷卻方案累積相當豐富的經(jīng)驗,提供客戶能涵括浸沒式冷卻伺服器、冷卻槽與冷卻液,以及相關(guān)的維運工具、遍佈全球服務等一條龍式的浸沒冷卻解決方案。
展出適用於NVIDIA Grace CPU/NVIDIA Grace Hopper超級晶片、AMD EPYC 9004和第4代Intel Xeon處理器的「直接液體冷卻解決方案(Direct Liquid Cool, DLC)」,並配備技嘉研發(fā)的水冷循環(huán)模組,冷卻液分配岐管等冷卻裝置。
另有一座模組化GIGA POD機櫃級運算產(chǎn)品,可以8個GIGA POD組成一個基礎工作群組,每個群組裝配了32臺G593伺服器,總共搭載256個NVIDIA H100 Tensor Core GPU,來實現(xiàn)1 exaflop(每秒一千億浮點運算)的FP8浮點運算性能,已在今年成功為歐美雲(yún)端服務供應商完成部署,協(xié)助這些新興GPU雲(yún)端服務供應商規(guī)劃其資料中心基礎架構(gòu);近期G593-SD0也參與了MLPerf基準測試,並獲得醫(yī)療影像辨識與自然語言處理應用的最佳效能表現(xiàn)。
此外,技嘉還展示了分別支援NVIDIA Grace CPU超級晶片的H263-V11、NVIDIA Grace Hopper超級晶片的H223-V10等基於Arm架構(gòu)處理器的伺服器,不僅可支援NVMe硬碟;所配備的NVIDIA BlueField-3 DPU還能更快速處理伺服器間的資料傳輸,讓客戶能依需求進行快速的橫向擴充,以滿足市場對生成式AI或大型語言模型的需求。還有技嘉專為新一代AMD Instinct APU加速器設計的G383-R80系統(tǒng)首次公開亮相,能對AI工作負載提供相當大助力。
除了前述生成式AI及HPC產(chǎn)品以外,技嘉也針對企業(yè)級運算需求的客戶,提出兩款G293 GPU伺服器,包括專為AI推論(G293-Z43)或高性價比的AI訓練(G293-Z23)工作進行最佳化設計,能兼顧關(guān)鍵型生產(chǎn)力工作或企業(yè)內(nèi)AI演算運用的任務。
值得一提的是,技嘉也將配合NVIDIA在SC23宣告了下一代NVIDIA H200 Tensor Core GPU規(guī)劃,在其上市同時推出一系列伺服器,來支持NVIDIA H200 Tensor Core GPU更佳的記憶體效能和容量;以及首個擁有HBM3e GPU的AI運算平臺NVIDIA HGX H200,從而加速生成式AI和HPC應用,推動人類社會朝向數(shù)位化生活邁進。