NVIDIA英偉達(dá)H100、H800與H200人工智能服務(wù)器為各類數(shù)據(jù)中心提供出色的性能、可擴(kuò)展性和安全性,加速計(jì)算的數(shù)量級(jí)飛躍。
通過NVIDIA H100 Tensor Core GPU,在每個(gè)工作負(fù)載中實(shí)現(xiàn)出色性能、可擴(kuò)展性和安全性。使用NVIDIA? NVLink? Switch 系統(tǒng),可連接多達(dá)256 個(gè)H100 來加速百億億級(jí)(Exascale) 工作負(fù)載,另外可通過專用的Transformer 引擎來處理萬億參數(shù)語言模型。與上一代產(chǎn)品相比,H100 的綜合技術(shù)創(chuàng)新可以將大型語言模型的速度提高30 倍,從而提供業(yè)界領(lǐng)先的對(duì)話式AI。
準(zhǔn)備好迎接企業(yè)AI 了嗎?
企業(yè)采用AI 現(xiàn)已成為主流,企業(yè)組織需要端到端的AI 就緒型基礎(chǔ)架構(gòu),加快自身邁向新時(shí)代的步伐。
適用于主流服務(wù)器的H100 隨附五年期NVIDIA AI Enterprise 軟件套件訂閱(包括企業(yè)支持),能夠以強(qiáng)大的性能簡(jiǎn)化AI 的采用。這可確保組織能夠訪問構(gòu)建H100 加速的AI 工作流所需的AI 框架和工具,例如AI 聊天機(jī)器人、推薦引擎和視覺AI 等。
NVIDIA英偉達(dá)H100、H800與H200人工智能服務(wù)器GPU算力租賃配置參數(shù):
項(xiàng)目 | 標(biāo)準(zhǔn)配置 |
框架 | 8U 機(jī)架式服務(wù)器 |
處理器 | 2 顆至強(qiáng)Platinum 8468 48 核/3.8GHz 主頻/105MB 緩存 |
內(nèi)存 | DDR5 4800MHz ECC 內(nèi)存容量1TB |
GPU | NVIDIA HGX H100、H800或H200 GPU 模組 |
系統(tǒng)硬盤 | M.2 NVMe PCIe 接口2TB SSD |
數(shù)據(jù)硬盤 | 2*10TB 企業(yè)級(jí)SATA 硬盤 RAID 10 陣列配置 |
InfiniBand 網(wǎng)絡(luò) | 200G/雙端口/QSFP56 |
Ethernet 網(wǎng)卡 | OCP 網(wǎng)卡/雙電口/10G |
PICE 插槽 | 9 個(gè)PCIe 5.0 擴(kuò)展插槽 |
電源 | 6*3000W,2*2700W,AC220 輸入 |
風(fēng)扇 | 10 個(gè)54V 風(fēng)扇組 |
操作系統(tǒng) | Windows Server/RedHat Enterprise Linux/SUSE Linux Enterprise Server/CentOS/Ubuntu/Vmware EXSi |
工作溫度 | +5°~+35° |
其他接口 | 機(jī)箱后部:1 個(gè)RJ45 管理接口,2 個(gè)USB 3.0,1 個(gè)VGA 機(jī)箱前部:2 個(gè)USB 3.0,1 個(gè)VGA |
整機(jī)凈重 | 120KG(以實(shí)際配置為準(zhǔn)) |
安全地加速從企業(yè)級(jí)到百億億次級(jí)規(guī)模的工作負(fù)載
實(shí)時(shí)深度學(xué)習(xí)推理
超大模型的AI 推理性能提升高達(dá)30 倍
HPC 應(yīng)用的性能提升高達(dá)7 倍
百億億次級(jí)高性能計(jì)算
加速數(shù)據(jù)分析
為企業(yè)提高資源利用率
內(nèi)置機(jī)密計(jì)算
為大規(guī)模AI 和高性能計(jì)算提供出色的性能
