NVIDIA英偉達A100與A800在各種規(guī)模上實現(xiàn)出色的加速,適用于各種工作負載的強大計算平臺
NVIDIA英偉達A100人工智能服務器可在各個規(guī)模下為AI、數(shù)據(jù)分析和高性能計算(HPC)應用提供出色的加速性能,為全球的高性能彈性數(shù)據(jù)中心提供強勁助力。作為NVIDIA 數(shù)據(jù)中心平臺的引擎,與前一代NVIDIA Volta? 相比,A100 可使性能提升高達20 倍。A100 可gao效擴展,也可借助多實例GPU(MIG)技術劃分為7 個獨立的GPU 實例,從而提供統(tǒng)一的平臺,助力彈性數(shù)據(jù)中心根據(jù)不斷變化的工作負載需求動態(tài)進行調(diào)整。
NVIDIA A100 Tensor Core 技術支持廣泛的數(shù)學精度,可針對每個工作負載提供單個加速器。新一代A100 80GB 將GPU 顯存加倍,提供2TB/s 的全球超快顯存帶寬,可加速處理超大型模型和海量數(shù)據(jù)集。
A100 是完整NVIDIA 數(shù)據(jù)中心解決方案的一部分,該解決方案由硬件、網(wǎng)絡、軟件、庫以及NGC? 目錄中經(jīng)優(yōu)化的AI 模型和應用等疊加而成。作為適用于數(shù)據(jù)中心且功能強大的端到端AI 和HPC 平臺,A100 可助力研究人員獲得真實的結果,并能將解決方案大規(guī)模部署到生產(chǎn)環(huán)境中。
NVIDIA英偉達A100與A800人工智能服務器GPU算力租賃產(chǎn)品規(guī)格
項目 | 標準配置 | 擴展配置 | |
1 | 準系統(tǒng) | 雙路4U機架式 | |
2 | 處理器 | 英特爾Xeon ? Gold 6330 處理器 28 核/基頻2GHz/zui高3.1GHz/42MB緩存 | 英特爾Xeon? Platinum 8380 處理器 40 核/基頻2.3GHz/zui高3.4GHz/60MB緩存 |
3 | 內(nèi)存 | DDR4/RDIMM/3200MHz/64GB,總容量1TB | zui大內(nèi)存容量4TB |
4 | 芯片組 | Intel? C621A | |
5 | GPU | 8張A100或A800 80GB NVlink顯卡 | 8張A100或A800 80GB NVlink顯卡 |
6 | 網(wǎng)絡通信 | 以太網(wǎng)卡,2路10G電口 | |
7 | InfiniBand(IB)網(wǎng)卡,2路200G QSFP56口 | ||
8 | 硬盤 | 系統(tǒng)盤,M.2 SATA SSD,容量1TB | 前面板支持24塊2.5或12塊3.5寸SAS/SATA硬盤 主板支持2塊M.2 SATA SSD |
9 | 數(shù)據(jù)盤,4TB*4/SATA,總容量16TB | ||
10 | 電源 | 單模組2000W,2+2冗余配置 | 單模組3KW,總計12KW |
9 | 外形尺寸 | 寬度480mm,高度180mm,深度830mm | |
10 | 工作溫度 | 5~35℃ | |
11 | 重量 | 80kg | |
跨工作負載的卓越性能
針對大型模型提供高達3 倍的AI 訓練速度;
相較于CPU 提供高達249 倍的AI 推理性能;
相較于A100 40GB 提供高達1.25 倍的AI 推理性能;
為HPC 應用提供高達1.8 倍的性能;
四年來HPC 性能提升11 倍;
相較于A100 40GB,在大數(shù)據(jù)分析基準測試中速度提升2 倍;
突破性的創(chuàng)新
NVIDIA AMPERE 架構
第三代TENSOR CORE 技術
多實例GPU(MIG)技術
高帶寬顯存(HBM2E)
結構化稀疏
NVIDIA英偉達A100人工智能服務器GPU 是NVIDIA 數(shù)據(jù)中心平臺的旗艦產(chǎn)品,可用于深度學習、高性能計算(HPC)和數(shù)據(jù)分析。該平臺可為2000 余款應用和各大深度學習框架提供加速。A100 適用于桌面、服務器以及云服務,不僅能顯著提升性能,更可以節(jié)約成本。
