NVIDIA英偉達A100與A800在各種規(guī)模上實現(xiàn)出色的加速,適用于各種工作負載的強大計算平臺
NVIDIA英偉達A100人工智能服務器可在各個規(guī)模下為 AI、數(shù)據(jù)分析和高性能計算( HPC) 應用提供出色的加速性能,為全球的 高性能彈性數(shù)據(jù)中心提供強勁助力。作為 NVIDIA 數(shù)據(jù)中心平臺的引擎,與前一代 NVIDIA Volta™ 相比,A100 可使性能提升高達 20 倍。A100 可高效擴展,也可借助多實例 GPU( MIG) 技術劃分 為 7 個獨立的 GPU 實例,從而提供統(tǒng)一的平臺,助力彈性數(shù)據(jù)中心根據(jù)不斷變化的工作負載需求動態(tài)進行調(diào)整。
NVIDIA A100 Tensor Core 技術支持廣泛的數(shù)學精度,可針對每個工作負載提供單個加速器。最新一代 A100 80GB 將 GPU 顯存 加倍,提供 2TB/s 的全球超快顯存帶寬,可加速處理超大型模型和海量數(shù)據(jù)集。
A100 是完整 NVIDIA 數(shù)據(jù)中心解決方案的一部分,該解決方案由硬件、網(wǎng)絡、軟件、庫以及 NGC™ 目錄中經(jīng)優(yōu)化的 AI 模型和 應用等疊加而成。作為適用于數(shù)據(jù)中心且功能強大的端到端 AI 和 HPC 平臺,A100 可助力研究人員獲得真實的結果,并能將解決方案大規(guī)模部署到生產(chǎn)環(huán)境中。
NVIDIA英偉達A100與A800人工智能服務器GPU算力租賃產(chǎn)品規(guī)格
|
項目
|
標準配置
|
擴展配置
|
1
|
準系統(tǒng)
|
雙路4U機架式
|
2
|
處理器
|
英特爾 Xeon ® Gold 6330 處理器
28核/基頻2GHz/最高3.1GHz/42MB緩存
|
英特爾 Xeon® Platinum 8380 處理器
40核/基頻2.3GHz/最高3.4GHz/60MB緩存
|
3
|
內(nèi)存
|
DDR4/RDIMM/3200MHz/64GB,總容量1TB
|
最大內(nèi)存容量4TB
|
4
|
芯片組
|
Intel® C621A
|
5
|
GPU
|
8張A100或A800 80GB NVlink顯卡
|
8張A100或A800 80GB NVlink顯卡
|
6
|
網(wǎng)絡通信
|
以太網(wǎng)卡,2路10G電口
|
7
|
InfiniBand(IB)網(wǎng)卡,2路200G QSFP56口
|
8
|
硬盤
|
系統(tǒng)盤,M.2 SATA SSD,容量1TB
|
前面板支持24塊2.5或12塊3.5寸 SAS/SATA硬盤
主板支持2塊M.2 SATA SSD
|
9
|
數(shù)據(jù)盤,4TB*4/SATA,總容量16TB
|
10
|
電源
|
單模組2000W,2+2冗余配置
|
單模組3KW,總計12KW
|
9
|
外形尺寸
|
寬度480mm,高度180mm,深度830mm
|
10
|
工作溫度
|
5~35℃
|
11
|
重量
|
80kg
|
跨工作負載的卓越性能
針對大型模型提供高達 3 倍的 AI 訓練速度;
相較于 CPU 提供高達 249 倍的 AI 推理性能;
相較于 A100 40GB 提供高達 1.25 倍的 AI 推理性能;
為 HPC 應用提供高達 1.8 倍的性能;
四年來 HPC 性能提升 11 倍;
相較于 A100 40GB,在大數(shù)據(jù)分析基準測試中速度提升 2 倍;
突破性的創(chuàng)新
NVIDIA AMPERE 架構
第三代 TENSOR CORE 技術
多實例 GPU( MIG) 技術
高帶寬顯存( HBM2E)
結構化稀疏
NVIDIA英偉達A100人工智能服務器GPU 是 NVIDIA 數(shù)據(jù)中心平臺的旗艦產(chǎn)品,可用于深度學習、高性能計算 (HPC) 和數(shù)據(jù)分析。該平臺可為 2000 余款應用和各大深度學習框架提供加速。A100 適用于桌面、服務器以及云服務,不僅能顯著提升性能,更可以節(jié)約成本。
|