高性能计算(HPC)系统的供应商技嘉科技披露了四个正在开发的NVIDIA HGX A100平台。这些平台将与NVIDIA A100 Tensor Core GPU一起提供。NVIDIA A100是第一个将训练,推理,HPC和分析结合在一起的弹性多实例GPU。这四个产品包括可容纳四个NVIDIA A100 GPU的G262系列服务器和可提供八个A100 GPU的G492系列。每个系列还区分两种型号,它们支持第三代Intel Xeon可扩展处理器和第二代AMD EPYC处理器。NVIDIA HGX A100平台是NVIDIA加速数据中心概念的关键要素,可为客户带来巨大的并行计算能力,从而帮助客户加速其数字化转型。
随着GPU加速成为当今数据中心的主流技术。科学家,研究人员和工程师致力于使用GPU加速的HPC和人工智能(AI)来应对当前世界的重要挑战。NVIDIA加速数据中心概念,包括配备NVIDIA NVSwitch,NVIDIA NVLink和NVIDIA A100 GPU的GIGABYTE高性能服务器,将提供不同计算规模所需的GPU计算能力。NVIDIA加速数据中心还具有NVIDIA Mellanox HDR InfiniBand高速网络以及支持GPUDirect RDMA和GPUDirect Storage的NVIDIA Magnum IO软件。通过这些组合,可以将单个HGX A100平台从4个或8个GPU快速扩展到成千上万个GPU,以最快的速度训练最复杂的AI网络。A100还引入了一种新的多实例GPU技术,该技术使用户可以将每个A100划分为七个实例,以根据计算需求实现最佳GPU利用率。HGX A100可以快速扩展到大型集群。单个A100 Tensor Core GPU可以划分为多个执行轻量级操作的实例,这可以提高满足不同规模工作负载所需的资源使用率,从而加快客户洞察力并缩短产品/服务启动时间。A100 Tensor Core GPU还旨在加速所有主要的深度学习框架和700多个HPC应用程序,而NGC容器软件目录可以帮助开发人员更轻松地启动和运行程序。
通过提供高性能主板和NVIDIA GPU,技嘉已成为计算机硬件的领先品牌,并以其出色的产品性能和稳定性而闻名。凭借自己的产品自主权,技嘉已经掌握了从产品规划到生产的整个过程,并选择与NVIDIA紧密合作。通过多年的经验积累和设计能力,技嘉平台可以在2U和4U空间中支持最大数量的GPU。模块化概念将G262 / G492服务器划分为简化的GPU和CPU部分,并使用屏障设计将两个区域分开以形成更大的空气通道并防止热传导,从而解决了热量问题。在电源方面,G262 / G492服务器采用80多个高效电源构建,并实现了N +1冗余,以确保用户安全的数据环境。G262 / G492系列服务器可以满足客户对HPC和AI的需求。技嘉还将依靠行业领先的设计知识来突破我们产品性能的界限。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!