编程学习网 > IT圈内 > 英伟达宣布推出HGX H200人工智能加速卡 推理速度较H100翻倍
2023
11-15

英伟达宣布推出HGX H200人工智能加速卡 推理速度较H100翻倍

芯片制造商英伟达今天宣布推出 NVIDIA H100 GPU 的下一代产品:NVIDIA HGX H200 GPU,基于 Hopper 架构开发、采用 HBM3e 内存、带宽 4.8TB 每秒。

就人工智能方面的优势,英伟达称,与 H100 加速卡相比,HGX H200 在 Llama 2 (Meta AI 推出的开源模型,参数为 70B) 上的推理速度提高了一倍。
英伟达称借助 HBM3e 内存,HGX H200 带宽高达 4.8TB 每秒、提供 141GB 的内存,这可以为参数更多的 LLM 提供更多、更快的内存需求。
HGX H200 提供 4 路和 8 路配置,与 H100 系统中的软硬件都兼容,适合各种类型的数据中心,包括本地、云、混合云、边缘计算,并且可以通过 AWS、Google Cloud、Microsoft Azure 和 Oracle Cloud 进行部署。
HGX H200 将在 2024 年第二季度上市销售。
英伟达宣布推出HGX H200人工智能加速卡 推理速度较H100翻倍
英伟达宣布推出HGX H200人工智能加速卡 推理速度较H100翻倍
另一款产品是 NVIDIA GH200 Grace Hopper 超级芯片,英伟达称其与 NVLink-C2C 互联可以将 HGX H200 GPU 与基于 Arm 的 NVIDIA Grace CPU 结合在一起。
这个方案是专门为超算设计的,可以让科学家和研究人员通过加速运行 TB 级别的数据和进行复杂的 AI 计算来解决世界上最具有挑战性的问题。
英伟达宣布推出HGX H200人工智能加速卡 推理速度较H100翻倍
英伟达称 GH200 用于全球研究中心、系统制造商和云提供商的 40 多台人工智能超算,包括戴尔、HPE、联想、Eviden、QCT、Supermicro 等公司的超算。
其中 HPE 的 Cray EX2500 超算使用四颗 GH200,可以扩展到数万个 Grace Hopper Superchip 节点。
而最大的 Grace Hopper 超算应该是德国的 JUPITER,这台超算将在 2024 年完成部署并成为世界最强大的人工智能系统,其采用液冷架构,使用 24,000 个 GH200 与 NVIDIA Quantum-2 InfiniBand 网络平台互联。

英伟达称德国的 JUPITER 将在气候和天气预测等领域取得科学突破,通过交互式可视化生成高分辨率的气候和天气模拟,也将被用于药物研发、量子计算和工业工程领域。

以上就是英伟达宣布推出HGX H200人工智能加速卡 推理速度较H100翻倍”的详细内容,想要了解更多IT圈内资讯欢迎持续关注编程学习网。

扫码二维码 获取免费视频学习资料

Python编程学习

查 看2022高级编程视频教程免费获取