已被禁止向中国供货 英伟达A100和H100 (已被暂时禁止获取免费 需要等多久)

已被禁止向中国供货 英伟达A100和H100 (已被暂时禁止获取免费 需要等多久)

英伟达 A100 和 H100 已被禁止向中国供货

根据美国证券交易委员会(下文简称:SEC)的最新通知,英伟达将需要获得许可才能向中国和俄罗斯出口任何基于最新架构的 A100 GPU 或 DGX/HGX 等系统。新规定的要求也适用于即将推出的 H100(Hopper)GPU 或实现类似性能的产品。

美国政府认为,需要此类许可来限制此类产品被两国用于某些领域。需要注意的是,英伟达不对俄罗斯的客户销售产品。这一决定可能会影响英伟达 Hopper 架构的开发,因为这一新要求或许会让英伟达将“某些业务”转移出中国。

英伟达则可能会因为该规定损失约 4 亿美元的潜在销售收入,前提是没有其他选择或 SEC 未按时授予出口许可证。

通知全文如下:

据集微网报道,英伟达方面也告知收到如下通知,英伟达中国区已收到总部要求,暂停对中国区所有客户所有代理商的数据中心 GPU 卡 A100 和 H100 的发货,其它 GPU 卡不受影响;各服务器 OEM 的现有库存 A100 GPU 卡,目前可以对各自的行业客户继续交付, 英伟达中国区目前也没有对 OEM 发任何 Letter。据悉,英伟达总部还在分析美国政府的政策要求,预计还需要 2~3 天才会有对中国区客户与合作伙伴的沟通口径。

除此之外,业内也有媒体报道称 AMD 收到了类似的要求,对中国区客户断供高端 GPU 芯片,但目前尚未得到 AMD 方面的官方回应。

消息来源:top="2205">A100 和 H100 有多强悍?

相比于英伟达前一代的 Volta GPU,A100 的性能提升了 20 倍,非常适合于人工智能、数据分析、科学计算和云图形工作负载。该芯片由 540 亿个晶体管组成,打包了第三代 Tensor 核心,并具有针对稀疏矩阵运算的加速功能,对于 AI 推理和训练来说特别有用。此外,每个 GPU 可以划分为多个实例,执行不同的推理任务,采用 Nvidia NVLink 互连技术可以将多个 A100 GPU 用于更大的 AI 推理工作负载。

然而,这些在 H100 出现之后显得略有不足了。在今年春季的发布会中,黄仁勋发布了面向高性能计算(HPC)和数据中心的下一代 Hopper 架构,搭载新一代芯片的首款加速卡被命名为 H100,它就是 A100 的替代者。

H100 是一款针对大模型专门优化过的芯片,使用台积电 5nm 定制版本制程(4N)打造,单块芯片包含 800 亿晶体管。同时也是全球首款 PCI-E 5 和 HBM 3 显卡,一块 H100 的 IO 带宽就是 40 terabyte 每秒。

Transformer 类预训练模型是当前 AI 领域最热门的方向,英伟达以此为目标专门优化 H100 的设计,提出了 Transformer Engine,集合了新的 Tensor Core、FP8 和 FP16 精度计算,以及 Transformer 神经网络动态处理能力,可以将此类机器学习模型的训练时间从几周缩短到几天。

针对服务器应用,H100 也可以虚拟化为 7 个用户共同使用,每个用户获得的算力相当于两块全功率的 T4 GPU。此外,H100 还实现了业界首个基于 GPU 的机密计算。

基于 Hopper 架构的 H100,英伟达还推出了机器学习工作站、超级计算机等一系列产品。8 块 H100 和 4 个 NVLink 结合组成一个巨型 GPU——DGX H100,一共有 6400 亿晶体管,AI算力32 petaflops,HBM3 内存容量高达 640G。

与此同时,得益于与 Equinix(管理全球 240 多个数据中心的全球服务提供商)的合作, A100 和 H100 的新型 GPU 通过水冷方式来节省用户的能源成本。使用这种冷却方法最多可以节省 110 亿瓦时,可以在 AI 和 HPC 推理工作中实现 20 倍的效率提升。

今年 5 月份,英伟达曾开源了 Linux GPU 内核模块代码,未来是否还会有更多开源计划,暂未可知。

声明:本文来自用户分享和网络收集,仅供学习与参考,测试请备份。