您好,欢迎访问东莞市显若海绵制品有限公司官网!我们专注PP\PU\PO\PVC\PVA\EPDM吸水海绵滚轮、气垫粉扑化妆棉研发十五年!
PP\PU\PO\PVC\PVA\EPDM吸水海绵滚轮|气垫粉扑化妆棉|吸水海绵片材-东莞显若海绵制品有限公司【官网】
您的位置: 主页 > 新闻动态 > 行业新闻

新闻动态

联系我们

PP\PU\PO\PVC\PVA\EPDM吸水海绵滚轮|气垫粉扑化妆棉|吸水海绵片材-东莞显若海绵制品有限公司【官网】

地址:东莞常平环常北路568号珠宝文化产业中心22栋401室
手机:13922973595

咨询热线0769-83996605

英伟达、AMD确认对华断供高端GPU芯片

发布时间:2022-09-05 10:20人气:

英伟达周三表示,已经收到美国政府要求其停止向中国出口两款用于人工智能工作的顶级计算芯片的通知,此举可能会削弱中国公司开展先进技术的能力。像图像识别这样的工作,阻碍了英伟达在中国的业务。

 

英伟达股价盘后下跌6.6%。该公司表示,该禁令影响了其旨在加速机器学习任务的A100和H100芯片,可能会干扰英伟达今年宣布的旗舰芯片H100的开发完成。

 

与此同时,英伟达的竞争对手AMD也向媒体表示,公司也已收到新的许可要求,将阻止其MI250人工智能芯片出口到中国,但它相信其MI100芯片不会受到影响。AMD表示,它不相信新规则会对其业务产生重大影响。受此消息影响AMD盘后下跌3.79%。

 

由于个人电脑需求下降,英伟达已经面临销售下滑。在收到通知的前一天,该公司给出了令人失望的预测,称需要削减出货量以减少过剩的库存。现在英伟达又面临了更大的麻烦。英伟达表示,如果该公司没有获得向中国销售芯片的许可,可能会损失4亿美元的销售额。这约占第三财季收入的6.8%。

 

英伟达于美国时间8月31日披露了该通知,英伟达公司在一份电子邮件声明中表示:“我们正在与中国客户合作,以满足他们计划或未来购买替代产品的需求,并且可能会在替代产品不足的情况下寻求许可。新许可要求适用的唯一当前产品是A100、H100以及包含它们的DGX等系统。”

 

英伟达披露内容如下:2022年8月26日,美国政府或USG通知NVIDIA,USG已对本公司未来向中国(包括香港)和俄罗斯的任何出口实施一项新的许可要求,立即生效。A100和即将推出的H100芯片,DGX或包含A100或H100芯片和A100X的任何其他系统也包含在新的许可要求中。许可要求还包括任何未来的NVIDIA芯片,其峰值性能和芯片到芯片的I/O性能等于或大于大致相当于A100的阈值,以及包括了这些芯片的任何系统。出口技术以支持或开发涵盖产品需要许可证。USG表示,新的许可要求将解决涵盖产品可能用于或转用于中国和俄罗斯的“军事最终用途”或“军事最终用户”的风险。

 

新的许可要求可能会影响公司及时完成H100开发或支持A100现有客户的能力,并可能要求公司将某些业务转移到中国以外。该公司与美国政府合作,并正在为公司的内部开发和支持活动寻求豁免。

 

此外,公司正在与中国的客户接触,并寻求满足他们计划或未来购买公司数据中心产品的需求,产品不受新许可要求的约束。如果客户需要新许可证要求所涵盖的产品,公司可以为客户寻求许可证,但不保证 USG 将向任何客户授予任何豁免或许可证,也不保证 USG 将及时采取行动。

 

NVIDIA于2022年8月24日发布的第三财季展望包括约4亿美元的潜在中国销售,如果NVIDIA客户不想购买公司的替代产品,或者如果USG没有及时授予许可证或拒绝向NVIDIA重要客户发放许可证,NVIDIA 可能因新的出口限制而损失 4 亿美元的收入。

 

A100和H100有多强悍?

相比于英伟达前一代的Volta GPU,A100的性能提升了20倍,非常适合于人工智能、数据分析、科学计算和云图形工作负载。该芯片由540亿个晶体管组成,打包了第三代Tensor核心,并具有针对稀疏矩阵运算的加速功能,对于AI推理和训练来说特别有用。此外,每个GPU可以划分为多个实例,执行不同的推理任务,采用Nvidia NVLink互连技术可以将多个A100 GPU用于更大的AI推理工作负载。

 

然而,这些在H100出现之后显得略有不足了。在今年春季的发布会中,英伟达CEO黄仁勋发布了面向高性能计算(HPC)和数据中心的下一代Hopper架构,搭载新一代芯片的首款加速卡被命名为H100,它就是A100的替代者。

 

H100是一款针对大模型专门优化过的芯片,使用台积电5nm定制版本制程(4N)打造,单块芯片包含800亿晶体管。同时也是全球首款PCI-E5和HBM3显卡,一块H100的IO带宽就是40 terabyte每秒。

 

Transformer类预训练模型是当前AI领域最热门的方向,英伟达以此为目标专门优化H100的设计,提出了Transforme rEngine,集合了新的Tensor Core、FP8和FP16精度计算,以及Trans former神经网络动态处理能力,可以将此类机器学习模型的训练时间从几周缩短到几天。

 

针对服务器应用,H100也可以虚拟化为7个用户共同使用,每个用户获得的算力相当于两块全功率的T4GPU。此外,H100还实现了业界首个基于GPU的机密计算。

 

基于Hopper架构的H100,英伟达还推出了机器学习工作站、超级计算机等一系列产品。8块H100和4个NVLink结合组成一个巨型GPU—DGXH100,一共有6400亿晶体管,AI算力32petaflops,HBM3内存容量高达640G。

 

与此同时,得益于与Equinix(管理全球240多个数据中心的全球服务提供商)的合作,A100和H100的新型GPU通过水冷方式来节省用户的能源成本。使用这种冷却方法最多可以节省110亿瓦时,可以在AI和HPC推理工作中实现20倍的效率提升。

 

今年5月份,英伟达曾开源了LinuxGPU内核模块代码,未来是否还会有更多开源计划,暂未可知。

 

从全球GPU整体市场格局来看,Intel得益于在笔记本电脑及传统PC行业的优势,一直是集成GPU市场的龙头,市场份额高达68.30%。但是,在独立显卡市场,则主要由英伟达和AMD两家公司垄断。

 

根据JonPeddie Research的数据,2021年四季度,在全球独立GPU市场,英伟达份额高达81%,其余19%则被AMD拿下。虽然近两年英特尔推出了Xe系列独立显卡,但目前销量仍相对有限,预计其最新的市场份额可能仍在5%以下。同样,在面向数据中心的高端独立GPU市场,也几乎是由英伟达和AMD两家垄断。

 

北京半导体行业协会副秘书长朱晶对经济观察网表示,根据消息,被封锁的产品是有足够双精度计算能力的高端GPU,对于低端GPU不受影响。具备较高双精度计算能力的高端GPU主要用于高性能计算领域,包括科学计算,CAE(计算机辅助工程),医疗等方面。就NVIDIA来说,是以A100算力为基准,比它先进的所有显卡产品都会受限。

 

超算中心由数千甚至更多处理器组成,具备超高算力,主要满足国家高科技领域和尖端技术研究的需求;普通的数据中心面向所有需要信息技术支撑的场景,包括互联网应用。中国的电信运营商、互联网公司都自建数据中心。朱晶表示,企业级数据中心经常采购NVIDIA的A100、H100产品,这些产品都是有足够双精度计算能力的高端GPU,上述断供行为如果落实,造成的波及范围会比较大。

推荐资讯

0769-83996605