智能云域名资讯|域名门户|域名新闻中心

新闻资讯频道
云计算领域最新资讯

【置顶推荐】 终于有人把云计算、大数据和人工智能讲明白了!

一般谈云计算的时候会提到大数据、谈人工智能的时候会提大数据、谈人工智能的时候会提云计算……感觉者之间相辅相成又不可分割。但如果是非技术的人员,就可能比较难理解这三者之间的相互关系,所以有必要解释一下。 今天跟大家讲讲云计算、大数据和人工智能。这三个词现在非常火,并且它们之间好像互相有关[……]

Read more

互联网+

H200多模态 AI:大显存统一承载图文视频模型

阅读(6 ) 评论()

H200多模态 AI:大显存统一承载图文视频模型 多模态 AI(如文生图、视频理解、视觉问答)往往需要同时运行图像编码器、文本编码器、融合模块等至少两到三个大型子网络。若显存不足,则不得不将部分模型参数与中间特征卸载至 CPU,引入严重延迟。H200 的 141 GB 显存可一次性容纳主[……]

Read more

IT访谈

H200千亿级大模型预训练:全量加载与高效迭代

阅读(7 ) 评论()

H200千亿级大模型预训练:全量加载与高效迭代 H200 以 141 GB 超大显存,为千亿级大模型预训练带来了革命性改变。以往,千亿参数模型仅模型权重(FP16)就需约 200 GB 显存,通常需要多卡并行且频繁进行显存与内存间的数据交换,严重拖慢训练速度。H200 通过先进的显存压缩[……]

Read more

IT访谈

HBM3e内存——大模型的滔天水量需宽渠

阅读(45 ) 评论()

HBM3e内存——大模型的滔天水量需宽渠 HBM3e是HBM3的增强版本,在同样物理引脚数下实现了更高的数据传输速率。Hopper架构中后期版本引入对这一内存标准的支持,其单引脚速率可达8 Gbps以上,六颗HBM3e堆叠提供高达8 TB/s以上的总带宽——约为此前HBM3方案的1.5倍[……]

Read more

互联网+

Hopper架构升级——内存与互连的双轮驱动

阅读(41 ) 评论()

Hopper架构升级——内存与互连的双轮驱动 Hopper架构相对于上一代Ampere,其“显性升级”聚焦于内存子系统和片间互连。算力基底与H100保持一致——即SM结构、CUDA核心数量和Tensor核心峰值吞吐未做革命性调整,但能效表现和实际吞吐却因架构优化而显著提升。[……]

Read more

互联网+

多实例GPU(MIG)——单卡化身为七巧板

阅读(40 ) 评论()

多实例GPU(MIG)——单卡化身为七巧板 多实例GPU技术将一张物理GPU安全划分为多个独立、隔离的计算实例。Hopper架构延续并强化了这一能力,最多支持7个MIG实例,每个实例分配约18 GB的HBM内存和对应的计算资源。7个实例的配置对应于将GPU的L2缓存、内存控制器、计算簇等[……]

Read more

互联网+

H200工艺与晶体管——800亿枚开关的精密世界

阅读(41 ) 评论()

H200工艺与晶体管——800亿枚开关的精密世界 TSMC 4N工艺并非标准的N4制程,而是NVIDIA与台积电深度合作的定制版本,专为大尺寸GPU优化。在约814平方毫米的芯片面积上,集成了大约800亿个晶体管——密度接近每平方毫米1亿个。这一数字远超上一代A100的540亿晶体管,体[……]

Read more

互联网+

H200功耗与封装——巨力之躯的物理承载

阅读(40 ) 评论()

H200功耗与封装——巨力之躯的物理承载 700瓦的TDP,这已接近家用微波炉的功率水平,却浓缩于一枚GPU芯片之中。Hopper架构的这一代产品在功耗与封装层面展现出极致的工程挑战。SXM5形态作为NVIDIA为数据中心设计的专用模块,通过将GPU与基板、内存、供电系统紧密整合,实现了[……]

Read more