GTC 2024:超级芯片GB200、DRIVE Thor车载计算平台、GROOT机器人模型等

来源: 芯查查资讯 作者:Henry 2024-03-19 15:43:06
相关专题
#生成式AI:LLM与算力芯片
一文盘点GTC 2024重磅产品和技术

3月19日,NVIDIA在2024年GTC开发者大会上宣布了几项重大发布,包括全新的GPU架构,以及赋能不同行业的工具和平台。

“加速计算已经达到了临界点”英伟达首席执行官黄仁勋在年度会议上表示,“通用计算已经失去了动力”,与通用计算相比,加速计算的速度非常快,并且对所有行业的影响都是“巨大的”,尤其是在科技行业,加速计算可以帮助创造产品。

“我们将不得不构建更大的GPU。Hopper很棒,但我们需要更大的GPU”黄仁勋说,并介绍了以美国数学家David Harold Blackwell命名的新Blackwell GPU平台,这是继两年前推出的NVIDIA Hopper™架构以来的全新架构。

 

超级芯片GB200集成2080亿晶体管,年内上市

 

基于Blackwell GPU平台的第一款产品是GB200 Grace Blackwell超级芯片(下文简称GB200),通过900GB/s超低功耗的片间互联,将两个NVIDIA B200 Tensor Core GPU与NVIDIA Grace CPU相连。

NVIDIA表示,GB200为人工智能公司提供了巨大的性能升级,其AI性能为每秒20千万亿次浮点运算,而H100为每秒4千万亿次浮点运算。

 

 

NVIDIA Blackwell平台以赋能计算新时代,该平台可使世界各地的机构都能够在万亿参数的大语言模型(LLM)上构建和运行实时生成式AI,其成本和能耗较上一代产品降低多达25倍。

Blackwell GPU 架构搭载6项变革性的加速计算技术,这些技术将助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子计算和生成式AI等领域实现突破,这些都是NVIDIA眼中的新兴行业机遇。凭借6项变革性的技术,Blackwell能够在拥有高达10万亿参数的模型上实现AI训练和实时LLM推理,这些技术包括:

  • 全球最强大的芯片:Blackwell架构GPU具有2080亿个晶体管,采用专门定制的双倍光刻极限尺寸4NP TSMC工艺制造,通过10TB/s的片间互联,将GPU裸片连接成一块统一的GPU。
  • 第二代Transformer引擎:得益于全新微张量缩放支持,以及集成于NVIDIA TensorRT™-LLM和NeMo Megatron框架中的NVIDIA先进动态范围管理算法,Blackwell将在新型4位浮点AI推理能力下实现算力和模型大小翻倍。
  • 第五代NVLink:为了提升万亿级参数模型和混合专家AI模型的性能,最新一代NVIDIA NVLink®为每块GPU提供突破性的 1.8TB/s 双向吞吐量,确保多达 576 块 GPU 之间的无缝高速通信,满足了当今最复杂 LLM 的需求。
  • RAS 引擎:采用 Blackwell 架构的 GPU 包含一个用于保障可靠性、可用性和可维护性的专用引擎。此外,Blackwell 架构还增加了多项芯片级功能,能够利用 AI 预防性维护来运行诊断并预测可靠性相关的问题。这将最大程度地延长系统正常运行时间,提高大规模 AI 部署的弹性,使其能够连续不间断运行数周乃至数月,同时降低运营成本。
  • 安全 AI:先进的机密计算功能可以在不影响性能的情况下保护 AI 模型和客户数据,并且支持全新本地接口加密协议,这对于医疗、金融服务等高度重视隐私问题的行业至关重要。
  • 解压缩引擎:专用的解压缩引擎支持最新格式,通过加速数据库查询提供极其强大的数据分析和数据科学性能。未来几年,每年需要企业花费数百亿美元的数据处理将越来越多地由 GPU 加速。

 

NVIDIA DRIVE Thor™集中式车载计算平台

 

NVIDIA表示,交通运输领域的领先企业已采用NVIDIA DRIVE Thor™集中式车载计算平台为其下一代乘用车和商用车提供助力,其中包括新能源汽车(NEV)、卡车、自动驾驶出租车、自动驾驶公交车和为“最后一公里”而生的无人配送车等。

 

 

DRIVE Thor是专为汽车行业中日益重要的生成式AI应用而打造的车载计算平台。作为DRIVE Orin的后续产品,DRIVE Thor可提供丰富的座舱功能,以及安全可靠的高度自动化驾驶和无人驾驶功能,并将所有功能整合至同一个集中式平台上。NVIDIA创始人兼首席执行官黄仁勋在GTC主题演讲中宣布,这款新一代自动驾驶汽车(AV)平台将搭载专为Transformer、大语言模型(LLM)和生成式AI工作负载而打造的全新NVIDIA Blackwell架构。

 

Project GR00T人形机器人基础模型和Isaac机器人平台重大更新

 

新发布的人形机器人通用基础模型Project GR00T,旨在进一步推动其在机器人和具身智能方面的突破。NVIDIA还发布了一款基于NVIDIA Thor系统级芯片(SoC)的新型人形机器人计算机Jetson Thor,并对NVIDIA Isaac™机器人平台进行了重大升级,包括生成式AI基础模型和仿真工具,以及AI工作流基础设施。

 

GR00T驱动的机器人(代表通用机器人00技术)将能够理解自然语言,并通过观察人类行为来模仿动作——快速学习协调、灵活性和其它技能,以便导航、适应现实世界并与之互动。在GTC大会的主题演讲中,NVIDIA创始人兼首席执行官黄仁勋展示了数台这样的机器人是如何完成各种任务的。

Jetson Thor是一个全新的计算平台,能够执行复杂的任务并安全、自然地与人和机器交互,具有针对性能、功耗和尺寸优化的模块化架构。

该SoC包括一个带有transformer engine的下一代GPU,其采用NVIDIA Blackwell架构,可提供每秒800万亿次8位浮点运算AI性能,以运行GR00T等多模态生成式AI模型。凭借集成的功能安全处理器、高性能CPU集群和100GB以太网带宽,大大简化了设计和集成工作。

GR00T使用的Isaac工具还能够为在任何环境中的任何机器人创建新的基础模型。这些工具包括用于强化学习的Isaac Lab和用于计算编排服务的OSMO。

训练具身智能模型需要海量的真实数据和合成数据。新的Isaac Lab是一个GPU加速、性能优化的轻量级应用,基于Isaac Sim而构建,专门用于运行数千个用于机器人学习的并行仿真。

为了扩展异构计算的机器人开发工作负载,OSMO在分布式环境中协调数据生成、模型训练和软硬件在环工作流。NVIDIA还发布了Isaac Manipulator和Isaac Perceptor等一系列机器人预训练模型、库和参考硬件。

 

全新交换机优化万亿参数级GPU计算和AI基础设施

 

NVIDIA专为大规模AI量身订制的全新网络交换机-X800系列,包括NVIDIA Quantum-X800 InfiniBand网络和NVIDIA Spectrum™-X800以太网络,是全球首批高达800Gb/s端到端吞吐量的网络平台,将计算和AI工作负载的网络性能提升到了一个新的水平,与其配套软件强强联手可进一步加速各种数据中心中的AI、云、数据处理和高性能计算(HPC)应用,包括基于最新的NVIDIA Blackwell架构产品的数据中心。

 

电视游戏的萤幕

中度可信度描述已自动生成

 

Quantum InfiniBand和Spectrum-X以太网的早期用户包括微软Azure、Oracle Cloud Infrastructure和Coreweave等。

Quantum-X800平台树立了AI专用基础设施极致性能的新标杆,该平台包含了NVIDIA Quantum Q3400交换机和NVIDIA ConnectXⓇ-8 SuperNIC,二者互连达到了业界领先的端到端800Gb/s吞吐量,交换带宽容量较上一代产品提高了5倍,网络计算能力更是凭借NVIDIA的SHARP™技术(SHARPv4)提高了9倍,达到了14.4Tflops。

Spectrum-X800平台为AI云和企业级基础设施带来优化的网络性能。借助800Gb/s的Spectrum SN5600交换机和NVIDIA BlueField-3 SuperNIC,Spectrum-X800平台为多租户生成式AI云和大型企业级用户提供各种至关重要的先进功能。

Spectrum-X800通过优化网络性能,加快AI工作负载的处理、分析和执行速度,进而缩短AI解决方案的开发、部署和上市时间。Spectrum-X800专为多租户环境打造,实现了每个租户的AI工作负载的性能隔离,使业务性能能够持续保持在最佳状态,提升客户满意度和服务质量。

 

6G研究云平台以AI推动无线通信发展

 

NVIDIA 6G研究云平台具有开放、灵活和互联的特征,它为研究人员提供了一整套全面的工具,以推进AI应用在无线接入网络(RAN)技术。该平台使企业能够加快开发6G技术,从而将数万亿台设备与云基础设施连接起来,为建立一个以自动驾驶汽车、智能空间以及各种扩展现实和沉浸式教育体验与协作机器人为依托的超级智能世界奠定基础。

 

NVIDIA 6G研究云平台由以下三个部分组成:

  • 适用于6G的NVIDIA Aerial Omniverse数字孪生:一个参考应用和开发者示例,可实现从单塔到城市规模的完整6G系统的物理精确模拟。它整合了软件定义RAN和用户设备模拟器以及逼真的地形和物体属性。借助Omniverse Aerial数字孪生,研究人员将能够根据特定地点的数据模拟并构建基站算法,并通过实时训练模型来提高传输效率。
  • NVIDIA Aerial CUDA加速的无线接入网络:一个软件定义的全RAN协议堆栈,为研究人员实时自定义、编程和测试6G网络带来极大的灵活性。
  • NVIDIA Sionna神经无线电框架:该框架可与PyTorch和TensorFlow等主流框架无缝集成,利用NVIDIA GPU生成、获取海量数据并训练AI和机器学习(ML)模型。该框架还包含NVIDIA Sionna,这一领先的链路级研究工具适用于基于AI/ML的无线模拟。

 

Omniverse Cloud API为众多工业数字孪生软件工具提供助力

 

NVIDIA将以API形式提供Omniverse™ Cloud,将该全球领先的工业数字孪生应用和工作流创建平台的覆盖范围扩展至整个软件制造商生态系统。借助五个全新Omniverse Cloud应用编程接口(API),开发者能够轻松地将Omniverse的核心技术直接集成到现有的数字孪生设计与自动化软件应用中,或是集成到用于测试和验证机器人或自动驾驶汽车等自主机器的仿真工作流中。

 

 

一些全球大型工业软件制造商正在将Omniverse Cloud API加入到其软件组合中,包括Ansys、Cadence、达索系统旗下3DEXCITE品牌、Hexagon、微软、罗克韦尔自动化、西门子和Trimble等。

五个全新Omniverse Cloud API既可单独使用,也可组合使用。它们分别是:

  • USD Render:生成OpenUSD数据的全光线追踪NVIDIA RTX™渲染
  • USD Write:让用户能够修改OpenUSD数据并与之交互
  • USD Query:支持场景查询和交互式场景
  • USD Notify:追踪USD变化并提供更新信息
  • Omniverse Channel:连接用户、工具和世界,实现跨场景协作

 

生成式AI微服务推动药物研发、医疗科技和数字医疗发展

 

 

NVIDIA还推出了二十多项全新微服务,使全球医疗企业能够在任何地点和任何云上充分利用生成式AI的最新进展。全新NVIDIA医疗微服务套件包含经过优化的NVIDIA NIM™ AI模型和工作流,并提供行业标准应用编程接口(API),可用于创建和部署云原生应用。它们提供先进的医学影像、自然语言和语音识别以及数字生物学生成、预测和模拟功能。

此外,NVIDIA加速的软件开发套件和工具,包括Parabricks®、MONAI、NeMo™、Riva、Metropolis,现已通过NVIDIA CUDA-X™微服务提供访问,以加速药物研发、医学影像、基因组学分析等医疗工作流。

这些微服务,其中25个已于3月19日推出,可以加快医疗企业的转型,因为生成式AI为制药公司、医生和医院带来了众多的机会。其中包括筛选数万亿种药物化合物以促进医学发展、收集更完善的患者数据以改进早期疾病检测、实现更智能的数字助手等。

研究人员、开发者和医疗从业人员使用这些微服务可以轻松地将AI集成到全新的和现有的应用中,并在从云端到本地等任何地点运行这些应用,从而增强他们所从事的生命救助工作。

 

小结

 

NVIDIA在人工智能加速运算领域具有举足轻重的地位,历年的GTC大会都备受关注。NVIDIA CEO黄仁勋将GTC描述为不同领域的开发人员交流的最佳会议,他表示“这次会议包含一些了不起的企业代表”,并为GTC 2024拥有大量非IT行业代表而感到自豪。从本次大会推出的技术和产品来看,NVIDIA正深化加速运算在许多领域的应用,从而赋能人工智能为各行各业带来变革。

0
收藏
0