[ad_1]
为什么重要: 在 GTC 2023 主题演讲中,Nvidia 首席执行官黄仁勋强调了旨在将 AI 带入每个行业的新一代突破。 Nvidia 与谷歌、微软和甲骨文等科技巨头合作,在 AI 训练、部署、半导体、软件库、系统和云服务方面取得进步。 宣布的其他合作伙伴关系和发展包括 Adobe、AT&T 和汽车制造商比亚迪等公司。
Huang 提到了 Nvidia 生态系统的许多例子,包括 Microsoft 365 和 Azure 用户访问构建虚拟世界的平台,以及亚马逊使用模拟功能来训练自主仓库机器人。 他还提到了 ChatGPT 等生成式人工智能服务的迅速崛起,并将其成功称为“人工智能的 iPhone 时刻”。
基于 Nvidia 的 Hopper 架构,Huang 宣布了一款新的 H100 NVL GPU,该 GPU 采用 NVLink 双 GPU 配置,以满足对 AI 和大型语言模型 (LLM) 推理不断增长的需求。 GPU 具有专为处理 GPT 等模型而设计的 Transformer Engine,可降低 LLM 处理成本。 该公司声称,与用于 GPT-3 处理的 HGX A100 相比,具有四对 H100 NVL 的服务器最多可以快 10 倍。
随着云计算成为一个价值 1 万亿美元的产业,Nvidia 为人工智能和云工作负载开发了基于 Arm 的 Grace CPU。 该公司声称在主要数据中心应用程序的相同功率范围内,性能是 x86 处理器的 2 倍。 然后,Grace Hopper 超级芯片结合了 Grace CPU 和 Hopper GPU,用于处理 AI 数据库和大型语言模型中常见的巨型数据集。
此外,Nvidia 的首席执行官声称他们的 DGX H100 平台具有八个 Nvidia H100 GPU,已成为构建 AI 基础设施的蓝图。 包括 Oracle Cloud、AWS 和 Microsoft Azure 在内的几家主要云提供商已宣布计划在其产品中采用 H100 GPU。 戴尔、思科和联想等服务器制造商也在制造由 Nvidia H100 GPU 提供支持的系统。
显然,生成式 AI 模型风靡一时,Nvidia 正在提供具有特定用例的新硬件产品,以更高效地运行推理平台。 全新的 L4 Tensor Core GPU 是针对视频进行了优化的通用加速器,与 CPU 相比,AI 驱动的视频性能提高了 120 倍,能效提高了 99%,而用于图像生成的 L40 针对图形和支持 AI 的 2D 进行了优化、视频和 3D 图像生成。
另请阅读: 英伟达赢下AI培训市场了吗?
Nvidia 的 Omniverse 也出现在汽车工业的现代化中。 到 2030 年,该行业将标志着向电动汽车、新工厂和电池巨型工厂的转变。 Nvidia 表示,Omniverse 正被主要汽车品牌用于各种任务:Lotus 将其用于虚拟焊接站组装,Mercedes-Benz 将其用于装配线规划和优化,Lucid Motors 将其用于构建具有准确设计数据的数字商店。 BMW 与 idealworks 合作进行工厂机器人培训,并计划完全在 Omniverse 中建立电动汽车工厂。
总而言之,有太多的公告和合作伙伴关系无法提及,但可以说最后一个重要的里程碑来自制造方面。 Nvidia 宣布推出“cuLitho”软件库,在芯片生产速度和能源效率方面取得突破,该软件库旨在将计算光刻加速高达 40 倍。
Jensen 解释说,cuLitho 可以大大减少芯片设计和制造中所需的大量计算和数据处理。 这将显着降低电力和资源消耗。 台积电和半导体设备供应商 ASML 计划将 cuLitho 纳入其生产流程。
[ad_2]
Source link