A 英特尔 发布了其第四代的详细信息 至强可扩展 CPU,专注于高性能计算和为不同市场开发新的人工智能技术。 重要的是要记住,此次发布是针对企业市场的,同时也在数据安全方面做出了更大的努力。
A NVIDIA公司 将其 GPU 与来自 英特尔 使多个部门取得进展,进一步提高能源效率并创造新的解决方案。 立即查看它的所有详细信息。
NVIDIA 与英特尔合作推出 Greener Generation
新的 CPU 至强可扩展 第四代,基于架构 蓝宝石急流, 将被部署到平台 英伟达人工智能 以便来自不同市场的专业人士能够在他们的项目中获得最大的绩效。
除了具有集成加速器以提供更好的性能和更高的每瓦效率外,第四代芯片旨在高性能计算(也称为 HPC 或 高性能计算) 得益于 H25 GPU,平均工作负载将提高 100 倍。
第一个收到消息的服务器 至强可扩展 CPU 将是 英伟达 DGX H100, 指望 100 个 NVIDIA H640 显卡,共 XNUMX GB VRAM、2TB RAM、30TB SSD 存储以及 NVIDIA CONNECTX-7 和 BLUEFIELD 等功能,可提供总计 1TB/s 的双向网络带宽。
该公司确认,配备这些项目的服务器的能效比上一代提高了 3,5 倍。 将其转化为实际数字,拥有 AI 数据中心的拥有成本要低 3 倍之多。
更强的连接性,更好的数据交换
另一个应该被利用的进步 NVIDIA公司 在于增加了对 PCIe Gen 5 的支持,从 CPU 到 NVIDIA GPU 的数据传输速率提高了一倍。 新的CPU来自 英特尔 他们还将能够在他们安装的每台服务器上提供更高的 GPU 密度和高速网络。
视频卡公司强调了更高带宽的型号 英特尔:无论每天进行的活动类型如何,都可以达到每秒 400 吉比特。 最大的收获是更好的工作负载性能,实际上,这允许在服务器和物理存储之间更好地传输信息和文件。
值得记住的是,新服务器 H100 PCIe GPU 也有 英伟达企业版,其中包括一个完整的 AI 软件开发套件,完全安全并准备好构建各种应用程序。
效率增益
关闭细节,据透露,带有 AI 的新服务器设法将语言模型训练时间从 40 天减少到仅两天。 该比较是根据 X86 架构服务器的数据引用的, 英伟达 DGX H100 运用 英特尔至强 CPU 足以改变整个开发过程。
其他收益包括在大规模高效计算方面的性能比上一代高 9 倍比双路服务器高 20 到 40 倍 X86 非加速 AI 培训和高性能计算工作负载。
使用示例包括创建生成式 AI 使用(创建图像、视频等)、语言模型、推荐系统等。 可以访问性能的预览 英伟达 H100 通过填写 登记在 快速启动, 免费提供。 请务必订阅以了解这对新技术的开发有何帮助!
您如何看待新服务器的细节? 告诉我们 评论!
参见
CES 2023:NVIDIA 发布有关 Omniverse 和智能汽车的新闻
附资料: 英伟达博客