在MLPerf行业标准AI在基准测试中首次亮相NVIDIAH100TensorCoreGPU世界纪录是在所有工作负载推理中创造的,其性能优于上一代GPU高出4.5倍。 这些测试结果表明,对于那些需要高级的测试结果AI对于在模型中获得最高性能的用户,Hopper是最佳选择。
此外,NVIDIAA100TensorCoreGPU和用于AI机器人的NVIDIAJetsonAGXOrin模块在所有MLPerf包括图像和语音识别自然语言处理和推荐系统包括图像和语音识别自然语言处理和推荐系统。 H100(又名Hopper)在所有六个神经网络中,提高单个加速器的性能基准。它在单个服务器和离线场景中的吞吐量和速度方面处于领先地位。 NVIDIAH100GPU在数据中心类别的所有工作负载上建立了新的基准 NVIDIAHopper架构性能比NVIDIAAmpere建筑高出4.5倍;Ampere架构GPU在MLPerf在结果中继续保持全方位的领先地位。 Hopper用于自然语言处理的流行语言BERT模型的优秀部分归功于它TransformerEngine。BERT是MLPerfAI一种规模最大、性能要求最高的模型。 这些推理基准测试标志着H100GPU今年晚些时候,它将首次公开亮相。H100GPU也将参与未来MLPerf训练基准测试。 A100GPU展示领先优势 在最新的测试中,NVIDIAA100GPU继续在主流AI在推理性能方面,它显示出全面的领先地位。目前,主要的云服务提供商和系统制造商都提供A100GPU。 在数据中心和边缘计算类和场景中,A100GPU赢得的测试项目超过任何其他提交的结果。A100还在6月的MLPerf在训练基准测试中取得了全面的领先,展示了它的整体AI能力在工作流。 A100还在6月的MLPerf在训练基准测试中取得了全面的领先,展示了它的整体AI工作过程中的能力。 自2020年7月在MLPerf自上次亮相以来,因为NVIDIAAI不断改进软件,A100GPU性能提高了6倍。 NVIDIAAI它是唯一能够在数据中心和边缘计算中运行所有数据的人MLPerf平台推理工作负荷和场景。 用户需要通用性能 NVIDIAGPU在所有主要AI模型的领先性能使用户成为真正的赢家。在实际应用中,用户通常会使用许多不同类型的神经网络。 例如,一个AI应用程序可能需要理解用户的语音请求,对图像进行分类,提出建议,然后使用声音作为语音信息进行响应。每个步骤都需要不同类型的AI模型。 MLPerf基准测试涵盖了所有这些和其他流行测试AI计算机视觉、自然语言处理、推荐系统、语音识别等工作负载和场景。这些测试确保用户能够获得可靠、灵活的性能部署。 MLPerf用户可以凭借其透明度和客观性做出明智的购买决策。基准测试包括亚马逊,Arm,百度,谷歌,哈佛大学,英特尔,Meta,广泛支持微软、斯坦福大学和多伦多大学。 Orin在边缘计算领域保持领先地位 就边缘计算而言,NVIDIAOrin运行了所有MLPerf基准测试是在所有低功耗系统级芯片中测试最多的芯片。而且,和4月份一样MLPerf与第一次亮相相比,其能效提高了50%。 在上一轮基准测试中,Orin运行速度和平均能效分别高于上一代JetsonAGXXavier模块高出5倍和2倍。 在能效方面,Orin边缘AI推理性能提升50% Orin将NVIDIAAmpere架构GPU和强大的ArmCPU内核集成到芯片中。Orin现已被用NVIDIAJetsonAGXOrin支持完整的开发者套件、机器人和独立系统生产模块NVIDIAAI软件堆栈,包括自动驾驶汽车平台(NVIDIAHyperion),医疗设备平台(ClaraHoloscan)和机器人平台(Isaac)。 广泛的NVIDIAAI生态系统 MLPerf结果显示,NVIDIAAI机器学习生态系统得到了广泛的支持。 在这一轮基准测试中,有70多个提交结果NVIDIA在平台上运行。MicrosoftAzure提交在其云服务上运行NVIDIAAI的结果。 此外,还有19家系统制造商NVIDIA参加本轮基准考试的认证系统包括华硕、戴尔科技、富士通、技嘉、惠和、联想、超微等。 他们的结果表明,用户可以使用他们自己的数据中心运行的云或服务器NVIDIAAI获得优秀的性能。 NVIDIA合伙人参与MLPerf因为他们知道这是对客户的评估AI平台和制造商的重要工具。最新一轮的结果表明,他们目前向用户提供的性能将伴随着NVIDIA随着平台的发展而增长。 所有用于这些测试的软件都可以从MLPerf这些世界级的成可以获得这些世界级的成就。NGC(NVIDIA的GPU加速软件目录)以容器化的形式不断增加优化。在这里,你会发现NVIDIATensorRT,本轮测试的每次提交都使用它进行优化AI推断。 (责任编辑:admin) |