NVIDIA Run:ai

用于 AI 工作负载和 GPU 编排的企业级平台。

概述

借助动态编排加速 AI 工作流

NVIDIA Run:ai 通过动态资源分配、全面的 AI 生命周期支持和战略资源管理来解决关键的基础设施挑战,从而加速 AI 和机器学习操作。通过跨环境汇集资源并利用高级编排,NVIDIA Run:ai 显著提高了 GPU 效率和工作负载容量。NVIDIA Run:ai 支持公有云、私有云、混合环境或本地部署数据中心,提供无与伦比的灵活性和适应性。

什么是智能编排?

了解 AI 原生工作负载编排如何最大限度地提高 GPU 效率,简化 AI 基础设施管理,以及如何在混合云和多云环境中无缝扩展 AI 工作负载。

什么是 NVIDIA Run:ai?

NVIDIA Run:ai 在整个 AI 生命周期内通过动态编排加速 AI 操作,最大限度地提高 GPU 效率,扩展工作负载,并无缝集成到混合 AI 基础设施中,无需人工干预。

NVIDIA Run:ai 提供无缝贯穿 AI 生命周期,通过 GPU 编排进行高级 AI 工作负载编排,以及强大的策略引擎,将资源管理转变为战略资产,确保资源利用率优化并与业务目标保持一致。

特性

AI 工作负载和 GPU 编排,以大规模构建、训练和部署 AI 工作负载

AI 原生工作负载编排

NVIDIA Run:ai 专为 AI 工作负载而打造,可提供智能编排,最大限度地提高计算效率,并动态扩展 AI 训练和推理。

统一 AI 基础设施管理

NVIDIA Run:ai 提供集中式方法来管理 AI 基础设施,确保在混合云、多云和本地部署环境中优化工作负载分配。

灵活的 AI 部署

NVIDIA Run:ai 无论是在本地、云端还是在混合环境中,均支持 AI 工作负载,从而实现与 AI 生态系统的无缝集成。

开放式体系架构

NVIDIA Run:ai 采用 API 优先方法,可确保与所有主要 AI 框架、机器学习工具和第三方解决方案无缝集成。

性能

现实世界中的 AI 加速:经过验证的大规模 GPU 编排

动态调度和编排可加速 AI 吞吐量、实现无缝扩展并更大限度地提高 GPU 利用率。

10 倍

GPU 可用性

20 倍

运行中的工作负载

5 倍

GPU 利用率

0

人工干预

NVIDIA Run:ai KAI Scheduler OSS

NVIDIA KAI Scheduler

基于 NVIDIA Run:ai,开源的 KAI Scheduler 与常见的 Kubernetes 技术集成,利用 YAML 文件和 kubectl 轻松灵活地管理 AI 工作负载。非常适合开发者和小型团队,它为编排 AI 资源提供了高效的解决方案。

优势

释放 AI 基础设施的全部潜力

NVIDIA Run:ai 专为 AI 调度和基础设施管理而打造,可在 AI 整个生命周期中加速 AI 工作负载,缩短价值实现时间。

更大限度地提高 GPU 利用率,最大限度地降低成本,并提高 AI 效率

NVIDIA Run:ai 在混合环境中动态地汇集和编排 GPU 资源。通过消除浪费、最大限度地利用资源,并将计算能力与业务优先级保持一致,企业实现了卓越的投资回报率,降低了运营成本,并快速扩展 AI 计划。

从开发到部署无缝加速 AI

NVIDIA Run:ai 可在 AI 生命周期中实现从开发到训练和部署的无缝过渡。通过编排资源并将不同的 AI 工具集成到统一的工作流中,该平台可减少瓶颈,缩短开发周期,并更快地将 AI 解决方案扩展到生产环境中,从而取得切实的业务成果。

集中式编排以实现全面 AI 控制

NVIDIA Run:ai 提供对分布式 AI 基础设施、工作负载和用户的端到端可视化和控制。该技术的集中式编排整合来自云端、本地部署和混合环境的资源,为企业提供可行的见解、策略驱动式治理和精细资源管理,从而实现高效和可扩展的 AI 运营。

跨越各种环境灵活集成

NVIDIA Run:ai 以卓越的灵活性和可用性为现代 AI 工厂提供支持。其开放式体系架构可与任何机器学习工具、框架或基础设施无缝集成,无论是在公有云、私有云、混合环境中,亦或本地部署数据中心。

用例

借助智能编排加速 AI 工作负载

NVIDIA Run:ai 专为 AI 工作负载而打造,可提供智能编排,最大限度地提高计算效率,并动态扩展 AI 训练和推理。

企业 AI 加速

NVIDIA Run:ai 帮助企业高效扩展 AI 工作负载,从而降低成本并改善 AI 开发周期。通过动态分配 GPU 资源,企业组织可更大限度地提高计算利用率,减少空闲时间,并加速机器学习计划。NVIDIA Run:ai 还通过提供统一的管理界面简化 AI 运营,实现数据科学家、工程师和 IT 团队之间的无缝协作。

AI 工厂

NVIDIA Run:ai 自动执行资源配置和编排,为研究和生产 AI 构建可扩展的 AI 工厂。 其 AI 原生调度可确保在多个工作负载之间优化资源分配,从而提高效率并降低基础设施成本。 从数据准备和模型训练到部署和监控,企业可为 AI 生命周期提供端到端支持。 这种集成方法简化了开发流程,缩短上市时间,并确保所有阶段的一致性,从而大规模推动 AI 创新。

混合云 AI 工作负载

借助 NVIDIA Run:ai,企业可以通过统一编排无缝管理 AI 工作负载在本地部署、云端和边缘环境中。 该技术提供智能工作负载布置,确保根据资源可用性、成本和性能要求,在最有效的位置执行 AI 任务。 通过与混合云和多云环境无缝集成,企业可以在不影响安全或合规性的情况下实现更高的灵活性和可扩展性。

技术

借助 NVIDIA 的动态编排提供加速 AI 运营

NVIDIA Run:ai 为 NVIDIA 的 AI 平台带来了先进的编排和调度功能,降低了企业操作的复杂程度,实现 AI 运算性能的扩展最大化。

NVIDIA Mission Control

将基础设施和工作负载的 AI 运营提升到新水平。

NVIDIA Mission Control 通过提供即时敏捷性、基础设施弹性和超大规模效率来简化 AI 运营。该技术借助包括 NVIDIA Run:ai 技术在内的全栈软件智能加速企业的 AI 实验。

NVIDIA DGX Cloud Create

出色的云端 NVIDIA AI 平台。

NVIDIA DGX™ Cloud Create 是一个与领先的云服务提供商共同设计的全面管理 AI 平台,提供短期大规模集群。凭借与 NVIDIA Run:ai 功能集成的行业领先软件,开发者从第一天起就能实现高效生产,并获得高 GPU 利用率。

合作伙伴

我们的合作伙伴

联系您的首选提供商或访问 NVIDIA 合作伙伴网络,了解为其解决方案提供 NVIDIA Run:ai 集成的领先生态系统提供商。

后续步骤

准备好开始了吗?

借助 NVIDIA Run:ai 的智能编排加速 AI 从开发到部署。

探索 NVIDIA 的新动态

及时了解 NVIDIA 发布的有关企业和开发者的最新动态、公告及其他内容。

需要选择合适的合作伙伴帮助?

查看通过 NVIDIA Run:ai 认证的 NVIDIA 合作伙伴列表。

联系我们,了解有关 NVIDIA Run:ai 详情