寻找合适的工具,将大语言模型从开发阶段推向生产阶段
体验企业就绪型端到端生成式 AI 平台。
体验经过 NVIDIA 优化的基础模型。
使用 NeMo 和 NVIDIA 托管的 API 进行原型设计。
借助 NVIDIA AI Enterprise 在生产环境中运行。
利用 NVIDIA 构建的领先开源生成式 AI 模型开始原型设计工作,这些模型均已经过调整,可实现高性能和高效率。然后即可使用 NeMo 定制 LLM,并使用 NVIDIA API 目录中的 NVIDIA NIM 部署 LLM。
开始开发生成式 AI 模型,包含自动化的数据处理、模型训练技术,以及灵活的部署选项。
将企业数据连接到生成式 AI 模型,并以最低延迟、最高吞吐量和最大程度的数据隐私检索信息。
对 LLM 进行对话管理编排,确保智能应用的准确性、适当性和安全性。
这款经由 GPU 加速的数据管护工具可用于准备预训练生成式 AI 模型所需的大规模、高质量数据集。
利用这款高性能、可扩展的微服务,简化针对特定使用场景的 LLM 的微调和校准工作。
在任何云或数据中心内,根据各种学术基准和自定义基准高效可靠地评估自定义 LLM 和 RAG。
NVIDIA AI Enterprise 是一个端到端的软件平台,它使每个企业都能触手可及地利用生成式 AI,为生成式 AI 基础模型提供最快、最高效的运行时环境该平台包含 NeMo 和 NVIDIA NIM,能够简化模型部署,并提供出色的安全性、稳定性、可管理性和支持服务。
立即申请参与 90 天免费评估,以便使用生成式 AI 解决方案并获取企业级支持。
在 NeMo 文档中心,您可以找到一系列文档、指南、手册、操作方法和其他信息资源。
查看 NVIDIA 点播会议,其中包含 GTC 和世界各地其他技术会议上有关 NeMo 的免费内容。
了解 NeMo 如何助您构建、定制和部署大语言模型。
通过实战学习了解如何构建端到端项目,并获得最新生成式 AI 技术认证。
NVIDIA NeMo 是一款端到端云原生框架,可以让用户不受位置限制,灵活地构建、定制和部署生成式 AI 模型。它包含训练和推理框架、护栏工具包、数据管护工具和预训练模型,为企业快速采用生成式 AI 提供了一种既简单、又经济的方法。开发者可以通过多种方式获取 NeMo,包括:GitHub 上的开源代码、NVIDIA NGC™ 目录中的封装容器,或者 NVIDIA AI Enterprise 订阅。
NeMo 作为 NVIDIA AI Enterprise 的一部分提供。有关完整的定价和许可信息,请查看此处。
客户可以通过 NVIDIA AI Enterprise 订阅同时获得 NeMo 和 NVIDIA 商务标准支持。NVIDIA 商务标准支持可提供服务等级协议、与 NVIDIA 专家交流的机会,以及涵盖本地和云部署的长期支持。
NVIDIA AI Enterprise 中提供了 NVIDIA 商务标准支持。有关其他享有的支持和服务(例如 NVIDIA 业务关键型支持、技术客户经理、培训和专业服务等),请参阅《NVIDIA Enterprise 支持和服务指南》。
NVIDIA AI Enterprise 包含 NVIDIA 业务标准支持。有关 NVIDIA 业务关键型支持、技术客户经理、培训和专业服务等其他可用支持和服务,请参阅 NVIDIA 企业支持和服务指南。
NeMo Curator 是一款可扩展的数据管护工具,可帮助开发者整理 LLM 预训练所需的包含万亿令牌的多语种数据集。它由一组表示为 API 的 Python 模组组成,这些模组利用 Dask、cuDF、cuGraph 和 Pytorch 将各种数据管护任务(例如数据下载、文本提取、清理、过滤、精确/模糊重复数据删除以及文本分类等)扩展到数千个计算核心。
NeMo Guardrails 是一个开源工具套件,可调适对话管理,确保使用大型语言模型的智能应用的准确性、适当性和安全性。它能为监管 LLM 系统的企业组织提供保障。
NeMo Guardrails 可让开发者设置三种边界:
NeMo Retriever 由一系列生成式 AI 微服务组成,企业可利用它将自定义模型无缝连接到各类业务数据,以提供高度准确的回复。NeMo Retriever 可提供出色的信息检索能力,带来超低延迟、超高吞吐量和更强的数据隐私保护,让企业能够更好地利用数据并生成实时业务见解。NeMo Retriever 可通过企业级检索增强型生成 (RAG) 功能增强生成式 AI 应用,该功能可以连接到位于任何位置的业务数据。
NVIDIA NIM 是 NVIDIA AI Enterprise 的一部分,是一个易用的,运行时能加速生成式 AI 跨企业中的部署。这款多功能微服务支持广泛的 AI 模型,包括开源社区模型、NVIDIA AI Foundation 模型以及定制的 AI 模型。它以推理引擎为稳健基础,旨在促进大规模无缝 AI 推理,确保 AI 应用可以在云端、数据中心和工作站部署。
NeMo Evaluator 是一项自动化微服务,旨在快速为定制化的 LLM 和 RAG 提供可靠评估。它涵盖带有预定义指标的各种基准测试,包括人工评估和 LLM 评估 (LLMs-as-a-judge) 技术。多项评估作业可通过 API 调用同时部署在首选云平台或数据中心的 Kubernetes 上,以便高效汇总结果。
NeMo Customizer 是一项可扩展的高性能微服务,可简化特定领域用例的 LLM 的常规调整和微调工作。
检索增强型生成是一个可将 LLM 连接至公司的知识库,让 LLM 根据最新信息生成回复的技术。NeMo 可以搭配使用多种第三方工具和社区工具(包括 Milvus、Llama Index 和 LangChain),从向量数据库中提取相关信息片段,并将这些信息片段提供给 LLM,以便 LLM 以自然语言生成回复。
VIDIA 提供的 AI 工作流是云原生的封装参考示例,旨在展示如何利用 NVIDIA AI 框架构建 AI 解决方案。通过结合使用预训练模型、训练和推理工作流、Jupyter Notebook 以及 Helm 图表,AI 工作流可加快交付 AI 解决方案的过程。
借助以下端到端工作流,您可以快速构建生成式 AI 解决方案:
NVIDIA LaunchPad 是一个通用试验场,可针对最新的 NVIDIA 企业硬件和软件进行各种测试。这个动态平台可加快短期测试,促进长期概念验证 (POC),并推动托管服务和独立解决方案加速开发。
用户可根据自身需求量身定制规范性开发环境,开启专属 AI 之旅。此外,用户可以探索大量实战实验,这些实验旨在为一系列用例提供沉浸式体验,其内容涉及 AI、数据科学、3D 设计和基础架构优化。企业可以轻松访问部署在私有托管式基础架构上的各种最新加速的硬件和软件堆栈。
NVIDIA AI Enterprise 是一个端到端云原生软件平台,可加速数据科学工作流,简化生产级 AI 应用(包括生成式 AI、计算机视觉、语音 AI 等)的开发和部署。此平台不仅提供适合 AI 从业者的出色开发工具、框架、预训练模型和微服务,还能为 IT 专业人员提供可靠的管理功能,以保障性能、API 稳定性和安全性。
NVIDIA API 目录提供生产就绪型生成式 AI 模型和持续优化的推理运行时,它们被封装为 NVIDIA NIM,该微服务可在任何 GPU 加速系统上使用标准化工具轻松部署。
及时了解 NVIDIA 生成式 AI 的最新动态。
将 NVIDIA 的开发者更新、公告等信息直接发送到您的收件箱。
请向我发送 NVIDIA 发布的关于企业业务解决方案以及开发者技术和工具的新动态、公告及其他信息。
NVIDIA 隐私政策