NVIDIA AI

借助 NVIDIA NIM 即时部署生成式 AI

探索经过优化的新 AI 模型,使用 NVIDIA Blueprint 将应用与数据相连接,然后使用 NVIDIA NIM 推理微服务在任意位置进行部署。

集成

只需调用 API 即可加速 AI

使用熟悉的 API 快速启动并运行。

与各种热门库无缝兼容

只需几行代码,即可在现有工具和应用中使用 NVIDIA API。

使用您喜欢的工具

使用您喜欢的大语言模型 (LLM) 编程框架(包括 LangChain 和 LlamaIndex),轻松将最新 AI 模型集成到您的应用中。

解锁企业数据中的洞察

数据为现代企业应用程序提供动力支持。借助采用检索增强生成 (RAG) 技术的 AI 查询引擎,将 AI 代理大规模地连接到企业数据,为员工提供即时、准确的企业内部知识。

NVIDIA Blueprint

这是构建有影响力的生成式 AI 应用所需的所有资源,每个 blueprint 蓝图包括 NVIDIA NIM 和合作伙伴的微服务、一个或多个 AI 智能体、示例代码、定制指令和 Helm 图表,以便部署。


随处运行

借助 NVIDIA NIM 加速 AI 部署

NVIDIA NIM 是 NVIDIA AI Enterprise 的一部分,是一套易于使用的预构建容器工具,可在任何云或数据中心上加速部署基础模型,并帮助您确保数据安全。

Accelerate Your AI Deployment With NVIDIA NIM

部署 NIM

用单个命令为您的模型部署 NIM。您还可以轻松地使用微调模型运行 NIM。

运行推理

借助最佳运行时引擎,在 NVIDIA 加速基础设施的基础上启动并运行 NIM。

构建

开发者只需通过几行代码,即可集成自托管 NIM 端点。

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

使用 Kubernetes 进行本地发布或扩展

在任何 NVIDIA 加速基础设施上无缝部署容器化 AI 微服务,涵盖从单一设备到数据中心的各种规模。

安全、自信地进行部署

依靠生产级运行时(包括持续的安全更新),使用稳定的 API 运行业务应用,并获得企业级支持。

降低成本并减少碳足迹

使用不断优化的 AI 运行时,在 NVIDIA 加速基础设施上实现低延迟和高吞吐量,从而降低在生产中运行模型所需的运营成本。

吞吐量

NVIDIA NIM 提供开箱即用的优化吞吐量和延迟,可更大限度地提高 Token 生成速度,为高峰期并发用户提供支持并提高响应能力。

配置:Llama3.1-8B-instruct, 1x H100SXM;输入 Token 长度:1000,输出 Token 长度:1000。并发客户端需求:200。NIM On:FP8,吞吐量 6,354 tokens/s, TTFT 0.4s, ITL: 31ms;NIM Off:FP8,吞吐量 2,265 tokens/s, TTFT 1.1s, ITL: 85ms

定制

针对您的特定领域需求定制 NIM 微服务

使用 NVIDIA NeMo 进行微调

NVIDIA NeMo™ 是一个用于随时随地开发自定义生成式 AI 的端到端平台。该平台包含用于训练、定制、检索增强生成 (RAG)、护栏、数据管护和模型预训练的工具,使企业可以轻松、经济、快速地使用生成式 AI。

了解 NVIDIA NIM 的实际应用

使用 NIM 访问供应链数据

入门指南

开始免费原型设计

开始使用简单易用的 NVIDIA 托管的无服务器 API。

  • 访问完全加速的 AI 基础设施。
  • 确保您的数据不会被用于模型训练。
  • 开始免费使用,获得 1,000 个推理额度。

下载和部署

运行 NVIDIA NIM,在您选择的云或数据中心中扩展经过优化的 AI 模型。

  • 确保数据永远不会被传输到您的安全隔区之外。
  • 无需更改代码,即可从云端点无缝过渡到自托管 API。
  • 在生产中使用 NVIDIA AI Enterprise 许可,或开始免费使用 NVIDIA 开发者计划

借助 NVIDIA AI Foundry 构建生成式 AI 定制模型

获取基础模型、企业软件、加速计算和 AI 专业知识,为您的企业应用构建、微调和部署自定义模型。

应用场景

点燃您的创新灵感

了解 NVIDIA API 如何为行业用例提供支持,并通过精选示例快速启动 AI 开发。

数字人

让游戏角色栩栩如生,或通过创建交互式虚拟形象提升客服水平,提升应用的用户参与度。

内容生成

以企业的领域专长和专有知识产权为基础,生成高度相关且准确的定制内容。

生物分子生成

借助生物分子生成模型和 GPU 的计算能力高效地探索化学领域,快速生成针对特定药物靶标或属性的多样化小分子集。

生态系统

让您的企业 AI 一往无前、快人一步

加入领先的合作伙伴,使用我们生态系统中的模型、工具包、向量数据库、框架和基础设施开发 AI 应用。

资源

解锁、升级和扩展

NVIDIA 开发者计划

加速您的 AI 应用

通过 NVIDIA 开发者计划免费访问 NIM,获取应用开发、研究和测试以及技术学习资源。

AI Workbench

小处着手逐步扩展

NVIDIA AI Workbench 让开发者可以灵活地在采用 GPU 的本地或远程容器上运行支持 API 的模型,从而实现从实验到原型设计再到概念验证的交互式项目工作流。

新闻

查看 NVIDIA NIM 最新资讯

查看 NVIDIA 最新资讯,了解 NIM 和生成式 AI 如何影响各个行业、合作伙伴、客户等。

文档

探索技术文档,使用 NVIDIA API 开始进行原型设计并构建企业 AI 应用,或使用 NVIDIA NIM 对基础设施进行扩展。