概览

什么是 AI 推理?

AI 推理是指部署预训练的 AI 模型以生成新数据的过程,也是 AI 产出成果、推动各行业创新的环节。AI 模型的规模、复杂度和多样性正在迅速扩展,不断突破界限。为了成功使用 AI 推理,企业组织需要支持端到端 AI 生命周期的全栈方法,以及助力团队实现目标的工具。

在生产环境中部署生成式 AI

探索在生产环境中部署和扩展生成式 AI 的关键考虑因素,包括 AI 推理的关键作用。

优势

探索 NVIDIA AI 在加速推理方面的优势

实现标准化的部署

在应用程序、AI 框架、模型架构和平台之间实现标准化地部署模型。

轻松集成和扩展

轻松与云、本地数据中心和边缘设备上的工具和平台集成。

降低成本

通过 AI 基础设施实现高吞吐量和高利用率,从而降低成本。

高性能

体验业内领先的 AI 推理性能:NVIDIA AI 推理平台在 MLPerf 这一行业领先的 AI 基准测试中连续创造了多项记录

软件

探索我们的 AI 推理软件

NVIDIA AI EnterpriseNVIDIA NIM™NVIDIA Triton™ 推理服务器NVIDIA® TensorRT™ 和其他工具组成,用于简化 AI 应用的构建、共享和部署。借助其企业级的支持、稳定性、可管理性和安全性,企业可以加速创造价值,同时消除计划外的停机时间。

实现生成式 AI 推理的最快途径

NVIDIA NIM 是一套易于使用的预构建容器工具,目的是帮助企业客户加速在云、数据中心和工作站中部署生成式 AI 模型。

适用于所有 AI 工作负载的统一推理服务器

NVIDIA Triton 推理服务器是一款开源的推理服务软件,它可以帮助企业整合定制的 AI 模型服务基础设施,缩短在生产环境中部署新 AI 模型的时间,并提升 AI 推理和预测能力。

用于优化推理和运行时的 SDK

NVIDIA TensorRT 包含推理运行时环境和模型推理优化器,可为生产级应用程序提供低延迟和高吞吐量。TensorRT 的生态系统包括 TensorRT,TensorRT-LLM,TensorRT 模型优化器 和 TensorRT Cloud。

硬件

探索我们的 AI 推理基础设施

利用针对 NVIDIA 加速基础设施优化的 NVIDIA AI 推理软件,获得无与伦比的 AI 性能。NVIDIA H200、L40S 和 NVIDIA RTX™ 技术可为跨数据中心、云和工作站的 AI 推理工作负载提供卓越的速度和效率。

NVIDIA H200 Tensor Core GPU

NVIDIA H200 Tensor Core GPU 以颠覆性的性能和内存能力,为生成式 AI 和高性能计算 (HPC) 工作负载提供强大助力。作为第一款采用 HBM3e 的 GPU,H200 更大更快的内存使生成式 AI 和大型语言模型 (LLM) 进一步加速,同时提升 HPC 工作负载的科学计算能力。

NVIDIA L40S GPU

将 NVIDIA 的全栈推理服务软件与 L40S GPU 相结合,为准备进行推理的训练模型提供了一个强大的平台。凭借对结构化稀疏的支持和广泛的精度,L40S 的推理性能比 NVIDIA A100 Tensor Core GPU 提升多达 1.7 倍。

NVIDIA RTX 技术

NVIDIA RTX 技术将 AI 引入视觉计算,通过自动化任务和优化计算密集型流程来加速创造力。借助 CUDA® 核心的强大功能,RTX 可增强实时渲染、AI、图形和计算性能。

应用场景

AI 推理有哪些应用场景?

了解 NVIDIA AI 如何支持行业应用场景,以及相关精选示例,来快速启动 AI 开发。

数字人

NVIDIA ACE 是一套帮助开发者构建栩栩如生的数字人的技术。部分 ACE 微服务使用 NVIDIA NIM 优化和部署,NIM 是易于使用、高性能的预构建容器工具。这些 ACE 微服务可在 NVIDIA RTX AI PC 或 NVIDIA Graphics Delivery Network (GDN) 上运行,GDN 是一个全球性的 GPU 网络,可向 100 个国家/地区提供低延迟的数字人技术。

内容生成

借助生成式 AI,您可以基于企业所在领域的专业知识和专有 IP,生成高度相关、定制且准确的内容。

生物分子生成

借助生物分子生成模型和 GPU 的计算能力可高效地探索化学空间,快速生成针对特定药物靶标或属性的多样化小分子集。

欺诈检测

金融机构需要检测和防止复杂的欺诈活动,如身份盗用、账户接管和洗钱。AI 赋能的应用可以减少交易欺诈检测中的误报,提高身份验证准确性以满足了解客户 (KYC) 要求,并使反洗钱 (AML) 工作更加有效。从而改善客户体验和您公司的财务状况。

AI 聊天机器人

企业组织正在寻求使用检索增强生成 (RAG) 技术构建更智能的 AI 聊天机器人。借助 RAG,聊天机器人能够从企业组织的知识库中检索信息,并以自然语言提供实时回复,从而准确回答特定领域的问题。这些聊天机器人可用于增强客户支持、个性化 AI 头像、管理企业知识、简化员工入职、提供智能 IT 支持、创建内容等。

安全漏洞分析

修补软件安全的问题正变得越来越具有挑战性,因为在常见漏洞和暴露 (CVE) 数据库中报告的安全漏洞数量在 2022 年创下历史新高。 利用生成 AI,使得在提升漏洞防御能力的同时,减轻安全团队的负担。

客户案例

行业领导者如何利用 AI 推理推动创新

Amdocs

提升生成式 AI 的性能并降低成本

了解 Amdocs 如何使用 NVIDIA DGX™ Cloud 和 NVIDIA NIM 预构建容器工具,来构建 amAIz,这是一个面向电信行业的专用生成式 AI 平台,旨在降低延迟、提高准确性并降低成本。

Snapchat

利用 AI 增强服装购物体验

了解 Snapchat 如何利用 Triton 推理服务器增强服装购物体验和感知表情符号的光学字符识别功能,从而实现扩展规模、降低成本并加速产品上市时间。

Amazon

提高客户满意度

了解 Amazon 如何使用 TensorRT 将推理加速到 5 倍来提高客户满意度。

资源

最新 AI 推理相关的学习资源

探索生成式 AI 和 大语言模型的学习路径

通过我们全面的学习路径提升您在生成式 AI 和大语言模型方面的技术能力。

在生产环境中使用 NVIDIA NIM 部署生成式 AI

利用 NVIDIA NIM 释放生成式 AI 的潜力。视频深入介绍了 NVIDIA NIM 如何将 AI 部署转变为生产就绪的强大引擎。

Triton 推理服务器简化推理的五大原因

Triton 推理服务器可简化 AI 模型在生产环境中的大规模部署。作为一款开源推理服务软件,Triton 允许团队在本地存储或基于任何 GPU 或 CPU 基础设施的云平台上,部署使用任何框架训练的 AI 模型。

UneeQ

NVIDIA 推出 NIM

NVIDIA NIM 技术能做什么?深入探索令人惊叹的数字人和机器人世界,了解 NIM 能实现什么。

后续步骤

准备好开始了吗?

探索您启动开发 AI 应用所需的一切资源,包括最新的文档、教程、技术博客等。

联系我们

与 NVIDIA 产品专家交流,了解如何借助 NVIDIA AI Enterprise 的安全性、API 稳定性和支持,从试点转向生产阶段。

获取有关 NVIDIA AI 的最新信息

注册以接收 NVIDIA 发布的最新资讯与动态。