随着世界不断向数字化发展,对话式 AI 越来越多地用于促进人机之间的通信。对话式 AI 为信息自动收发和语音应用程序提供技术支撑,被广泛应用于各行各业,以提升整体客户体验和客户服务效率。
如果从零开始,会话式 AI 应用的开发非常复杂和昂贵。在本课程中,您将学习如何使用 NVIDIA Riva 框架构建对话式 AI 应用。Riva 提供了完整的 GPU 加速的软件堆栈,让开发者可以快速轻松地创建、部署和运行端到端、实时的对话式 AI 应用程序,这些应用程序能够理解各公司及其客户特有的术语。Riva 框架包括预先训练的对话式 AI 模型、工具和优化服务,可用于语音、视觉和自然语言理解 (NLU) 任务。通过 Riva,开发人员可以创建定制的基于语言的 AI 服务,比如虚拟智能助理、虚拟客户服务代理、实时转录、区分对话中不同的讲话者和聊天机器人等。
在此课程中,您将学习如何使用实时转录和自然语言处理 (NLP) 技术,快速构建和部署产品级的对话式 AI 应用程序。把 NVIDIA Riva 自动语音识别 (ASR) 和命名实体识别 (NER) 模型与基于 Web 的应用程序相集成,对输入的音频生成文本,并且能够高亮显示。然后,使用 NVIDIA TAO 工具包 (TAO Toolkit) 定制 NER 模型,从而根据不同的针对性进行高亮显示。最后,您将探索采用 Helm 图表和 Kubernetes 集群的 Riva 服务的生产级部署性能,以及扩展注意事项。
学习目标
参加本次培训,您将学习到:
- 如何在 Riva 上部署和启用经过预训练的 ASR 和 NER 模型,以构建对话式 AI 应用程序。
- 如何使用 TAO 微调和部署特定领域的模型。
- 如何使用 Helm 图表部署产品级对话式 AI 应用程序,以在 Kubernetes 集群中扩展。
下载课程大纲 (PDF 307 KB)