RAG(检索增强生成)在大语言模型应用中扮演着关键角色。它结合了检索与生成技术,通过从外部知识库中检索相关信息,显著提高了大语言模型回答问题的准确性和可靠性,减少了“幻觉”问题。凭借能够在无需重新大规模训练模型的情况下,利用外部信息源提升文本生成的质量和相关性,RAG 成为 LLM 领域的关键技术之一。
NVIDIA 深度学习培训中心(DLI)汇总 5 门 RAG 开发部署系列课程,为您打造从基础入门到系统进阶的专业学习路径,结合理论基础和动手实践,您将可以灵活使用 RAG 技术,快速应对各行业场景模型从规划、构建到落地实施的需求。
本课涵盖混合检索器(用多个较小的微调专家模型而非单一大型通用模型)以及一个能决策为 RAG 添加哪些组件的认知框架。向您展示如何在每次迭代设计变更时评估 RAG 的性能,用 human-as-a-judge 和 LLM-as-a-judge 来衡量这些技术相对于朴素 RAG 的影响。使用本课程学到的经验,您将能够构建出满足严肃场景需求的基于 LLM 的 RAG 应用。
.课程时长:4 学时(课后 6 个月内可以继续访问课件,实验资源用量有限额)
.课程语言和模式:中文课件+视频,在线自主培训
.课程涵盖的技术:NVIDIA NIMs、LangChain、Redis、NextJS、FastAPI、Docker Compos
.学习目标:
.构建一个真实的、生产级别的搜索和总结 RAG 应用
.创建并部署几个协作的微服务,管理 RAG 应用的各类需求
.连接、更新、添加和自动扩展应用组件
.使用 human-as-a-judge 和 LLM-as-a-judge 评估您的 RAG 工作流性能
.课程大纲:
.课程介绍:了解课程中使用的关键应用组件和课程结构
.探索和准备您的检索数据集:准备我们将在 RAG 应用中使用的数据,采用数据分块的策略以便于检索,并借助 LLM 满足多种使用场景
.加载向量 / 文档数据库:创建用于检索数据的索引,尤其是依赖于将文本表示为向量(嵌入)的向量索引
.评估检索:实现一个界面来收集应用性能数据,这是许多语言场景都面临的一个难题
.更好的生成:将前面的元素组合到最终的 Web 应用中,包括一个初步分类步骤,来评估用户的意图并智能地选择搜索和 LLM 提示的正确设置
.课程时长:45 分钟(课后 6 个月内可以继续访问课件)
.课程语言和模式:中文视频,在线自主培训
.学习目标:
.理解检索增强生成的基本概念
.学习 RAG 检索的过程
.学习 NVIDIA AI Foundations 以及构成 RAG 模型的组件
.课程时长:8 学时(课后 6 个月内可以继续访问课件,实验资源用量有限额)
.课程语言和模式:英文课件+视频,在线自主培训
.课程证书:通过课件中的评估测试,系统自动生成证书
.学习目标:
.构建 LLM 系统,利用内部和外部推理组件实现与用户的可预测交互
.设计对话管理和文档推理系统,用于维护状态并将信息强制转换为结构化格式
.利用嵌入模型进行高效的内容检索的相似性查询和生成对话护栏
.开发、模块化和评估检索增强生成(RAG)模型,无需任何微调即可回答有关研究论文数据集的问题
.课程时长:3 学时(课后 6 个月内可以继续访问课件,实验资源用量有限额)
.课程语言和模式:中文课件+视频,在线自主培训
.课程涵盖的技术:NVIDIA NIMs、LangChain、Redis、NextJS、FastAPI、Docker Compos
.学习目标:
.构建一个真实的、生产级别的搜索和总结 RAG 应用
.创建并部署几个协作的微服务,管理 RAG 应用的各类需求
.连接、更新、添加和自动扩展应用组件
.使用 human-as-a-judge 和 LLM-as-a-judge 评估您的 RAG 工作流性能
.课程时长:4 学时(课后 6 个月内可以继续访问课件,实验资源用量有限额)
.课程语言和模式:中文课件+视频,在线自主培训
.课程涵盖的技术:NVIDIA NIMs、Kubernetes、Helm、Grafana、Prometheus
.学习目标:
.使用 Helm 和 NVIDIA RAG Operator 将 RAG 应用部署到 Kubernetes 集群上
.利用 NVIDIA NIM 实现可扩展的容器化 LLM 和嵌入模型
.连接、更新、添加和自动扩展应用组件
.使用 Prometheus 和 Grafana 监控应用性能
.课程时长:8 学时(课后 6 个月内可以继续访问课件,实验资源用量有限额)
.课程语言和模式:中文,讲师指导的培训班
.课程证书:通过课件中的评估测试,系统自动生成证书
.近期培训班时间:2024 年 10 月 24 日
.课程涵盖的技术:大语言模型(LLM)推理接口、训练数据集设计、LangChain、Gradio、LangServe、带有运行时状态的对话管理、文档处理、语义相似性和语意护栏的嵌入,RAG 智能体向量存储
.课程大纲:
.LLM 推理接口
.使用 LangChain, Gradio 和 LangServe 设计训练数据集
.运行状态下的对话管理
.文档处理
.语义相似性和护栏的嵌入
.为 RAG 代理提供的向量存储
.评估测试和总结
如果您希望系统全面地精进 AI 开发技能和提升效率,学习更多生成式 AI 与大语言模型技术课程,请关注并报名定期举办的 NVIDIA AI 培训班。
现在购买 5 个席位,立享 8 折优惠,立即报名锁定席位。
8 月 22 日:构建基于扩散模型的生成式 AI 应用
9 月 05 日:深度学习基础 —— 理论与实践入门(升级版)
9 月 19 日:构建基于大语言模型(LLM)的应用
10 月 10 日:高效定制大语言模型(LLM)
10 月 24 日:构建大语言模型 RAG 智能体
11 月 07 日:构建基于扩散模型的生成式 AI 应用
新课持续发布,敬请关注!
*与NVIDIA产品相关的图片或视频(完整或部分)的版权均归NVIDIA Corporation所有。