法学硕士的生成式人工智能
在具有大型语言模型 (LLM) 的生成式 AI 中,您将学习生成式 AI 工作原理以及如何将其部署到实际应用程序中的基础知识。
通过学习本课程,您将学会:
- 深入了解生成式人工智能,描述典型的基于法学硕士的生成式人工智能生命周期的关键步骤,从数据收集和模型选择,到性能评估和部署
- 详细描述为 LLM 提供支持的变压器架构、它们的训练方式以及微调如何使 LLM 适应各种特定用例
- 使用经验缩放定律跨数据集大小、计算预算和推理要求优化模型的目标函数
- 应用最先进的训练、调优、推理、工具和部署方法,在项目的特定约束下最大限度地提高模型的性能
- 聆听行业研究人员和从业者的故事后,讨论生成人工智能为企业带来的挑战和机遇
对法学硕士的工作原理以及培训和部署它们背后的最佳实践有良好基础了解的开发人员将能够为他们的公司做出正确的决策,并更快地构建工作原型。本课程将支持学习者建立关于如何最好地利用这项令人兴奋的新技术的实用直觉。
第一周
生成式 AI 用例、项目生命周期和模型预训练
学习目标
- 讨论模型预训练以及持续预训练与微调的价值
- 定义术语“生成式人工智能”、大型语言模型、提示并描述为法学硕士提供支持的变压器架构
- 描述典型的基于 LLM 的生成式 AI 模型生命周期中的步骤,并讨论在模型生命周期的每个步骤中推动决策的约束因素
- 讨论模型预训练期间的计算挑战并确定如何有效减少内存占用
- 定义术语“缩放法则”并描述已为法学硕士发现的与训练数据集大小、计算预算、推理要求和其他因素相关的法则
实验室 1 - 生成式 AI 用例:总结对话
第一周测验
第 2 周
微调和评估大型语言模型
学习目标
- 描述使用提示数据集进行指令微调如何提高一项或多项任务的性能
- 定义灾难性遗忘并解释可用于克服它的技术
- 定义术语参数高效微调 (PEFT)
- 解释 PEFT 如何降低计算成本并克服灾难性遗忘
- 解释使用提示数据集进行指令微调如何提高一个或多个 LLM 性能
实验室 2 - 微调对话摘要的生成式 AI 模型
第 2 周测验
第三周
强化学习和法学硕士支持的应用程序
学习目标
- 描述 RLHF 如何使用人类反馈来提高大型语言模型的性能和一致性
- 解释如何使用从人类贴标员收集的数据来训练 RLHF 的奖励模型
- 定义思维链提示并描述如何使用它来提高法学硕士的推理和规划能力
- 讨论法学硕士在知识中断方面面临的挑战,并解释信息检索和增强技术如何克服这些挑战
实验室 3 - 通过强化学习微调 FLAN-T5 以生成更积极的摘要
第三周测验