课程培训
大模型LlamaFactory模型微调培训课程

 

培训目标

·理解LlamaFactory框架的核心原理和架构设计。

·掌握大模型微调的基础理论,包括不同的微调方法、训练技巧等。

·熟悉LlamaFactory支持的多种大型语言模型及其特点。

·学会使用LlamaFactory进行模型的选择、参数配置、数据加载与预处理。

·能够运用各种微调方法对模型进行训练,并根据训练效果进行评估与优化。

·了解在微调过程中如何合理选择运算精度以及控制内存占用。

·掌握数据组织格式、RoPE scaling等对模型性能的影响及应用方法。

·熟悉不同类型的学习率调度器在不同场景下的应用策略。

·了解并应用NEFTune等提升模型表现的技巧和参数设置。

·掌握LongLora所用的Shifted Sparse Attention机制及基于LoRA的各种优化方法。

·熟悉RLHF相关参数的设置与作用。

·了解GaLoreBadam等先进算法的原理及应用场景。

培训提纲

模块一:LlamaFactory概述

·LlamaFactory的起源与发展

·LlamaFactory的核心价值与应用场景

·LlamaFactory的架构设计与模块划分

模块二:大模型基础

·大语言模型(LLM)的基本概念与原理

·常见的大语言模型架构(如Transformer等)介绍

·模型参数规模、性能与应用场景的关系

模块三:LlamaFactory支持的模型与精度选择

·LlamaFactory支持的大型语言模型全览

·模型精度的选择策略

模块四:大模型的查找与下载

·如何在官方渠道查找所需的预训练模型

·模型版本的选择依据与注意事项

·模型文件的下载流程与存储管理

·模型合法性与版权问题解读

模块五:训练大模型的方法与流程

·自监督学习在大模型训练中的应用

o自监督学习的原理与优势

o常见的自监督学习任务设计

·聚合问答数据并训练奖励模型(RM

o问答数据的收集与整理

o奖励模型的构建与训练流程

·强化学习(RL)方式微调LM

o强化学习在模型微调中的作用与原理

o如何设计奖励信号与策略更新机制

·有监督的微调方法与实践

o有监督微调的数据准备与标注要求

o训练过程中的关键步骤与技巧

模块六:预训练及微调方法详解

·PPO(近端策略优化)算法

oPPO算法的核心思想与数学原理

o如何使用PPO对策略进行优化

·DPO(直接偏好优化)方法

oDPO的工作原理与实现机制

o增加偏好样本对数概率与减小非偏好样本响应对数概率的具体操作

·KTO(基于前景理论的对齐方法)

oKTO的理论基础与创新点

o人类感知损失函数的设计与应用

·ORPO(新的偏好对齐训练方法)

oORPO如何将SFT和偏好对齐结合到新的目标函数中

o避免SFT阶段的优势与实现要点

·SimPO(离线偏好优化算法)

oSimPO的算法原理与特点

o隐含奖励的计算与应用

模块七:使LlamaFactory进行模型微调的实践操作

·参数配置

o根据任务需求配置微调参数的原则与方法

o常见参数(如学习率、批次大小、计算类型等)的设置与调整技巧

·数据加载与预处理

o如何加载适合的任务数据

o按照LlamaFactory格式要求进行数据预处理的具体步骤与注意事项

·训练过程

o使用LlamaFactory进行模型训练的操作流程

o监控训练过程中的指标变化与日志记录

o根据训练效果进行参数调整与优化的方法与策略

·模型选择

o如何选择适合的预训练模型作为微调基础

o模型评估的关键指标与方法

·评估与优化

o微调后模型的评估维度与标准

o基于评估结果进行模型优化的技巧与实践案例

模块八:微调方法的选择与应用

·增量预训练

o适用场景与优势分析

o如何通过增量预训练提升模型的泛化能力

·指令监督微调

o指令和反馈方式微调模型的操作流程

o使模型更好地理解和执行特定任务指令的技巧

·RLHF(奖励学习与人类反馈)优化

模块九:微调时的运算精度与内存占用控制

·不同运算精度对模型性能和资源消耗的影响

·如何在保证模型效果的前提下合理降低运算精度

·内存优化策略与技巧

o模型量化方法的应用

o训练过程中的内存管理与优化实践

模块十:数据组织格式与RoPE scaling

·Alpaca数据格式详解

o格式特点与适用场景

o数据加载与处理示例

·ShareGPT数据格式解读

oAlpaca数据格式的对比分析

o在不同任务中的应用策略

·RoPE scaling的原理与应用

o旋转位置编码(RoPE)的优势与实现机制

oNoneLinearDynamic三种缩放方式的适用场景与选择依据

模块十一:学习率调度器类型与应用

·各种学习率调度器的工作原理与特点

·不同学习率调度器在各种任务场景下的应用案例与效果分析

·如何根据任务需求和模型特性选择合适的学习率调度器

模块十二:NEFTune方法与参数设置

·NEFTune方法的原理与优势

o在词向量中引入均匀分布噪声提升模型表现的机制

oNEFTune在不同数据集上的实验结果与效果分析

·NEFTune相关参数的设置与调整技巧

o如何确定合适的噪声强度

o噪声引入的频率与训练轮数的关系

模块十三:其他重要参数与技术

·序列打包与无污染打包

o序列打包的目的与实现方法

o无污染打包的原理与应用场景

·学习提示词与不学习历史对话

oSFT中如何设置学习提示词

o不学习历史对话的实现方式与适用场景

·更改词表大小

o调整分词器词表和嵌入层大小的影响与操作方法

·使用LLaMA Pro与S^2 Attention

LLaMA Pro的特点与优势

S^2 Attention的原理与应用效果

·启用外部记录面板

o如何使用TensorBoard或wandb记录实验

o可视化工具在模型训练监控中的作用与使用技巧

模块十四:LongLora所用的Shifted Sparse Attention

·Shifted Sparse Attention的原理与优势

o将上下文长度分成组并在组内单独计算注意力的机制

o半注意力头中token移位保证相邻组信息流动的方法

·Shifted Sparse Attention在长文本处理中的应用案例与效果分析

模块十五:基于LoRA的各种优化方法

·LoRA缩放系数(lora_alpha)的设置与调整

·LoRA + 学习率比例(loraplus_lr_ratio)的应用

oLoRA + 的原理与优势

o如何通过设置loraplus_lr_ratio提高训练效率

·rsLoRARank - Stabilized LoRA)的原理与实现

·DoRAWeight - Decomposed LoRA)的原理与应用

oDoRA对权重矩阵分解的方法与优势

o如何设置use_dora参数使用DoRA

·PiSSAPretrained Self - Supervised Adapter)的原理与实践

模块十六RLHF相关参数详解

·Beta参数的作用与设置

o在损失函数中平衡不同类型损失项的机制

o如何根据任务需求调整Beta参数值

·Ftx gamma参数的影响与应用

·归一化奖励分数与白化处理

模块十七:GaLore与Badam算法

·GaLoreGradient Low - Rank Projection)的原理与优势

·Badam算法的特点与应用场景

模块十八:总结与展望

·课程内容回顾与重点总结

·LlamaFactory在实际项目中的应用案例分享

·大语言模型微调技术的发展趋势与未来展望

·学员问题答疑与交流互动环节

 




如果您想学习本课程,请预约报名
如果没找到合适的课程或有特殊培训需求,请订制培训
除培训外,同时提供相关技术咨询与技术支持服务,有需求请发需求表到邮箱soft@info-soft.cn,或致电4007991916
技术服务需求表下载请点击

服务优势:
丰富专家资源,精准匹配相关行业,相关项目技术精英,面向用户实际需求,针对性培训或咨询,互动式交流,案例教学,精品小班,实际工程项目经验分享,快捷高效,节省时间与金钱,少走弯路与错路。

专家力量:
中国科学院相关研究所高级研究人员
西门子,TI,vmware,MSC,Ansys,MDI,Mentor, candence,Altium,Atmel 、Freescale,达索,华为等
大型公司高级工程师,项目经理,技术支持专家
中科信软培训中心,资深专家或讲师
大多名牌大学,硕士以上学历,相关学历背景专业,理论素养高
多年实际项目实践,大型复杂项目实战案例分享,热情,乐于技术分享
针对客户实际需要,真实案例演示,互动式沟通,学有所值
报名表下载
联系我们 更多>>

咨询电话010-62883247

                4007991916

咨询邮箱:soft@info-soft.cn  

 

微信号.jpg

  微信咨询

随时听讲课

聚焦技术实践

订制培训 更多>>