
|
课程培训
|
系列大模型培训课程(选修)
系列大模型培训课程(选修)课程目录
选修学习建议
课程详细大纲LLM1. 大模型基础理论与技术全景培训对象: 初学者、AI产品经理、技术管理者、算法工程师 培训目标: 系统掌握大模型发展脉络、核心架构(Transformer)与关键技术,理解大模型的能力边界与工程化应用路径 培训内容: 一、人工智能与大模型发展概述:人工智能发展脉络,从专用模型到通用大模型的演进历程,大模型的基本定义与核心特征,大模型带来的范式变革,国家人工智能战略与大模型人才培养 二、Transformer架构深度解析:注意力机制原理(Self-Attention/Multi-Head Attention),编码器-解码器范式详解,位置编码与层归一化,不同层数对任务的影响(6层模型适合文本分类,24层模型适合复杂推理) 三、大模型训练范式演进:预训练(Pre-training)目标与数据规模,有监督微调(SFT)原理,基于人类反馈的强化学习(RLHF)技术解析,PPO算法实现细节,直接偏好优化(DPO)与RLHF对比 四、主流大模型技术路线对比:闭源商业模型(GPT系列/Gemini/Claude)与开源模型(LLaMA/Qwen/Bloom)对比,模型参数量与性能关系,模型选型策略(通用/垂直/成本/延迟) 五、大模型能力边界与局限性:涌现能力与上下文学习,幻觉现象成因分析,知识截止日期与长尾知识覆盖,模型偏见与公平性问题 六、大模型工程化应用路径:从模型调用到应用落地的完整链条,提示词工程、RAG、微调、Agent四种技术路线对比,不同技术路线的适用场景与成本考量 七、大模型开发工具链全景:Hugging Face Transformers库,PyTorch框架基础,LangChain生态,NVIDIA NeMo框架,Ollama本地部署方案 八、AI硬件与算力基础:GPU架构(NVIDIA A100/H100)与算力指标,CPU/GPU/NPU异构计算,显存容量与模型适配关系,模型并行策略基础(数据并行/张量并行/流水线并行) 九、大模型评测体系概述:通用评测基准(MMLU/CEval/AGIEval),评测方法与榜单解读,模型性能与业务场景匹配度评估 十、大模型发展趋势与前沿议题:多模态融合趋势,长上下文技术演进(百万级token),MoE混合专家架构,模型小型化与边缘部署,具身智能与AI Agent 十一、大模型开源生态与学习资源:Hugging Face模型库,GitHub开源项目,学术顶会论文追踪,在线课程与社区资源 十二、综合实践:主流大模型API首次调用体验,Hugging Face开源模型本地运行,Transformer模型结构可视化工具使用 LLM2. 提示词工程与LLM应用快速开发培训对象: AI应用开发工程师、产品经理、业务人员、初学者 培训目标: 掌握提示词工程核心方法与最佳实践,能够快速构建基于大模型的轻量级应用,理解LLM如何解读提示和上下文 培训内容: 一、提示词工程概述:提示词工程定义与价值,大模型如何解读提示和上下文,提示词与模型输出的关系,提示词工程在不同场景中的应用 二、提示词基本结构与设计原则:角色设定、任务描述、上下文示例、输出格式、约束条件五大要素,清晰、具体、可操作的设计原则,迭代式提示词优化方法 三、基础提示技术:零样本提示(Zero-shot)原理与应用,少样本提示(Few-shot)设计与示例选择,思维链(Chain-of-Thought)提示技术,自洽性(Self-Consistency)增强 四、高级提示工程策略:提示链(Prompt Chaining)与复杂任务分解,思维树(Tree-of-Thoughts)扩展,提示模板与复用管理,提示版本控制 五、面向特定任务的提示设计:文本摘要任务提示设计,信息抽取任务提示设计,代码生成任务提示设计,创意写作与内容生成提示设计 六、结构化输出控制:JSON/XML格式强制输出方法,表格与Markdown生成,正则表达式约束,输出格式校验与后处理 七、提示词优化与迭代技术:输出质量评估方法,错误分析与提示修正,A/B测试对比优化,用户反馈闭环整合 八、LangChain提示词管理:LangChain提示模板(PromptTemplate),少样本示例选择器,消息提示(ChatPromptTemplate)与对话管理,输出解析器(OutputParser) 九、NVIDIA NIM微服务快速调用:NVIDIA NIM推理微服务架构,Llama-3.1等模型API调用,提示工程与NIM集成,高性能推理实践 十、业务场景提示工程实战:智能客服对话流程设计,营销文案生成提示优化,数据分析报告生成,代码辅助与调试 十一、多模态提示工程入门:文本到图像生成提示(Stable Diffusion/Midjourney),图像理解与视觉问答提示,提示词对生成效果的精细控制 十二、综合实战:基于提示工程的聊天机器人开发,从需求分析、提示设计到迭代优化的完整流程 LLM3. 检索增强生成(RAG)与知识库增强培训对象: AI应用开发工程师、算法工程师、数据科学家 培训目标: 掌握RAG架构设计与实现方法,能够构建基于私有知识库的问答系统,解决大模型知识局限性和幻觉问题 培训内容: 一、RAG技术概述:RAG产生背景与核心价值,大模型知识局限性与RAG解决方案,RAG与传统微调技术对比,RAG应用场景(客服问答/企业知识库/文档分析) 二、RAG系统架构设计:RAG三阶段(索引/检索/生成),Naive RAG与Advanced RAG演进,模块化RAG设计,RAG与Agent融合趋势 三、文档加载与解析:多格式文档处理(PDF/Word/Excel/PPT),OCR与图像文字提取,表格与图表解析,文档分块(Chunking)策略(固定大小/语义分块/递归分块) 四、向量化与嵌入模型:文本嵌入模型选型(OpenAI/BGE/智源),嵌入维度与性能权衡,批量向量化处理,异步嵌入与增量更新 五、向量数据库选型与实践:主流向量数据库对比(Pinecone/Qdrant/Chroma/FAISS),向量索引算法(HNSW/IVF),相似度检索(余弦/欧氏/点积),元数据过滤与混合检索 六、检索优化策略:HyDE(Hypothetical Document Embeddings)增强检索,多路召回与融合排序,重排序(Re-ranking)模型应用,检索结果过滤与去重 七、上下文构建与提示增强:检索结果动态组装,上下文窗口管理,相关性阈值过滤,多轮对话历史融合 八、LlamaIndex框架实战:LlamaIndex架构与核心概念,文档解析与索引构建,查询引擎与检索器配置,自定义存储与检索 九、LangChain RAG实战:LangChain文档加载器,文本分割器配置,向量存储集成,检索QA链构建 十、RAG系统评估:检索质量评估(召回率/精度/NDCG),生成质量评估(答案相关度/忠实度),端到端RAG评测方法,RAG实验与迭代优化 十一、高级RAG技术:多模态RAG(图文混合检索),图RAG与知识图谱增强,多跳RAG与复杂推理,流式输出与实时检索 十二、综合实战:企业知识库问答机器人开发,从数据处理、向量化、检索增强到UI展示的完整流程 LLM4. 大模型微调与参数高效优化培训对象: 算法工程师、模型训练工程师、AI应用开发高级人员 培训目标: 掌握大模型微调核心技术与参数高效优化方法,能够使用少量数据和算力完成领域适配和任务定制 培训内容: 一、微调技术概述:微调的定义与目的,全量微调与参数高效微调对比,微调在模型定制中的定位,微调与RAG/提示工程的适用场景对比 二、监督微调(SFT)原理与实践:SFT训练流程与损失函数,指令微调数据集构建,对话模板与角色设计,多轮对话数据组织 三、LoRA低秩适配技术:LoRA核心原理(低秩分解),rank(秩)参数选择策略,target modules(目标模块)配置,LoRA权重合并与部署 四、QLoRA量化微调:QLoRA与LoRA区别,4-bit量化原理(NF4量化),双重量化与分页优化,显存占用分析与配置 五、其他PEFT技术对比:Adapter Tuning原理,Prefix Tuning/P-tuning,IA3与BitFit,不同PEFT技术性能/参数量/速度对比 六、微调数据准备与处理:数据质量评估与筛选,数据去重与清洗,数据增强策略(回译/改写/合成),指令数据集格式规范(Alpaca/ShareGPT) 七、微调训练配置与优化:训练超参数设置(学习率/批次/轮次),梯度累积与混合精度训练,DeepSpeed ZeRO优化,分布式训练基础 八、NVIDIA NeMo框架微调实战:NeMo框架架构,NeMo Curator数据筛选工具,NeMo Evaluator评估工具,NeMo-RL强化学习支持 九、Hugging Face PEFT实战:PEFT库安装与配置,LoRA配置脚本编写,模型训练与保存,微调模型上传与共享 十、微调模型评估与对比:微调前后模型性能对比,领域知识注入效果评估,灾难性遗忘检测,微调成本与收益分析 十一、持续预训练(CPT)与新知识注入:持续预训练原理与适用场景,数据配比与训练策略,领域知识增强实践 十二、综合实战:DeepSeek/V3或Qwen模型LoRA微调实战,从数据准备、微调训练、评估验证到模型部署的全流程 LLM5. AI Agent智能体开发与实战培训对象: AI应用开发工程师、算法工程师、创新项目负责人 培训目标: 掌握AI Agent核心架构与开发方法,能够构建具备感知、规划、记忆、工具使用能力的智能体系统 培训内容: 一、AI Agent概述:Agent定义与核心特征(自主性/感知性/行动性/交互性),大模型与Agent的关系,Agent应用场景(个人助理/代码智能体/科研助手/自动化工作流) 二、Agent核心架构解析:感知模块(环境信息接收),规划模块(任务拆解与计划),记忆模块(短期/长期记忆),行动模块(工具调用与执行),Agent四要素协同机制 三、ReAct思维框架:ReAct(Reason+Act)核心思想,思考(Thought)-行动(Action)-观察(Observation)循环,ReAct提示模板设计,多轮推理与执行 四、工具调用与函数调用:工具定义与描述规范,OpenAI Function Calling原理,Claude Tool Use机制,国产模型工具调用适配 五、LangChain Agent框架实战:LangChain Agent类型对比(Zero-shot/Conversational/ReAct),工具链构建与注册,AgentExecutor执行管理,多Agent协同 六、LangGraph状态机设计:LangGraph与LangChain区别,图状态(State)定义,节点(Node)与边(Edge)设计,循环与条件分支 七、记忆机制设计:短期对话记忆(Buffer/Window),长期记忆向量存储,实体记忆与知识图谱记忆,记忆检索与整合 八、多智能体协作系统:多Agent角色分工(Planner/Executor/Reviewer),Agent间通信协议,任务分配与结果聚合,共识与冲突解决 九、科研智能体构建:科研Agent定义与应用案例,感知(文献/数据/实验)、交互、记忆、推理模块设计,知识增强/符号增强/工具增强技术 十、Agent评估与优化:任务完成率评估,工具调用准确率,Agent决策过程分析,用户交互体验优化 十一、Agent安全与边界控制:工具权限控制,敏感操作确认机制,幻觉与错误传播防护,人机协同边界设计 十二、综合实战:个人日程管理Agent开发,具备日历查询/天气查询/任务提醒/邮件发送等工具集成 LLM6. 大模型评估体系与性能度量培训对象: 算法工程师、模型评测人员、AI产品经理 培训目标: 掌握大模型评测理论、方法与工具,能够对模型性能进行科学评估,为模型选型与优化提供依据 培训内容: 一、大模型评估概述:评估在大模型生命周期中的重要性,主观评估与客观评估对比,通用能力评估与垂直领域评估,评估驱动模型迭代 二、通用评测基准详解:MMLU(大规模多任务语言理解),CEval(中文基础模型评估),AGIEval(人类认知任务评估),GSM8K(数学推理),HumanEval(代码生成) 三、领域专用评测:医疗领域评测(CMB/MedQA),法律领域评测(LawBench/Lawyer-LLM),金融领域评测(FinEval),教育领域评测 四、LLM-as-a-Judge评估方法:大模型作为评估器的原理,评估提示设计(逐点评分/成对比较),评估偏见控制(位置偏见/长度偏见/自我偏好),ELO评分系统应用 五、自动化评估工具实践:NeMo Evaluator使用,OpenAI Evals框架,Hugging Face Evaluate库,中文评测工具(OpenCompass/C-Eval) 六、人工评估与用户测试:人工评估维度设计(相关性/流畅性/帮助性/安全性),众包评估组织,A/B测试与用户反馈收集,评估一致性分析 七、生成任务评估指标:ROUGE(摘要评估),BLEU(翻译评估),BERTScore语义相似度,答案忠实度评估,幻觉检测指标 八、检索增强(RAG)系统评估:检索质量(Hit Rate/MRR/NDCG),生成质量(答案相关度/上下文利用率),端到端RAG评测方法 九、模型对齐与安全评估:有害内容生成测试,偏见与刻板印象检测,拒绝率与过度拒绝平衡,对抗性提示攻击测试 十、性能评估与成本分析:推理延迟(首字延迟/生成速度),吞吐量(QPS/并发数),显存占用与硬件成本,性价比综合评估 十一、模型对比与选型框架:多维度评估雷达图,业务场景匹配度分析,模型版本演进追踪,混合模型策略设计 十二、综合实战:针对特定业务场景(如客服/教育),完成多个模型的评估对比与选型报告撰写 LLM7. 大模型推理加速与高效部署培训对象: 部署工程师、运维工程师、算法工程师 培训目标: 掌握大模型推理加速技术与高效部署方法,能够在资源受限环境下实现模型的稳定、低延迟运行 培训内容: 一、大模型推理概述:推理过程计算特点(显存带宽敏感/计算密集),推理延迟构成(预填充/解码阶段),推理性能关键指标(TTFT/TPOT/吞吐量) 二、模型量化技术:量化原理与精度权衡,PTQ(训练后量化)与QAT(量化感知训练),GPTQ/AWQ算法对比,4-bit/8-bit量化实践 三、模型剪枝与稀疏化:结构化剪枝与非结构化剪枝,神经元/注意力头剪枝,半结构化稀疏(2:4稀疏),剪枝后微调恢复 四、知识蒸馏技术:教师-学生模型蒸馏,白盒蒸馏与黑盒蒸馏,任务特定蒸馏与通用蒸馏,蒸馏数据策略 五、vLLM与PagedAttention:PagedAttention核心原理(KV缓存优化),vLLM架构与特性,连续批处理(Continuous Batching),吞吐量与延迟优化 六、TensorRT-LLM引擎优化:TensorRT-LLM架构,模型编译与图优化,插件与内核融合,动态形状与批处理配置 七、NVIDIA Triton推理服务器:Triton架构与功能,多模型并发管理,动态批处理与并发请求,模型版本管理与热加载 八、分布式推理策略:张量并行(Tensor Parallelism),流水线并行(Pipeline Parallelism),数据并行推理,推理集群负载均衡 九、边缘端部署技术:Ollama本地部署方案,MLC-LLM边缘编译,GGUF模型格式,移动端推理优化 十、容器化部署实践:Docker镜像构建,Kubernetes推理服务部署,水平自动伸缩(HPA),GPU资源调度与隔离 十一、推理服务监控与告警:推理延迟监控(P99/P95),吞吐量监控(QPS),错误率与重试率,GPU利用率与显存监控 十二、综合实战:基于TensorRT-LLM或vLLM的大模型推理服务部署,从模型转换、服务配置、性能压测到监控上线的完整流程 LLM8. 大模型安全、对齐与合规实践培训对象: 安全工程师、合规人员、算法工程师、产品经理 培训目标: 掌握大模型安全风险识别与防护技术,理解模型对齐原理,具备合规落地的实践能力 培训内容: 一、大模型安全概述:大模型安全风险图谱(生成有害内容/隐私泄露/偏见歧视/越狱攻击),安全事件案例分析,安全与用户体验平衡 二、模型局限性与风险:知识边界与幻觉风险,对抗性提示攻击(Prompt Injection/Jailbreak),数据投毒与后门攻击,模型窃取与逆向工程 三、RLHF与DPO对齐技术:RLHF三阶段(SFT+奖励建模+强化学习),PPO算法对齐原理,DPO(直接偏好优化)实现,对齐数据收集与标注 四、红队测试与对抗训练:红队测试方法设计,对抗样本生成(PGD攻击/遗传算法),对抗训练增强鲁棒性,持续红队机制 五、输入输出过滤与审核:敏感词过滤与正则表达式,NLP模型二次检测,事实核查API集成(Google Fact Check Tools),实时内容审核服务 六、隐私保护技术:差分隐私原理(拉普拉斯噪声/高斯噪声),联邦学习与多方安全计算,数据脱敏与匿名化,隐私政策合规要求 七、偏见与公平性检测:偏见检测指标(偏见指数/毒性评分),代表性偏差与历史偏差,缓解偏见方法(数据平衡/对抗去偏/后处理) 八、合规治理框架:国内合规要求(网络安全法/数据安全法/生成式AI管理办法),国际合规标准(GDPR/CCPA),行业特定合规(金融/医疗/教育) 九、审计追踪与可解释性:全链路日志记录,模型决策溯源,可解释性方法(注意力可视化/特征归因),监管配合与证据留存 十、模型防护技术体系:输入过滤-对抗训练-输出校验-审计追踪四层防护,安全配置模板与基线,安全测试用例库 十一、合规落地实践:大模型在国内如何合规落地,备案流程与材料准备,安全评估报告编制,持续合规监控 十二、综合实战:大模型应用安全加固项目,从风险评估、防护配置、测试验证到合规文档编制的完整流程 LLM9. 大模型数据工程与数据处理培训对象: 数据工程师、数据科学家、算法工程师 培训目标: 掌握大模型数据全流程处理方法,具备数据清洗、筛选、合成与质量评估的工程能力 培训内容: 一、大模型数据工程概述:数据在大模型中的关键作用,"数据决定模型上限"理念,数据全生命周期(采集/清洗/标注/增强/管理),AI-Ready数据概念 二、数据采集与源选择:公开数据集来源(Common Crawl/The Pile/RedPajama),垂直领域数据采集,多语言数据配比,数据版权与合规 三、数据清洗与过滤基础:噪声数据识别与清洗(HTML标签/乱码/重复),近重复数据去重(MinHash/SimHash),低质量内容过滤(启发式规则/质量分类器) 四、NVIDIA NeMo Curator实践:NeMo Curator架构与功能,可扩展数据处理流水线,质量筛选与过滤配置,分布式数据处理 五、合成数据生成技术:合成数据应用场景(数据增强/场景模拟/隐私保护),大模型生成合成数据方法,质量验证与过滤,反向蒸馏与数据迭代 六、数据标注与指令构建:标注任务设计,人工标注与自动标注结合,指令数据集格式规范,多轮对话与复杂指令构建 七、数据质量评估体系:质量评估维度(准确性/多样性/一致性/新颖性),自动评估指标,人工评估抽样,数据质量报告生成 八、数据版本与元数据管理:数据版本控制(DVC),数据集元数据规范,数据血缘追踪,数据存储与压缩策略 九、隐私数据处理:PII(个人隐私信息)识别与脱敏,数据匿名化技术,差分隐私数据处理,合规审计准备 十、领域数据增强:领域知识注入方法,术语词典与知识库融合,领域数据配比优化,持续预训练数据策略 十一、大规模数据处理工具链:Spark与Ray分布式处理,Dask与Modin应用,NVIDIA RAPIDS加速,数据处理工作流编排 十二、综合实战:从原始数据到模型可用数据集的完整流程实践,涵盖清洗、筛选、合成、标注、质量评估各环节 LLM10. MLOps与LLMOps工程实践培训对象: DevOps工程师、ML工程师、平台架构师 培训目标: 掌握LLMOps工程实践方法,能够构建大模型持续集成与持续交付(CI/CD)体系,实现模型快速迭代与可靠部署 培训内容: 一、LLMOps概述:MLOps演进与LLMOps特殊性,LLMOps核心挑战(模型大/迭代快/评估难/成本高),LLMOps生命周期框架 二、实验跟踪与管理:MLflow实验跟踪,实验参数与指标记录,模型注册与版本管理,实验对比与选择 三、模型与数据集版本控制:DVC数据版本控制,Git LFS大文件存储,模型权重文件管理,版本回滚与溯源 四、工作流编排与自动化:Kubeflow Pipeline设计,Flyte/Airflow任务编排,预训练/微调/评估工作流定义,依赖管理与调度 五、持续集成(CI)实践:代码与配置变更触发,单元测试与集成测试,模型训练自动触发,测试报告生成 六、持续交付(CD)实践:模型自动部署策略,A/B测试与金丝雀发布,模型灰度上线,自动回滚机制 七、模型服务与弹性伸缩:Kubernetes推理服务部署,水平自动伸缩(HPA)配置,GPU资源调度,负载预测与扩缩容 八、监控与可观测性体系:业务指标监控(用户满意度/任务完成率),技术指标监控(延迟/吞吐量),模型质量监控(漂移检测/性能衰减) 九、模型漂移检测:数据漂移(输入分布变化),概念漂移(输入输出关系变化),漂移检测方法(统计检验/分布距离),告警与自动重训 十、LLM性能基准测试:压力测试工具(locust/vegeta),并发请求模拟,性能瓶颈分析,成本效率评估 十一、MLflow与NVIDIA NeMo集成:MLflow跟踪NeMo实验,模型注册与NeMo模型管理,部署流水线集成 十二、综合实战:构建完整的LLMOps流水线,涵盖实验跟踪、CI/CD、自动部署、监控告警全流程 LLM11. 多模态大模型技术与应用培训对象: 算法工程师、AI应用开发者、创新研究人员 培训目标: 掌握多模态大模型核心技术(视觉-语言/图文生成),能够开发多模态理解与生成应用 培训内容: 一、多模态大模型概述:多模态AI发展脉络,多模态大模型与单模态区别,多模态应用场景(图文理解/视觉问答/图像生成/视频分析) 二、视觉-语言模型架构:双流架构(CLIP原理),单流融合架构(Flamingo/BLIP),统一Transformer架构,对比学习与匹配学习 三、CLIP模型与应用:CLIP核心思想(对比预训练),图像编码器与文本编码器,零样本分类原理,图文检索与相似度计算 四、图像生成大模型:扩散模型原理(前向扩散/反向去噪),Stable Diffusion架构,ControlNet条件控制,LoRA风格微调 五、多模态理解模型:视觉问答(VQA)任务,图像描述生成,图文推理模型(Fuyu-8B/CogVLM),OCR与文档理解 六、多模态对话系统:图文混合输入处理,多轮对话上下文管理,图文生成与编辑,Agent工具调用 七、NVIDIA多模态开发栈:NVIDIA NeMo多模态支持,Triton多模型服务,TensorRT多模态优化,NIM推理微服务 八、开源多模态模型实践:LLaVA/VILA模型架构,Qwen-VL/CogVLM使用,Owl多模态理解,模型选型对比 九、多模态微调技术:LoRA在多模态中的应用,Adapter跨模态适配,指令微调数据构建,多模态RLHF探索 十、多模态RAG应用:图文混合检索,向量多模态嵌入,多模态知识库构建,图文问答系统设计 十一、多模态评估体系:图文匹配评估(CLIPScore),图像生成质量(FID/IS),多模态理解评测(MMMU/MMBench) 十二、综合实战:多模态图文问答系统开发,具备图像上传、内容理解、图文检索与答案生成完整功能 LLM12. 行业大模型应用实战与项目交付培训对象: AI应用开发工程师、解决方案架构师、项目经理 培训目标: 掌握行业大模型应用开发全流程,能够独立完成从需求分析、技术选型、开发部署到交付验收的完整项目 培训内容: 一、行业大模型应用方法论:行业痛点分析与AI机会识别,技术方案可行性评估,POC(概念验证)快速启动,规模化推广路径设计 二、需求分析与技术选型:业务需求转化为技术指标,模型选型(通用/垂直/开源/闭源),技术路线(提示工程/RAG/微调/Agent)决策,成本与效益评估 三、数据处理与知识库构建:行业数据采集与清洗,领域知识库设计,向量数据库选型,数据安全与隐私保护 四、应用开发与集成:后端服务架构设计,前端交互界面开发,API设计与封装,与企业现有系统集成 五、智能客服系统实战:需求分析(高频问题识别),数据准备(历史对话清洗),模型选型(成本与延迟考量),RAG知识库构建,对话流程设计,部署与监控 六、代码智能助手实战:代码库索引构建,代码生成提示优化,单元测试自动生成,代码审查辅助,IDE插件集成 七、文档智能处理系统实战:多格式文档解析,表格与图表信息提取,文档问答与摘要,报告自动生成,审批流程集成 八、教育领域应用实战:个性化学习路径推荐,试题自动生成与批改,学习内容问答,学情分析与报告 九、金融领域应用实战:研报自动分析,财务数据提取,风险评估辅助,合规文档审查 十、医疗领域应用实战:临床文档记录,文献综述辅助,诊断建议参考,患者问答服务 十一、项目交付与验收:测试用例设计与执行,性能指标达标验证,用户体验评估,文档编制与培训,持续运维方案 十二、综合实战:从零开始完成一个行业大模型应用项目,涵盖需求分析、技术选型、开发实现、部署交付的全流程
如果您想学习本课程,请预约报名
如果没找到合适的课程或有特殊培训需求,请订制培训 除培训外,同时提供相关技术咨询与技术支持服务,有需求请发需求表到邮箱soft@info-soft.cn,或致电4007991916 技术服务需求表下载请点击 服务优势: 丰富专家资源,精准匹配相关行业,相关项目技术精英,面向用户实际需求,针对性培训或咨询,互动式交流,案例教学,精品小班,实际工程项目经验分享,快捷高效,节省时间与金钱,少走弯路与错路。 专家力量: 中国科学院相关研究所高级研究人员 西门子,TI,vmware,MSC,Ansys,MDI,Mentor, candence,Altium,Atmel 、Freescale,达索,华为等 大型公司高级工程师,项目经理,技术支持专家 中科信软培训中心,资深专家或讲师 大多名牌大学,硕士以上学历,相关学历背景专业,理论素养高 多年实际项目实践,大型复杂项目实战案例分享,热情,乐于技术分享 针对客户实际需要,真实案例演示,互动式沟通,学有所值 |
|