课程培训
深度学习模型优化与部署课程

深度学习模型优化与部署课程

 

培训对象:
AI算法工程师;深度学习模型开发人员;MLOps工程师;以及负责模型生产环境部署与运维的技术人员。

 

培训目标:
使学员全面掌握深度学习模型从训练完成到生产部署的全流程优化技术与工程实践。精通模型量化、剪枝、蒸馏等压缩技术,掌握TensorRT、ONNX Runtime等推理加速引擎的使用方法。熟悉模型服务框架(TensorFlow Serving、TorchServe、NVIDIA Triton)的配置与调优。具备构建高并发、低延迟、高可用的模型推理服务的能力,实现深度学习模型在云端、边缘端的高效部署。

 

培训内容介绍:

  1. 模型优化与部署概述:讲解深度学习模型生产落地的全流程,分析模型训练与推理的差异。介绍模型优化与部署的核心挑战(延迟、吞吐量、显存占用、成本)与解决方案。

  2. 模型量化技术:深入讲解量化原理(对称量化、非对称量化、动态量化、静态量化),对比INT8、FP16、BFLOAT16等精度格式的适用场景。掌握PyTorch/TensorFlow中的量化感知训练(QAT)与训练后量化(PTQ)方法。

  3. 模型剪枝与稀疏化:学习结构化剪枝与非结构化剪枝的技术原理,掌握基于重要性的剪枝策略。了解稀疏化计算在GPU上的加速原理,实现模型参数的有效压缩。

  4. 知识蒸馏:讲解知识蒸馏的基本原理,包括软标签蒸馏、特征蒸馏、关系蒸馏。学习教师模型与学生模型的协同训练方法,实现大模型向小模型的能力迁移。

  5. ONNX与模型格式转换:学习ONNX(开放神经网络交换格式)的规范与使用方法。掌握将PyTorch/TensorFlow模型转换为ONNX格式的技巧,解决转换过程中的算子兼容性问题。

  6. TensorRT加速推理:深入讲解TensorRT的核心技术(层融合、内核自动调优、动态形状推理)。掌握模型转换为TensorRT引擎的方法,配置优化参数实现极致推理加速。

  7. 模型服务框架实战:学习TensorFlow Serving、TorchServe、NVIDIA Triton Inference Server的部署与配置。掌握多模型管理、版本控制、动态批处理、并发请求处理等高级功能。

  8. 推理服务架构设计:设计支持高并发的推理服务架构,包括负载均衡、请求队列、自动弹性伸缩。掌握使用Docker容器化部署模型服务的方法。

  9. 边缘端部署技术:学习在移动端、嵌入式设备上的模型部署方法,掌握TFLite、Core ML、NCNN等轻量级推理框架的使用。实现模型在资源受限环境下的高效运行。

  10. 推理性能监控与调优:建立推理服务的监控指标体系,包括QPS、延迟分布(P50/P95/P99)、显存占用、GPU利用率。掌握性能瓶颈的诊断方法与调优策略。

  11. A/B测试与模型版本管理:学习构建A/B测试框架,对比不同版本模型的效果差异。掌握模型版本管理、灰度发布、回滚机制等生产级部署最佳实践。

  12. 端到端部署实战项目:完成一个深度学习模型(图像分类/目标检测/NLP模型)从训练到部署的全流程实战,包括模型压缩优化、ONNX转换、TensorRT加速、Triton服务部署、性能监控,输出可投入生产的部署方案。





如果您想学习本课程,请预约报名
如果没找到合适的课程或有特殊培训需求,请订制培训
除培训外,同时提供相关技术咨询与技术支持服务,有需求请发需求表到邮箱soft@info-soft.cn,或致电4007991916
技术服务需求表下载请点击

服务优势:
丰富专家资源,精准匹配相关行业,相关项目技术精英,面向用户实际需求,针对性培训或咨询,互动式交流,案例教学,精品小班,实际工程项目经验分享,快捷高效,节省时间与金钱,少走弯路与错路。

专家力量:
中国科学院相关研究所高级研究人员
西门子,TI,vmware,MSC,Ansys,MDI,Mentor, candence,Altium,Atmel 、Freescale,达索,华为等
大型公司高级工程师,项目经理,技术支持专家
中科信软培训中心,资深专家或讲师
大多名牌大学,硕士以上学历,相关学历背景专业,理论素养高
多年实际项目实践,大型复杂项目实战案例分享,热情,乐于技术分享
针对客户实际需要,真实案例演示,互动式沟通,学有所值
报名表下载
联系我们 更多>>

咨询电话010-62883247

                4007991916

咨询邮箱:soft@info-soft.cn  

 

  微信咨询

随时听讲课

聚焦技术实践

订制培训 更多>>