搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
OpenVINO工具套件权威指南(轻松实现AI模型的优化和部署)/AIGC与大模型技术丛书
0.00     定价 ¥ 79.00
图书来源: 浙江图书馆(由浙江新华配书)
此书还可采购15本,持证读者免费借回家
  • 配送范围:
    浙江省内
  • ISBN:
    9787111777298
  • 作      者:
    编者:武卓//李翊玮//张晶|责编:张淑谦//马超
  • 出 版 社 :
    机械工业出版社
  • 出版日期:
    2025-04-01
收藏
畅销推荐
内容介绍
本书旨在帮助开发者应对AI推理计算性能优化这一重要挑战。随着深度学习模型的规模和复杂性日益增长,如何提升推理效率已成为开发者关注的核心问题。本书详细介绍了OpenVINOTM(Open Visual Inference and Neural Network Optimization)这款由英特尔推出的,专为深度学习模型的优化、加速推理和跨平台部署设计的开源工具套件。通过简单易用的功能,开发者可以快速上手,实现AI应用的高效落地。 本书涵盖了从OpenVINO的基础入门到高级优化的完整内容,包括设备插件、量化技术、大语言模型和生成式AI的优化与部署等,帮助开发者灵活应对不同应用场景的需求。此外,书中还介绍了端到端AI推理计算性能提升的实战案例,以及与PyTorch、ONNX Runtime等工具的集成,确保开发者在熟悉的环境中提升开发效率。书中代码获取方式见前言。 本书不仅适合AI领域的初学者,也为有经验的开发者提供了深入的技术指南。通过OpenVINO,开发者可以轻松提升AI推理计算性能,加速AI应用项目的成功落地。
展开
目录
前言
第1章 OpenVINOTM工具套件快速入门
1.1 OpenVINOTM工具套件简介
1.2 OpenVINOTM常用工具和组件
1.3 搭建OpenVINOTM Python开发环境
1.4 使用OpenVINOTM Model Converter转换模型
1.4.1 OpenVINOTM IR模型
1.4.2 使用OVC转换模型
1.5 使用benchmark_app评估模型推理计算性能
1.6 编写OpenVINOTM同步推理程序
1.6.1 OpenVINOTM同步推理程序典型流程
1.6.2 创建Core对象
1.6.3 读取并编译模型
1.6.4 获取图像数据
1.6.5 数据预处理
1.6.6 执行AI推理计算并获得推理结果
1.6.7 对推理结果进行后处理
1.6.8 运行完整的推理程序
1.7 本章小结
第2章 优化AI模型的推理计算性能
2.1 AI推理计算性能评价指标
2.1.1 AI模型的推理计算性能
2.1.2 端到端的AI程序推理计算性能
2.2 OpenVINOTM 设备插件
2.2.1 CPU插件、GPU插件和NPU插件
2.2.2 自动设备选择(AUTO)
2.2.3 用代码指定计算设备
2.3 性能提示(Performance Hints)
2.3.1 LATENCY(延迟优先)
2.3.2 THROUGHPUT(吞吐量优先)
2.3.3 CUMULATIVE_THROUGHPUT(累计吞吐量)
2.3.4 用代码配置性能提示属性
2.4 计算设备的属性
2.4.1 获得属性
2.4.2 设置属性
2.5 推理请求数量(Number of Infer Requests)
2.5.1 最佳推理请求数
2.5.2 用代码设置推理请求数
2.6 自动批处理(Automatic Batching)
2.6.1 启用自动批处理
2.6.2 设置批尺寸
2.6.3 设置自动批处理超时
2.7 模型缓存(Model Caching)
2.8 线程调度(Thread Scheduling)
2.9 共享内存(Shared Memory)
2.9.1 输入共享内存
2.9.2 输出共享内存
2.10 编写带属性配置的OpenVINOTM同步推理程序
2.10.1 创建推理请求对象
2.10.2 阻塞式推理计算方法:infer()
2.10.3 基于YOLOv8-cls分类模型的同步推理程序
2.10.4 基于YOLOv8目标检测模型的同步推理程序
2.10.5 基于YOLOv8-seg实例分割模型的同步推理程序
2.11 本章小结
第3章 模型量化技术
3.1 深度学习中常见的数据类型
3.1.1 如何用二进制表示浮点数
3.1.2 不同数据类型的存储需求和计算效率
3.2 INT8量化
3.3 NNCF
3.4 搭建NNCF开发环境
3.5 基础量化
3.5.1 准备COCO验证数据集
3.5.2 编写转换函数transform_fn()
3.5.3 准备校准数据集
3.5.4 调用nncf.quantize()函数执行INT8量化
3.5.5 保存INT8量化好的模型
3.5.6 测试INT8模型性能
3.5.7 基础量化小结
3.6 带精度控制的量化
3.6.1 准备COCO128验证数据集
3.6.2 编写转换函数transform_fn()
3.6.3 准备校准数据集和验证数据集
3.6.4 准备验证函数
3.6.5 调用nncf.quantize_with_accuracy_control()函数执行INT8量化
3.6.6 保存INT8量化好的模型
3.6.7 测试INT8模型性能
3.6.8 带精度控制的量化小结
3.7 本章小结
第4章 优化端到端的AI程序推理计算性能
4.1 端到端的AI程序推理计算性能
4.2 预处理API
4.2.1 导出YOLOv8s IR模型
4.2.2 实例化PrePostProcessor对象
4.2.3 声明用户输入数据信息
4.2.4 声明原始模型输入节点的布局信息
4.2.5 定义预处理步骤
4.2.6 将预处理步骤嵌入原始AI模型
4.2.7 保存嵌入预处理的AI模型
4.2.8 内嵌预处理后的模型性能
4.3 torchvision预处理转换器
4.4 使用异步推理提升AI程序的吞吐量
4.4.1 OpenVINOTM异步推理API
4.4.2 YOLOv8异步推理范例
4.5 使用AsyncInferQueue进一步提升AI程序的吞吐量
4.6 多路视频流并行推理
4.6.1 下载无版权视频
4.6.2 下载person-detection-0202模型并准备前、后处理函数
4.6.3 编写推理线程
4.6.4 编写显示线程
4.6.5 启动多线程
4.7 本章小结
第5章 OpenVINOTM的编程生态
5.1 指定OpenVINOTM为PyTorch 2.×后端
5.1.1 torch.compile简介
5.1.2 OpenVINOTM后端
5.2 ONNX Runtime的OpenVINOTM执行提供者
5.2.1 搭建ONNX Runtime开发环境
5.2.2 OpenVINOTM执行提供者范例程序
5.3 Optimum Intel的OpenVINOTM后端
5.3.1 搭建开发环境
5.3.2 用optimum-cli对Qwen2-1.5B-Instruct模型进行INT4量化
5.3.3 编写推理程序qwen2_optimum.py
5.4 LangChain的OpenVINOTM后端
5.4.1 LangChain支持OpenVINOTM后端
5.4.2 编写推理程序qwen2_langchain.py
5.5 vLLM的OpenVINOTM后端
5.5.1 搭建OpenVINOTM+vLLM开发环境
5.5.2 vLLM的范例程序
5.6 OpenVINOTM
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证