本书旨在帮助开发者应对AI推理计算性能优化这一重要挑战。随着深度学习模型的规模和复杂性日益增长,如何提升推理效率已成为开发者关注的核心问题。本书详细介绍了OpenVINOTM(Open Visual Inference and Neural Network Optimization)这款由英特尔推出的,专为深度学习模型的优化、加速推理和跨平台部署设计的开源工具套件。通过简单易用的功能,开发者可以快速上手,实现AI应用的高效落地。
本书涵盖了从OpenVINO的基础入门到高级优化的完整内容,包括设备插件、量化技术、大语言模型和生成式AI的优化与部署等,帮助开发者灵活应对不同应用场景的需求。此外,书中还介绍了端到端AI推理计算性能提升的实战案例,以及与PyTorch、ONNX Runtime等工具的集成,确保开发者在熟悉的环境中提升开发效率。书中代码获取方式见前言。
本书不仅适合AI领域的初学者,也为有经验的开发者提供了深入的技术指南。通过OpenVINO,开发者可以轻松提升AI推理计算性能,加速AI应用项目的成功落地。
展开