Skip to content

Multi-platform high performance deep learning inference engine (『飞桨』多平台高性能深度学习预测引擎)

License

Notifications You must be signed in to change notification settings

BillDior/Paddle-Lite

 
 

Repository files navigation

Paddle Lite

English | 简体中文

Build Status Documentation Status Release License

Paddle Lite是一个高性能、轻量级、灵活性强且易于扩展的深度学习推理框架,定位支持包括移动端、嵌入式以及服务器端在内的多硬件平台。

当前Paddle Lite不仅在百度内部业务中得到全面应用,也成功支持了众多外部用户和企业的生产任务。

快速入门

使用Paddle Lite,只需几个简单的步骤,就可以把模型部署到多种终端设备中,运行高性能的推理任务,使用流程如下所示:

一. 准备模型

Paddle Lite框架直接支持模型结构为PaddlePaddle深度学习框架产出的模型格式。目前PaddlePaddle用于推理的模型是通过save_inference_model这个API保存下来的。 如果您手中的模型是由诸如Caffe、Tensorflow、PyTorch等框架产出的,那么您可以使用 X2Paddle 工具将模型转换为PadddlePaddle格式。

二. 模型优化

Paddle Lite框架拥有优秀的加速、优化策略及实现,包含量化、子图融合、Kernel优选等优化手段。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。 这些优化通过Paddle Lite提供的opt工具实现。opt工具还可以统计并打印出模型中的算子信息,并判断不同硬件平台下Paddle Lite的支持情况。您获取PaddlePaddle格式的模型之后,一般需要通该opt工具做模型优化。opt工具的下载和使用,请参考 模型优化方法

三. 下载或编译

Paddle Lite提供了Android/iOS/X86平台的官方Release预测库下载,我们优先推荐您直接下载 Paddle Lite预编译库。 您也可以根据目标平台选择对应的源码编译方法。Paddle Lite 提供了源码编译脚本,位于 lite/tools/文件夹下,只需要 准备环境调用编译脚本 两个步骤即可一键编译得到目标平台的Paddle Lite预测库。

四. 预测示例

Paddle Lite提供了C++、Java、Python三种API,并且提供了相应API的完整使用示例:

您可以参考示例中的说明快速了解使用方法,并集成到您自己的项目中去。

针对不同的硬件平台,Paddle Lite提供了各个平台的完整示例:

主要特性

  • 多硬件支持:
    • Paddle Lite架构已经验证和完整支持从 Mobile 到 Server 多种硬件平台,包括 ARM CPU、Mali GPU、Adreno GPU、华为 NPU,以及 FPGA 等,且正在不断增加更多新硬件支持。
    • 各个硬件平台的 Kernel 在代码层和执行层互不干扰,用户不仅可以自由插拔任何硬件,还支持任意系统可见硬件之间的混合调度
  • 轻量级部署
    • Paddle Lite在设计上对图优化模块和执行引擎实现了良好的解耦拆分,移动端可以直接部署执行阶段,无任何第三方依赖。
    • 包含完整的80个 op+85个 Kernel 的动态库,对于ARMV7只有800K,ARMV8下为1.3M,并可以通过裁剪预测库进一步减小预测库文件大小。
  • 高性能:
    • 极致的 ARM CPU 性能优化:针对不同微架构特点实现kernel的定制,最大发挥计算性能,在主流模型上展现出领先的速度优势。
    • 支持 PaddleSlim模型压缩工具:支持量化训练、离线量化等多种量化方式,最优可在不损失精度的前提下进一步提升模型推理性能。性能数据请参考 benchmark
  • 多模型多算子
    • Paddle Lite和PaddlePaddle训练框架的OP对齐,提供广泛的模型支持能力。
    • 目前已严格验证24个模型200个OP的精度和性能,对视觉类模型做到了较为充分的支持,覆盖分类、检测和定位,包含了特色的OCR模型的支持,并在不断丰富中。具体请参考支持OP
  • 强大的图分析和优化能力
    • 不同于常规的移动端预测引擎基于 Python 脚本工具转化模型, Lite 架构上有完整基于 C++ 开发的 IR 及相应 Pass 集合,以支持操作熔合,计算剪枝,存储优化,量化计算等多类计算图优化。更多的优化策略可以简单通过 新增 Pass 的方式模块化支持。

持续集成

System X86 Linux ARM Linux Android (GCC/Clang) iOS
CPU(32bit) Build Status Build Status Build Status Build Status
CPU(64bit) Build Status Build Status Build Status Build Status
OpenCL - - Build Status -
FPGA - Build Status - -
华为NPU - - Build Status -
百度 XPU Build Status Build Status - -
RK NPU - Build Status - -
MTK APU - - Build Status -

架构设计

Paddle Lite 的架构设计着重考虑了对多硬件和平台的支持,并且强化了多个硬件在一个模型中混合执行的能力,多个层面的性能优化处理,以及对端侧应用的轻量化设计。

其中,Analysis Phase 包括了 MIR(Machine IR) 相关模块,能够对原有的模型的计算图针对具体的硬件列表进行算子融合、计算裁剪 在内的多种优化。Execution Phase 只涉及到Kernel 的执行,且可以单独部署,以支持极致的轻量级部署。

进一步了解Paddle Lite

如果您想要进一步了解Paddle Lite,下面是进一步学习和使用Paddle-Lite的相关内容:

文档和示例

关键技术

FAQ

  • FAQ:常见问题,可以访问FAQ、搜索Issues、或者通过页面底部的联系方式联系我们 ###贡献代码
  • 贡献代码:如果您想一起参与Paddle Lite的开发,贡献代码,请访问开发者共享文档

交流与反馈

  • 欢迎您通过Github Issues来提交问题、报告与建议
  • 技术交流QQ群: 一群696965088(已满) ;二群,959308808

     

   微信公众号                官方技术交流QQ群

版权和许可证

Paddle-Lite由Apache-2.0 license提供

About

Multi-platform high performance deep learning inference engine (『飞桨』多平台高性能深度学习预测引擎)

Resources

License

Stars

Watchers

Forks

Packages

No packages published

Languages

  • C++ 82.8%
  • Swift 3.6%
  • C 2.9%
  • CMake 2.8%
  • Metal 2.3%
  • Cuda 2.0%
  • Other 3.6%