模型压缩

    对于业务用户,PaddleSlim提供完整的模型压缩解决方案,可用于图像分类、检测、分割等各种类型的视觉场景。 同时也在持续探索NLP领域模型的压缩方案。另外,PaddleSlim提供且在不断完善各种压缩策略在经典开源任务的benchmark, 以便业务用户参考。

    对于模型压缩算法研究者或开发者,PaddleSlim提供各种压缩策略的底层辅助接口,方便用户复现、调研和使用最新论文方法。 PaddleSlim会从底层能力、技术咨询合作和业务场景等角度支持开发者进行模型压缩策略相关的创新工作。

    • 模型剪裁

      • 基于敏感度的卷积通道剪裁

      • 基于进化算法的自动剪裁

    • 定点量化

      • 在线量化训练(training aware)

      • 离线量化(post training)

      • 支持单进程知识蒸馏

      • 支持多进程分布式知识蒸馏

    • 神经网络结构自动搜索(NAS)

      • 支持基于进化算法的轻量神经网络结构自动搜索

      • 支持 FLOPS / 硬件延时约束

      • 支持多平台模型延时评估

      • 支持用户自定义搜索算法和搜索空间

    依赖:

    • :通过简单示例介绍如何快速使用PaddleSlim。

    • 进阶教程:PaddleSlim高阶教程。

    • :各个压缩策略在图像分类、目标检测和图像语义分割模型上的实验结论,包括模型精度、预测速度和可供下载的预训练模型。

    • API文档

    • :介绍如何在检测库中使用PaddleSlim。

    • Paddle分割库:介绍如何在分割库中使用PaddleSlim。

    • :介绍如何使用预测库PaddleLite部署PaddleSlim产出的模型。

    数据: ImageNet2012; 模型: MobileNetV1;

    数据:Pascal VOC;模型:MobileNet-V1-YOLOv3

    数据:COCO;模型:MobileNet-V1-YOLOv3

    数据:ImageNet2012; 模型:MobileNetV2