- Opt
set_model_dir(model_dir)
set_model_file(model_file)
set_param_file(param_file)
set_model_type(type)
set_valid_places(valid_places)
set_optimize_out(optimized_model_name)
set_quant_model(quant_model)
set_quant_type(quant_type)
run()
run_optimize(model_dir, model_file, param_file, type, valid_places, optimized_model_name)
Opt
class Opt;
Opt
模型离线优化接口,Paddle原生模型需经opt
优化图结构后才能在Paddle-Lite上运行。
示例:
假设待转化模型问当前文件夹下的mobilenet_v1
,可以使用以下脚本转换
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 指定输入模型地址
opt.set_model_dir("./mobilenet_v1")
# 3. 指定转化类型: arm、x86、opencl、npu
opt.set_valid_places("arm")
# 4. 指定模型转化类型: naive_buffer、protobuf
opt.set_model_type("naive_buffer")
# 4. 输出模型地址
opt.set_optimize_out("mobilenetv1_opt")
# 5. 执行模型优化
opt.run()
set_model_dir(model_dir)
设置模型文件夹路径,当需要从磁盘加载非combined模型时使用。
参数:
model_dir(str)
- 模型文件夹路径
返回:None
set_model_file(model_file)
设置模型文件路径,加载combined形式模型时使用。
参数:
model_file(str)
- 模型文件路径
set_param_file(param_file)
设置模型参数文件路径,加载combined形式模型时使用。
参数:
param_file(str)
- 模型文件路径
set_model_type(type)
设置模型的输出类型,当前支持naive_buffer
和protobuf
两种格式,移动端预测需要转化为naive_buffer
。
naive_buffer
的优化后模型为以.nb
名称结尾的单个文件。protobuf
的优化后模型为文件夹下的model
和params
两个文件。将model
重命名为__model__
用Netron打开,即可查看优化后的模型结构。
参数:
type(str)
- 模型格式(naive_buffer/protobuf
)
set_valid_places(valid_places)
设置可用的places列表。
参数:
valid_places(str)
- 可用place列表,不同place用,
隔开
示例:
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 指定转化类型: arm、x86、opencl、npu
opt.set_valid_places("arm,opencl")
# opt.set_valid_places("arm,npu")
set_optimize_out(optimized_model_name)
设置优化后模型的名称,优化后模型文件以.nb
作为文件后缀。
参数:
optimized_model_name(str)
set_quant_model(quant_model)
设置是否使用 opt
中的动态离线量化功能。
参数:
quant_model(bool)
set_quant_type(quant_type)
设置动态离线量化的方式,支持两种量化方式(QUANT_INT16
和QUANT_INT8
),即分别量化为int16
和int8
。量化为int8
对模型精度有一点影响,模型体积大概减小4倍。量化为int16
对模型精度基本没有影响,模型体积大概减小2倍。
参数:
quant_type(str)
-支持设置为QUANT_INT16
和QUANT_INT8
run()
执行模型优化,用以上接口设置完 模型路径
、model_type
、optimize_out
和valid_places
后,执行run()
接口会根据以上设置转化模型,转化后模型保存在当前路径下。
run_optimize(model_dir, model_file, param_file, type, valid_places, optimized_model_name)
执行模型优化,无需设置以上接口,直接指定 模型路径
、model_type
、optimize_out
和valid_places
并执行模型转化。
参数:
model_dir(str)
- 模型文件夹路径model_file(str)
- 模型文件路径param_file(str)
- 模型文件路径type(str)
- 模型格式(naive_buffer/protobuf
)valid_places(str)
- 可用place列表,不同place用,
隔开optimized_model_name(str)
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 执行模型优化
opt.run_optimize("./mobilenet_v1","","","arm","mobilenetv1_opt");