测试方法
本文将会介绍在Ubuntu:16.04交叉编译环境下,用安卓手机在终端测试Paddle-Lite的性能,同时介绍使用PaddleLite快速测试新模型在安卓端的精度。
一键Benchmark:适用于想快速获得常见模型性能的用户,下载预编译好的benchmark可执行文件;
逐步Benchmark:将一键Benchmark流程拆解讲解。
测试模型的精度和性能:使用PaddleLite快速测试单个模型在安卓端的精度。
环境准备
- 电脑准备安装adb。
Linux系统安装adb:
sudo apt update
sudo apt install -y wget adb
其他操作系统请自行安装adb。
检查手机与电脑连接。安卓手机USB连上电脑,打开设置 -> 开启开发者模式 -> 开启USB调试 -> 允许(授权)当前电脑调试手机。
在电脑终端输入
adb devices
命令,查看当前连接到的设备。
adb devices
命令成功执行,显示结果类似下面(序列码略有不同):
List of devices attached
712QSDSEMMS7C device
一. 一键Benchmark
执行以下命令,完成Benchmark:
# Test v2.8 branch
wget -c https://paddle-inference-dist.cdn.bcebos.com/PaddleLite/benchmark_2.8/run_benchmark.sh
sh run_benchmark.sh
# Test v2.6 branch
wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_2.6/run_benchmark.sh
sh run_benchmark.sh
# Test v2.3 branch
wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_2.3/run_benchmark.sh
sh run_benchmark.sh
该run_benchmark.sh
脚本会:
下载模型,并上传手机:包含mobilenetv1、mobilenetv2、shufflenetv2、squeezenetv1.1、mnasnet、mobilenetv1_int8、mobilenetv2_int8;
下载pre-built android-armv7和android-armv8的可执行文件,并上传手机:
benchmark_bin_v7
和benchmark_bin_v8
;自动执行另一个脚本
benchmark.sh
(多台手机连接USB,请在benchmark.sh
脚本中对adb
命令后加上测试手机的serial number
);从手机下载benchmark结果
result_armv7.txt
和result_armv8.txt
,到当前目录,并显示Benchmark结果。
注意: 如果运行中遇到
Operation not permitted
的问题,请使用sudo +sh run_benchmark.sh
给予授权,并尝试重新关闭/打开手机USB调试和文件传输模式,或者通过USB重新连接手机之后再次运行脚本。
二. 逐步Benchmark
1. 编译benchmark可执行文件
根据源码编译准备编译环境,建议使用Docker配置环境。
拉取Paddle-Lite代码,切换到特定分支,然后在Paddle-Lite根目录下执行编译命令。
# 拉取Paddle-Lite代码
git clone https://github.com/PaddlePaddle/Paddle-Lite.git
# 默认是develop分支,请拉取并切换到特定分支,比如切换到2.8分支
git checkout -b release/v2.8 origin/release/v2.8
###########################################
# Build benchmark_bin for android-armv7 #
###########################################
./lite/tools/build.sh \
--arm_os=android \
--arm_abi=armv7 \
--arm_lang=gcc \
--android_stl=c++_static \
--build_extra=ON \
--with_log=OFF \
full_publish
# 编译好的`benchmark_bin` 在: <paddle-lite-repo>/build.lite.android.armv7.gcc/lite/api/benchmark_bin
###########################################
# Build benchmark_bin for android-armv8 #
###########################################
./lite/tools/build.sh \
--arm_os=android \
--arm_abi=armv8 \
--arm_lang=gcc \
--android_stl=c++_static \
--build_extra=ON \
--with_log=OFF \
full_publish
# 编译好的`benchmark_bin` 在: <paddle-lite-repo>/build.lite.android.armv8.gcc/lite/api/benchmark_bin
注意:为了避免在docker内部访问不到手机的问题,建议编译得到benchmark_bin后退出到docker外面,并且将benchmark_bin文件拷贝到一个临时目录。然后在该临时目录下,按照下面步骤下载模型、拷贝脚本、测试。
注意:如果不是测试常见分类模型(单输入,输入shape是1x3x224x224),需要根据实际情况修改
/PaddleLite/lite/api/benchmark.cc
文件,然后编译得到可执行文件。
2. 准备模型
PaddleLite为Benchmark准备好了常见Benchmark模型。
执行以下命令,下载常见Benchmark模型并解压:
wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_0/benchmark_models.tgz
tar zxvf benchmark_models.tgz
如果测试其他模型,请将模型文件放到 benchmark_models
文件夹中,同时保证模型的的权重是独立保存成不同文件。
3. benchmark.sh脚本
benchmark测试的执行脚本benchmark.sh
位于源码中的/PaddleLite/lite/tools/benchmark.sh
位置,测试时需要将benchmark.sh
、 benchmark_bin
、 benchmark_models
文件复制到同一目录下。
4. 测试
从终端进入benchmark.sh、可执行文件(benchmark_bin_v7、benchmark_bin_v8)和模型文件(benchmark_models)所在文件夹。
如果 benchmark_models
中所有模型文件都已经使用 opt
工具 进行转换,则使用 benchmark.sh 脚本执行如下命令进行测试:
# Benchmark for android-armv7
sh benchmark.sh ./benchmark_bin_v7 ./benchmark_models result_armv7.txt
# Benchmark for android-armv8
sh benchmark.sh ./benchmark_bin_v8 ./benchmark_models result_armv8.txt
如果 benchmark_models
中所有模型文件都没有使用 opt
工具 进行转换,则执行下面的命令。benchmark_bin
会首先转换模型,然后加载模型进行测试。
# Benchmark for android-armv7
sh benchmark.sh ./benchmark_bin_v7 ./benchmark_models result_armv7.txt true
# Benchmark for android-armv8
sh benchmark.sh ./benchmark_bin_v8 ./benchmark_models result_armv8.txt true
测试结束后,armv7和armv8的结果,分别保存在当前目录下的result_armv7.txt
和result_armv8.txt
文件中。
查看测试结果
在当前目录的result_armv7.txt
和result_armv8.txt
文件,查看测试结果,举例如下。
注意:不同手机,不同版本,测试模型的性能数据不同。
run benchmark armv8
--------------------------------------
PaddleLite Benchmark
Threads=1 Warmup=10 Repeats=30
mnasnet min = 19.83500 max = 19.38500 average = 19.65503
mobilenetv1 min = 32.00600 max = 31.56900 average = 31.81983
mobilenetv2 min = 22.37900 max = 22.08700 average = 22.28623
shufflenetv2 min = 10.80400 max = 10.62900 average = 10.68890
squeezenet min = 17.67400 max = 17.47900 average = 17.57677
Threads=2 Warmup=10 Repeats=30
mnasnet min = 11.85600 max = 11.72000 average = 11.77127
mobilenetv1 min = 18.75000 max = 18.64300 average = 18.70593
mobilenetv2 min = 14.05100 max = 13.59900 average = 13.71450
shufflenetv2 min = 6.67200 max = 6.58300 average = 6.63400
squeezenet min = 12.07100 max = 11.33400 average = 11.41253
Threads=4 Warmup=10 Repeats=30
mnasnet min = 7.19300 max = 7.02600 average = 7.08480
mobilenetv1 min = 10.42000 max = 10.29100 average = 10.34267
mobilenetv2 min = 8.61900 max = 8.46900 average = 8.54707
shufflenetv2 min = 4.55200 max = 4.41900 average = 4.46477
squeezenet min = 8.60000 max = 7.85200 average = 7.98407
--------------------------------------
run benchmark armv7
--------------------------------------
PaddleLite Benchmark
Threads=1 Warmup=10 Repeats=30
mnasnet min = 20.98300 max = 20.81400 average = 20.92527
mobilenetv1 min = 33.19000 max = 32.81700 average = 33.08490
mobilenetv2 min = 25.91400 max = 25.61700 average = 25.73097
shufflenetv2 min = 11.14300 max = 10.97600 average = 11.06757
squeezenet min = 19.31800 max = 19.20000 average = 19.26530
Threads=2 Warmup=10 Repeats=30
mnasnet min = 12.59900 max = 12.46600 average = 12.52207
mobilenetv1 min = 19.05800 max = 18.94700 average = 18.97897
mobilenetv2 min = 15.28400 max = 15.11300 average = 15.19843
shufflenetv2 min = 6.97000 max = 6.81400 average = 6.90863
squeezenet min = 12.87900 max = 12.12900 average = 12.22530
Threads=4 Warmup=10 Repeats=30
mnasnet min = 7.31400 max = 7.12900 average = 7.20357
mobilenetv1 min = 11.44000 max = 10.86900 average = 10.94383
mobilenetv2 min = 9.14900 max = 9.03800 average = 9.09907
shufflenetv2 min = 4.60600 max = 4.49400 average = 4.53360
squeezenet min = 8.27000 max = 8.10600 average = 8.19000
--------------------------------------
三. 测试模型的精度和性能
Paddle-Lite的预测流程可以参考文档,即是准备模型、模型优化、下载或编译预测库、开发应用程序。
在准备模型阶段,请自行测试确保预测模型的精度。如果不确定模型精度准确,可以使用PaddlePaddle静态图模式下的load_inference_model(API使用方法请到Paddle官网搜索)加载,配置测试数据,使用executor执行,计算模型精度。
在模型优化阶段,如果出现OP不支持、类型cast等错误,可以提Issue反馈给Paddle-Lite开发同学进行修复,或者参考开发者贡献文档自行修复。
产出优化后的模型,通常可以下载预测库,开发应用程序了。
在开发应用程序阶段,如果出现预测结果不对或者程序崩溃的情况,通常很难定位是Paddle-Lite预测框架的Bug还是开发程序中的错误。 此时,建议大家剥离APP程序的代码,使用C++可执行文件直接测试Paddle-Lite执行模型预测的精度正确性。大家可以参考C++ 完整示例,其中有些示例使用OpenCV处理输入输出图片,可以可视化查看模型预测结果的准确性。