模型保存常见问题
问题:静态图的save接口与save_inference_model接口存储的结果有什么区别?
答复:主要差别在于保存结果的应用场景:
save接口(2.0的
paddle.static.save
或者1.8的fluid.io.save
)该接口用于保存训练过程中的模型和参数,一般包括
*.pdmodel
,*.pdparams
,*.pdopt
三个文件。其中*.pdmodel
是训练使用的完整模型program描述,区别于推理模型,训练模型program包含完整的网络,包括前向网络,反向网络和优化器,而推理模型program仅包含前向网络,*.pdparams
是训练网络的参数dict,key为变量名,value为Tensor array数值,*.pdopt
是训练优化器的参数,结构与*.pdparams一致。save_inference_model接口(2.0的
paddle.static.save_inference_model
或者1.8的fluid.io.save_inference_model
)该接口用于保存推理模型和参数,2.0的
paddle.static.save_inference_model
保存结果为*.pdmodel
和*.pdiparams
两个文件,其中*.pdmodel
为推理使用的模型program描述,*.pdiparams
为推理用的参数,这里存储格式与*.pdparams
不同(注意两者后缀差个i
),*.pdiparams
为二进制Tensor存储格式,不含变量名。1.8的fluid.io.save_inference_model
默认保存结果为__model__
文件,和以参数名为文件名的多个分散参数文件,格式与2.0一致。关于更多2.0动态图模型保存和加载的介绍可以参考教程:模型存储与载入
问题:增量训练中,如何保存模型和恢复训练?
- 答复:在增量训练过程中,不仅需要保存模型的参数,也需要保存优化器的参数。
具体地,在2.0版本中需要使用Layer和Optimizer的state_dict
和set_state_dict
方法配合paddle.save/load
使用。简要示例如下:
import paddle
emb = paddle.nn.Embedding(10, 10)
layer_state_dict = emb.state_dict()
paddle.save(layer_state_dict, "emb.pdparams")
scheduler = paddle.optimizer.lr.NoamDecay(
d_model=0.01, warmup_steps=100, verbose=True)
adam = paddle.optimizer.Adam(
learning_rate=scheduler,
parameters=emb.parameters())
opt_state_dict = adam.state_dict()
paddle.save(opt_state_dict, "adam.pdopt")
load_layer_state_dict = paddle.load("emb.pdparams")
load_opt_state_dict = paddle.load("adam.pdopt")
emb.set_state_dict(para_state_dict)
adam.set_state_dict(opti_state_dict)
问题:paddle.load可以加载哪些API产生的结果呢?
答复:
为了更高效地使用paddle存储的模型参数,
paddle.load
支持从除paddle.save
之外的其他save相关API的存储结果中载入state_dict
,但是在不同场景中,参数path
的形式有所不同:从
paddle.static.save
或者paddle.Model().save(training=True)
的保存结果载入:path
需要是完整的文件名,例如model.pdparams
或者model.opt
;从
paddle.jit.save
或者paddle.static.save_inference_model
或者paddle.Model().save(training=False)
的保存结果载入:path
需要是路径前缀, 例如model/mnist
,paddle.load
会从mnist.pdmodel
和mnist.pdiparams
中解析state_dict
的信息并返回。从paddle 1.x API
paddle.fluid.io.save_inference_model
或者paddle.fluid.io.save_params/save_persistables
的保存结果载入:path
需要是目录,例如model
,此处model是一个文件夹路径。
需要注意的是,如果从
paddle.static.save
或者paddle.static.save_inference_model
等静态图API的存储结果中载入state_dict
,动态图模式下参数的结构性变量名将无法被恢复。在将载入的state_dict
配置到当前Layer中时,需要配置Layer.set_state_dict
的参数use_structured_name=False
。
问题:paddle.save 是如何保存state_dict,Layer对象,Tensor以及包含Tensor的嵌套list、tuple、dict的呢?
答复:
对于
state_dict
保存方式与paddle2.0完全相同,我们将Tensor
转化为numpy.ndarray
保存。对于其他形式的包含
Tensor
的对象(Layer
对象,单个Tensor
以及包含Tensor
的嵌套list
、tuple
、dict
),在动态图中,将Tensor
转化为tuple(Tensor.name, Tensor.numpy())
;在静态图中,将Tensor
直接转化为numpy.ndarray
。之所以这样做,是因为当在静态图中使用动态保存的模型时,有时需要Tensor
的名字因此将名字保存下来,同时,在load
时区分这个numpy.ndarray
是由Tenosr转化而来还是本来就是numpy.ndarray
;保存静态图的Tensor
时,通常通过Variable.get_value
得到Tensor
再使用paddle.save
保存Tensor
,此时,Variable
是有名字的,这个Tensor
是没有名字的,因此将静态图Tensor
直接转化为numpy.ndarray
保存。
此处动态图Tensor和静态图Tensor是不相同的,动态图Tensor有name、stop_gradient等属性;而静态图的Tensor是比动态图Tensor轻量级的,只包含place等基本信息,不包含名字等。
问题:将Tensor转换为numpy.ndarray或者tuple(Tensor.name, Tensor.numpy())不是惟一可译编码,为什么还要做这样的转换呢?
答复:
我们希望
paddle.save
保存的模型能够不依赖paddle框架就能够被用户解析(pickle格式模型),这样用户可以方便的做调试,轻松的看到保存的参数的数值。其他框架的模型与paddle模型做转化也会容易很多。我们希望保存的模型尽量小,只保留了能够满足大多场景的信息(动态图保存名字和数值,静态图只保存数值),如果需要
Tensor
的其他信息(例如stop_gradient
),可以向被保存的对象中添加这些信息,load
之后再还原这些信息。这样的转换方式可以覆盖绝大多数场景,一些特殊场景也是可以通过一些方法解决的,如下面的问题。
问题:什么情况下save与load的结果不一致呢,应该如何避免这种情况发生呢?
答复:
以下情况会造成save与load的结果不一致:
被保存的对象包含动态图
Tensor
同时包含tuple(string, numpy.ndarray)
;被保存的对象包含静态图
Tensor
,同时包含numpy.ndarray
或者tuple(string, numpy.ndarray)
;被保存的对象只包含
numpy.ndarray
,但是包含tuple(string, numpy.ndarray)
。
针对这些情况我们有以下建议:
被保存的对象(包括
Layer
对象中的ParamBase
),避免包含形如tuple(string, numpy.ndarray)
的对象;如果被保存的对象包含
numpy.ndarray
,尽量在load
时设置return_numpy = True
。对于
Layer
对象,只保存参数的值和名字,如果需要其他信息(例如stop_gradient
),请将手将这些信息打包成dict
等,一并保存。
更多介绍请参考以下API文档: