分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.032
秒,为您找到
9405
个相关结果.
搜书籍
搜文档
ModelCheckpoint
108
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
ModelCheckpoint ModelCheckpoint class paddle.callbacks. ModelCheckpoint ( save_freq=1, save_dir=None ) [源代码] ModelCheckpoint 回调类和model.fit联合使用,在训练阶段,保存模型权重和优化器状态信息。当前仅支持在固定的...
guard
555
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
guard guard paddle.utils.unique_name.guard ( new_generator=None ) 该接口用于更改命名空间,与with语句一起使用。使用后,在with语句的上下文中使用新的命名空间,调用generate接口时相同前缀的名称将从0开始重新编号。 参数: new_generator (str|b...
minimum
112
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
minimum 参数 返回 代码示例 minimum paddle. minimum ( x, y, name=None ) [源代码] 该OP逐元素对比输入的两个Tensor,并且把各个位置更小的元素保存到返回结果中。 等式是: 注解 paddle.minimum 遵守broadcasting,如您想了解更多,请参见 广播 (...
L2Decay
634
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
L2Decay L2Decay paddle.regularizer.L2Decay ( coeff=0.0 ) [源代码] L2Decay实现L2权重衰减正则化,用于模型训练,有助于防止模型对训练数据过拟合。 该类生成的实例对象,需要设置在 cn_api_paddle_ParamAttr 或者 optimizer (例如 Momentum...
Previewing in Browser
530
2021-05-31
《Cocos Creator 3.1 User Manual》
Preview In Browser How To Preview Refresh Preview Page Scene of Preview Preview In Mobile Custom Preview Template Examples of Use Add Custom Devices Info Debugging with brow...
RMSProp
947
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
RMSProp RMSProp class paddle.optimizer.RMSProp ( learning_rate, rho=0.95, epsilon=1e-06, momentum=0.0, centered=False, parameters=None, weight_decay=None, grad_clip=None, name...
RMSProp
393
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
RMSProp 使用本API的教程文档 RMSProp class paddle.optimizer. RMSProp ( learning_rate, rho=0.95, epsilon=1e-06, momentum=0.0, centered=False, parameters=None, weight_decay=None, grad_cl...
AdamW
257
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
AdamW AdamW class paddle.optimizer. AdamW ( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, parameters=None, weight_decay=0.01, apply_decay_param_fun=None, grad_cli...
Adamax
359
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
Adamax Adamax class paddle.optimizer. Adamax ( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, parameters=None, weight_decay=None, grad_clip=None, name=None ) [源代码]...
AdamW
1030
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
AdamW AdamW class paddle.optimizer.AdamW ( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, parameters=None, weight_decay=0.01, apply_decay_param_fun=None, grad_cli...
1..
«
19
20
21
22
»
..100