分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.022
秒,为您找到
9405
个相关结果.
搜书籍
搜文档
maximum
133
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
maximum 参数 返回 代码示例 maximum paddle. maximum ( x, y, name=None ) [源代码] 该OP逐元素对比输入的两个Tensor,并且把各个位置更大的元素保存到返回结果中。 等式是: 注解 paddle.maximum 遵守broadcasting,如您想了解更多,请参见 广播 (...
nodejs
783
2019-05-10
《云片短信API文档》
nodejs DEMO nodejs DEMO 功能说明: 该接口要求提前在云片后台添加模板,提交短信时,系统会自动匹配审核通过的模板,匹配成功任意一个模板即可发送。系统已提供的默认模板添加签名后可以直接使用。 // 修改为您的apikey.可在官网(https://www.yunpian.com)登录后获取 var https = r...
LayerList
1272
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
LayerList LayerList class paddle.nn.LayerList ( sublayers=None ) [源代码] LayerList用于保存子层列表,它包含的子层将被正确地注册和添加。列表中的子层可以像常规python列表一样被索引。 参数: sublayers (iterable,可选) - 要保存的子层。...
LRScheduler
507
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
LRScheduler LRScheduler class paddle.callbacks.LRScheduler ( by_step=True, by_epoch=False ) LRScheduler 是一个学习率回调函数。 参数: by_step (bool,可选) - 是否每个step都更新学习率。默认值:True。 by...
Adadelta
650
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
Adadelta Adadelta class paddle.optimizer.Adadelta ( learning_rate=0.001, epsilon=1.0e-6, rho=0.95, parameters=None, weight_decay=0.01, grad_clip=None, name=None ) [源代码] 注意:此...
serialize_program
146
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
serialize_program serialize_program paddle.static. serialize_program ( feed_vars, fetch_vars, **kwargs ) [源代码] 根据指定的 feed_vars 和 fetch_vars,序列化 program。 参数: feed_vars (Va...
load
208
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
load 参数 返回 代码示例 使用本API的教程文档 load paddle.jit. load ( path, **configs ) [源代码] 将接口 paddle.jit.save 或者 paddle.static.save_inference_model 存储的模型载入为 paddle.jit.TranslatedLaye...
ExponentialDecay
772
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
ExponentialDecay ExponentialDecay class paddle.optimizer.lr.ExponentialDecay ( learning_rate, gamma, last_epoch=- 1, verbose=False ) [源代码] 该接口提供一种学习率按指数函数衰减的策略。 衰减函数可以用以下公式...
NaturalExpDecay
240
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
NaturalExpDecay NaturalExpDecay class paddle.optimizer.lr. NaturalExpDecay ( learning_rate, gama, last_epoch=- 1, verbose=False ) [源代码] 该接口提供按自然指数衰减学习率的策略。 自然指数衰减的计算方式如下。 ...
GradScaler
334
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
GradScaler 使用本API的教程文档 GradScaler class paddle.amp. GradScaler ( enable=True, init_loss_scaling=32768.0, incr_ratio=2.0, decr_ratio=0.5, incr_every_n_steps=1000, decr_every_n_...
1..
«
8
9
10
11
»
..100