书栈网 · BookStack 本次搜索耗时 0.027 秒,为您找到 6149 个相关结果.
  • 模型组网

    模型组网 一、paddle.nn 简介 二、Sequential 组网 三、SubClass 组网 四、飞桨框架内置模型 模型组网 完成数据集的构建后,需要构建网络模型。首先介绍飞桨组网相关的API,主要是paddle.nn 下的API介绍,然后介绍动态图下飞桨框架支持的两种组网方式,分别为 Sequential 组网与 SubClass ...
  • Optimizer

    Optimizer Optimizer class paddle.optimizer. Optimizer ( learning_rate=0.001, epsilon=1e-08, parameters=None, weight_decay=None, grad_clip=None, name=None ) [源代码] 优化器的基类。 参数:...
  • append_backward

    append_backward append_backward paddle.static.append_backward ( loss, parameter_list=None, no_grad_set=None, callbacks=None ) [源代码] 该接口将向主程序(main_program )添加反向部分 。 完整的神经网络训...
  • LoDTensor

    LoDTensor 代码示例 方法 has_valid_recursive_sequence_lengths(self: paddle.fluid.core_avx.LoDTensor) → bool lod(self: paddle.fluid.core_avx.LoDTensor) → List[List[int]] recursive_seque...
  • broadcast

    broadcast 参数 返回 代码示例 broadcast paddle.distributed. broadcast ( tensor, src, group=0 ) [源代码] 广播一个Tensor给其他所有进程 参数 tensor (Tensor) - 如果当前进程编号是源,那么这个Tensor变量将被发送给其他进程,否则...
  • 单机多卡训练

    单机多卡训练 一、launch启动 1.1 高层API场景 1.2 基础API场景 二、spawn启动 单机多卡训练 飞桨框架2.0增加paddle.distributed.spawn 函数来启动单机多卡训练,同时原有的paddle.distributed.launch 的方式依然保留。 一、launch启动 1.1 高层API场景...
  • LinearWarmup

    LinearWarmup LinearWarmup class paddle.optimizer.lr. LinearWarmup ( learing_rate, warmup_steps, start_lr, end_lr, last_epoch=- 1, verbose=False ) [源代码] 该接口提供一种学习率优化策略-线性学习率热身...
  • 调试方法

    调试方法 断点调试 打印转换后的代码 使用 print 日志打印 调试方法 本节内容将介绍动态图转静态图(下文简称:动转静)推荐的几种调试方法。 注解: 请确保转换前的动态图代码能够成功运行,建议使用 paddle.jit.ProgramTranslator().enable(False) 关闭动转静功能,直接运行动态图,如下: ...
  • serialize_persistables

    serialize_persistables serialize_persistables paddle.static. serialize_persistables ( feed_vars, fetch_vars, executor, **kwargs ) [源代码] 根据指定的 feed_vars,fetch_vars 和 executor,...
  • LayerDict

    LayerDict LayerDict class paddle.nn. LayerDict ( sublayers=None ) [源代码] LayerDict用于保存子层到有序字典中,它包含的子层将被正确地注册和添加。列表中的子层可以像常规python 有序字典一样被访问。 参数: sublayers (LayerDict|Order...