书栈网 · BookStack 本次搜索耗时 0.031 秒,为您找到 118101 个相关结果.
  • 用例子学习 PyTorch

    用例子学习 PyTorch 张量 Warm-up:Numpy PyTorch:张量 自动求导 PyTorch:张量和自动求导 PyTorch:定义新的自动求导函数 TensorFlow:静态图 nn 模块 PyTorch:nn PyTorch:optim PyTorch:自定义nn模块 PyTorch:控制流+权重共享 例子 张量 ...
  • 使用 numpy 和 scipy 创建扩展

    使用 numpy 和 scipy 创建扩展 无参示例 参数化示例 使用 numpy 和 scipy 创建扩展 译者:@飞龙 作者 : Adam Paszke 这个教程中, 我们将完成以下两个任务: 创建不带参数的神经网络层 > 这会调用 *numpy, 作为其实现的一部分 创建带有可学习的权重的神经网络层 > ...
  • rnn

    rnn rnn paddle.fluid.layers. rnn (inputs, initial_states=None, sequence_length=None, time_major=False, is_reverse=False, **kwargs)[源代码] rnn创建一个由RNNCell cell 指定的递归神经网络,该神经...
  • TreeConv

    TreeConv 参数 返回 代码示例 属性 weight bias TreeConv class paddle.fluid.dygraph.TreeConv (feature_size, output_size, num_filters=1, max_depth=2, act=’tanh’, param_attr=None, bias_...
  • 9.传统 CTR 预估模型

    CTR 预估模型 CTR 预估模型 CTR 预估模型主要用于搜索、推荐、计算广告等领域的 CTR 预估,其发展经历了传统 CTR 预估模型、神经网络CTR 预估模型。 传统 CTR 预估模型包括:逻辑回归LR 模型、因子分解机FM 模型、梯度提升树 GBDT 模型等。其优点是:可解释性强、训练和部署方便、便于在线学习。 本章主要...
  • 5.10 批量归一化

    5.10 批量归一化 5.10.1 批量归一化层 5.10.1.1 对全连接层做批量归一化 5.10.1.2 对卷积层做批量归一化 5.10.1.3 预测时的批量归一化 5.10.2 从零开始实现 5.10.2.1 使用批量归一化层的LeNet 5.10.3 简洁实现 小结 参考文献 5.10 批量归一化 本节我们介绍批量归一化(b...
  • 反向传播

    反向传播 反向传播 神经网络对模型的表达能力依赖于优化算法,优化是一个不断计算梯度并调整可学习参数的过程,Fluid中的优化算法可参考 优化器 。 在网络的训练过程中,梯度计算分为两个步骤:前向计算与 反向传播 。 前向计算会根据您搭建的网络结构,将输入单元的状态传递到输出单元。 反向传播借助 链式法则 ,计算两个或两个以上复合函数的导数...
  • 反向传播

    反向传播 反向传播 神经网络对模型的表达能力依赖于优化算法,优化是一个不断计算梯度并调整可学习参数的过程,Fluid中的优化算法可参考 优化器 。 在网络的训练过程中,梯度计算分为两个步骤:前向计算与 反向传播 。 前向计算会根据您搭建的网络结构,将输入单元的状态传递到输出单元。 反向传播借助 链式法则 ,计算两个或两个以上复合函数的导...
  • 反向传播

    反向传播 反向传播 神经网络对模型的表达能力依赖于优化算法,优化是一个不断计算梯度并调整可学习参数的过程,Fluid中的优化算法可参考 优化器 。 在网络的训练过程中,梯度计算分为两个步骤:前向计算与 反向传播 。 前向计算会根据您搭建的网络结构,将输入单元的状态传递到输出单元。 反向传播借助 链式法则 ,计算两个或两个以上复合函数的导数...