书栈网 · BookStack 本次搜索耗时 0.065 秒,为您找到 76649 个相关结果.
  • layer_norm

    layer_norm 参数 返回 返回类型 代码示例 layer_norm 查看属性与别名 API属性:声明式编程(静态图)专用API paddle.fluid.layers.layer_norm ( input, scale=True, shift=True, begin_norm_axis=1, epsilon=1e-05, par...
  • PyTorch: optim包

    PyTorch: optim包 PyTorch: optim包 译者:@yongjay13 、@speedmancs 校对者:@bringtree 本例中的全连接神经网络有一个隐藏层, 后接ReLU激活层, 并且不带偏置参数. 训练时通过最小化欧式距离的平方, 来学习从x到y的映射 在此实现中, 我们将弃用之前手工更新权值的做法, ...
  • 基础概念

    基础概念 Program Block Operator Variable Name ParamAttr 相关API 基础概念 Program Fluid 中使用类似于编程语言的抽象语法树的形式描述用户的神经网络配置,用户对计算的描述都将写入一段Program。Fluid 中的 Program 替代了传统框架中模型的概念,通过对顺序...
  • 基础概念

    基础概念 Program Block Operator Variable Name ParamAttr 相关API 基础概念 Program Fluid 中使用类似于编程语言的抽象语法树的形式描述用户的神经网络配置,用户对计算的描述都将写入一段Program。Fluid 中的 Program 替代了传统框架中模型的概念,通过对顺序...
  • 自动求导: 自动微分

    自动求导: 自动微分 Variable(变量) 梯度 自动求导: 自动微分 译者:@小王子 校对者:@李子文 PyTorch 中所有神经网络的核心是 autograd 自动求导包. 我们先来简单介绍一下, 然后我们会去训练我们的第一个神经网络. autograd 自动求导包针对张量上的所有操作都提供了自动微分操作. 这是一个逐...
  • 八、对抗训练

    八、对抗训练 八、对抗训练 神经网络在预测过程中,可以故意人工构造这样的一种样本:对输入点 ,我们搜寻它的附近的一个人眼看起来没有区别、网络预测结果差异很大的样本 。 输入点 来自于训练集,称作原始样本;而 是人工构造的,称作对抗样本adversarial example 。 我们可以通过将对抗样本加入训练集来改善模型的泛化能力,这称...
  • rnn

    rnn 参数 返回类型 代码示例 rnn 查看属性与别名 API属性:声明式编程(静态图)专用API paddle.fluid.layers.rnn ( cell, inputs, initial_states=None, sequence_length=None, time_major=False, is_reverse=False, ...
  • 5.11 残差网络(ResNet)

    5.11 残差网络(ResNet) 5.11.2 残差块 5.11.2 ResNet模型 5.11.3 获取数据和训练模型 小结 参考文献 5.11 残差网络(ResNet) 让我们先思考一个问题:对神经网络模型添加新的层,充分训练后的模型是否只可能更有效地降低训练误差?理论上,原模型解的空间只是新模型解的空间的子空间。也就是说,如果我们能...
  • 机器翻译

    机器翻译 说明 背景介绍 效果展示 模型概览 GRU 双向循环神经网络 编码器-解码器框架 编码器 解码器 注意力机制 柱搜索算法 数据介绍 数据预处理 示例数据 模型配置说明 训练模型 定义数据生成器 构建训练程序 定义训练环境 训练主循环 应用模型 构建预测程序 定义预测环境 测试 总结 参考文献 ...