书栈网 · BookStack 本次搜索耗时 0.045 秒,为您找到 1161 个相关结果.
  • 语义角色标注

    语义角色标注 说明 背景介绍 模型概览 栈式循环神经网络(Stacked Recurrent Neural Network) 双向循环神经网络(Bidirectional Recurrent Neural Network) 条件随机场 (Conditional Random Field) 深度双向LSTM(DB-LSTM)SRL模型 数据介绍 ...
  • 语义角色标注

    语义角色标注 背景介绍 模型概览 栈式循环神经网络(Stacked Recurrent Neural Network) 双向循环神经网络(Bidirectional Recurrent Neural Network) 条件随机场 (Conditional Random Field) 深度双向LSTM(DB-LSTM)SRL模型 数据介绍 模型配...
  • 语义角色标注

    语义角色标注 背景介绍 模型概览 栈式循环神经网络(Stacked Recurrent Neural Network) 双向循环神经网络(Bidirectional Recurrent Neural Network) 条件随机场 (Conditional Random Field) 深度双向LSTM(DB-LSTM)SRL模型 数据介绍 模型配...
  • WeightNormParamAttr

    WeightNormParamAttr WeightNormParamAttr class paddle.static.WeightNormParamAttr ( dim\=None, name\=None, initializer\=None, learning_rate\=1.0, regularizer\=None, trainable\=T...
  • 学习率调度器

    学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
  • 学习率调度器

    学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
  • Building a Modern CNN: ResNet

    665 2021-03-31 《The fastai book》
    Building a Modern CNN: ResNet Skip Connections A State-of-the-Art ResNet Bottleneck Layers Building a Modern CNN: ResNet We now have all the pieces we need to build the mode...
  • 数字识别

    数字识别 说明: 背景介绍 模型概览 Softmax回归(Softmax Regression) 多层感知机(Multilayer Perceptron, MLP) 卷积神经网络(Convolutional Neural Network, CNN) 卷积层 池化层 常见激活函数介绍 数据介绍 Fluid API 概述 配置说明 Pro...
  • 数字识别

    数字识别 背景介绍 模型概览 Softmax回归(Softmax Regression) 多层感知机(Multilayer Perceptron, MLP) 卷积神经网络(Convolutional Neural Network, CNN) 卷积层 池化层 常见激活函数介绍 数据介绍 Fluid API 概述 配置说明 Program F...
  • lstm_unit

    lstm_unit 参数 返回 返回类型 抛出异常 代码示例 lstm_unit 查看属性与别名 API属性:声明式编程(静态图)专用API paddle.fluid.layers.lstm_unit ( x_t, hidden_t_prev, cell_t_prev, forget_bias=0.0, param_attr=None...