书栈网 · BookStack 本次搜索耗时 0.024 秒,为您找到 1161 个相关结果.
  • Recurrent Layers

    RNN SimpleRNN GRU LSTM ConvLSTM2D ConvLSTM2DCell SimpleRNNCell GRUCell LSTMCell CuDNNGRU CuDNNLSTM [source] RNN keras . engine . base_layer . wrapped_fn () Bas...
  • 激活函数 Activations

    激活函数的用法 预定义激活函数 softmax elu selu softplus softsign relu tanh sigmoid hard_sigmoid exponential linear 高级激活函数 激活函数的用法 激活函数可以通过设置单独的激活层实现,也可以在构造层对象时通过传递 activation 参...
  • Caffe2 Model Zoo

    Caffe2 Model Zoo Model Zoo Overview Compatibility Converting Models from Caffe to Caffe2 Submitting Your Model to Caffe2’s Model Zoo Downloading and Importing Caffe2 Models Mod...
  • 模型导出ONNX协议

    模型导出ONNX协议 一、简介 二、模型导出为ONNX协议 2.1 动态图导出ONNX协议 2.2 静态图导出ONNX协议 三、ONNX模型的验证 四、ONNXRuntime推理 五、相关链接 模型导出ONNX协议 一、简介 ONNX (Open Neural Network Exchange) 是针对机器学习所设计的开源文件格式,...
  • 迈向深度学习

    迈向深度学习 迈向深度学习 虽然我们的神经网络给出了令人印象深刻的表现,但是这个过程有一些神秘。网络中的权重和偏置是自动被发现的。这意味着我们不能对神经网络的运作过程有一个直观的解释。我们可以找到什么方法来理解我们的网络分类手写数字的原则吗?并且,在知道了这些原则后,我们能够帮助神经网络做得更好么? 为了更加清晰地解释这个问题,我们假设数十年后神经...
  • 10 NLP Deep Dive: RNNs

    738 2021-03-31 《The fastai book》
    NLP Deep Dive: RNNs In [ ]: #hide ! pip install - Uqq fastbook import fastbook fastbook . setup_book () In [ ]: #hide from fastbook import * from IPython ...
  • gru_unit

    gru_unit gru_unit paddle.fluid.layers. gru_unit ( input, hidden, size, param_attr=None, bias_attr=None, activation=’tanh’, gate_activation=’sigmoid’, origin_mode=False ) [源代码] ...
  • 高级激活层 Advanced Activations

    LeakyReLU PReLU ELU ThresholdedReLU Softmax ReLU [source] LeakyReLU keras . layers . LeakyReLU ( alpha = 0.3 ) 带泄漏的 ReLU。 当神经元未激活时,它仍允许赋予一个很小的梯度:f(x) = alpha * x f...
  • Convolution arithmetic tutorial

    562 2020-04-11 《Theano 1.0 Document》
    Convolution arithmetic tutorial About this tutorial Refresher: discrete convolutions Theano terminology Convolution arithmetic No zero padding, unit strides Zero padding, unit ...