书栈网 · BookStack 本次搜索耗时 0.030 秒,为您找到 76649 个相关结果.
  • 语义角色标注

    语义角色标注 背景介绍 模型概览 栈式循环神经网络(Stacked Recurrent Neural Network) 双向循环神经网络(Bidirectional Recurrent Neural Network) 条件随机场 (Conditional Random Field) 深度双向LSTM(DB-LSTM)SRL模型 数据介绍 模型配...
  • 语义角色标注

    语义角色标注 背景介绍 模型概览 栈式循环神经网络(Stacked Recurrent Neural Network) 双向循环神经网络(Bidirectional Recurrent Neural Network) 条件随机场 (Conditional Random Field) 深度双向LSTM(DB-LSTM)SRL模型 数据介绍 模型配...
  • Dropout

    Dropout 参数 形状 代码示例 使用本API的教程文档 Dropout paddle.nn. Dropout ( p=0.5, axis=None, mode=”upscale_in_train”, name=None ) [源代码] Dropout是一种正则化手段,该算子根据给定的丢弃概率 p ,在训练过程中随机将一些神经元输出设...
  • LayerNorm

    LayerNorm LayerNorm class paddle.fluid.dygraph. LayerNorm (name_scope, scale=True, shift=True, begin_norm_axis=1, epsilon=1e-05, param_attr=None, bias_attr=None, act=None)[源代码...
  • 十五、自编码器

    十五、自编码器 十五、自编码器 自编码器是能够在无监督的情况下学习输入数据的有效表示(叫做编码)的人工神经网络(即,训练集是未标记)。这些编码通常具有比输入数据低得多的维度,使得自编码器对降维有用(参见第 8 章)。更重要的是,自编码器可以作为强大的特征检测器,它们可以用于无监督的深度神经网络预训练(正如我们在第 11 章中讨论过的)。最后,他们能够...
  • dropout

    dropout dropout paddle.fluid.layers. dropout (x, dropout_prob, is_test=False, seed=None, name=None, dropout_implementation='downgrade_in_infer')[源代码] dropout操作 丢弃或者保持x的每个...
  • 文本

    NLP From Scratch: 使用char-RNN对姓氏进行分类 NLP From Scratch: 生成名称与字符级RNN NLP From Scratch: 基于注意力机制的 seq2seq 神经网络翻译 文本分类与TorchText 语言翻译与TorchText
  • 二、GCN

    二、GCN 2.1 空域构建 2.2 图卷积 2.2.1 拉普拉斯算子 2.2.2 卷积 2.3 频域构建 2.4 实验 2.4.1 降采样 MNIST 2.4.2 球面 MNIST 二、GCN 卷积神经网络 CNN 要求输入数据为网格结构,并且要求数据在网格中具有平移不变性,如一维语音、二维图像、三维视频都是这类数据的典型代表。...