书栈网 · BookStack 本次搜索耗时 0.024 秒,为您找到 77706 个相关结果.
  • 情感分析

    情感分析 背景介绍 说明: 模型概览 文本卷积神经网络简介(CNN) 循环神经网络(RNN) 长短期记忆网络(LSTM) 栈式双向LSTM(Stacked Bidirectional LSTM) 数据集介绍 配置模型 文本卷积神经网络 栈式双向LSTM 训练模型 定义训练环境 定义数据提供器 构造训练器 提供数据并构建主训练循环 ...
  • 情感分析

    情感分析 背景介绍 说明: 模型概览 文本卷积神经网络简介(CNN) 循环神经网络(RNN) 长短期记忆网络(LSTM) 栈式双向LSTM(Stacked Bidirectional LSTM) 数据集介绍 配置模型 文本卷积神经网络 栈式双向LSTM 训练模型 定义训练环境 定义数据提供器 构造训练器 提供数据并构建主训练循环 ...
  • 非饱和激活函数

    非饱和激活函数 Glorot 和 Bengio 在 2010 年的论文中的一个见解是,消失/爆炸的梯度问题部分是由于激活函数的选择不好造成的。 在那之前,大多数人都认为,如果大自然选择在生物神经元中使用 sigmoid 激活函数,它们必定是一个很好的选择。 但事实证明,其他激活函数在深度神经网络中表现得更好,特别是 ReLU 激活函数,主要是因为它对正值...
  • 练习

    练习 使用原始的人工神经元(如图 10-3 中的一个)来计算神经网络,计算A ⊕ B (⊕ 表示 XOR 运算)。提示:A ⊕ B = (A ∧ ¬ B) ∨ (¬ A ∧ B) 。 为什么通常使用逻辑斯蒂回归分类器而不是经典感知器(即使用感知器训练算法训练单层的线性阈值单元)?你如何调整感知器使之等同于逻辑回归分类器? 为什么激活函数是训练第...
  • Transformer

    Transformer Transformer class paddle.nn.Transformer ( d_model=512, nhead=8, num_encoder_layers=6, num_decoder_layers=6, dim_feedforward=2048, dropout=0.1, activation=’relu’, a...
  • 隐藏层数量

    隐藏层数量 对于许多问题,您只需从单个隐藏层开始,您将获得合理的结果。 实际上已经表明,只有一个隐藏层的 MLP 可以建模甚至最复杂的功能,只要它具有足够的神经元。 长期以来,这些事实说服了研究人员,没有必要调查任何更深层次的神经网络。 但是他们忽略了这样一个事实:深层网络具有比浅层网络更高的参数效率:他们可以使用比浅网格更少的神经元来建模复杂的函数,使...
  • 深度 RNN

    深度 RNN 一个朴素的想法就是把一层层神经元堆叠起来,正如图 14-12 所示的那样,它呈现了一种深度 RNN。 为了用 TensorFlow 实现深度 RNN,可先创建一些神经单元,然后堆叠进MultiRNNCell 。 以下代码中创建了 3 个相同的神经单元(当然也可以用不同类别的、包含不同不同数量神经元的单元) n_neurons =...
  • 处理偏差和方差

    处理偏差和方差 处理偏差和方差 下面是处理偏差和方差问题最简单的形式: 如果具有较高的可避免偏差,那么加大模型的规模(例如通过添加层/神经元数量来增加神经网络的大小)。 如果具有较高的方差,那么增加训练集的数据量。 如果你可以加大神经网络的规模且无限制地增加训练集数据,那么许多机器学习问题都可以取得很好的效果。 实际上,不断加大网络的规模使你...
  • 3. 女神

    女神 女神 前面说过,小法师再也不准备看魔法了 朱熹说:“适可而止,无贪心也。”小法师心理打算的是好的,打不起躲得嘛 生活往往就是那么有趣或者说残忍道德经有云:“天之道,损有余而补不足,人之道则不然,损不足而奉有余”俗话说“趁你病,要你命” 继被魔法羞辱之后,墨菲法则开始显现它的威力——小法师的女神也不理他了 事情是这样的: 前...