书栈网 · BookStack 本次搜索耗时 0.032 秒,为您找到 141449 个相关结果.
  • 6.2 循环神经网络

    6.2 循环神经网络 6.2.1 不含隐藏状态的神经网络 6.2.2 含隐藏状态的循环神经网络 6.2.3 应用:基于字符级循环神经网络的语言模型 小结 6.2 循环神经网络 上一节介绍的 元语法中,时间步 的词 基于前面所有词的条件概率只考虑了最近时间步的 个词。如果要考虑比 更早时间步的词对 的可能影响,我们需要增大 。但...
  • 神经网络

    神经网络 定义网络 损失函数 反向传播 更新权重 神经网络 译者:bat67 校验者:FontTian 可以使用torch.nn 包来构建神经网络. 我们已经介绍了autograd ,nn 包则依赖于autograd 包来定义模型并对它们求导。一个nn.Module 包含各个层和一个forward(input) 方法,该方法返...
  • 10.11. 注意力机制

    1891 2019-06-05 《动手学深度学习》
    10.11. 注意力机制 10.11.1. 计算背景变量 10.11.1.1. 矢量化计算 10.11.2. 更新隐藏状态 10.11.3. 发展 10.11.4. 小结 10.11.5. 练习 10.11.6. 参考文献 10.11. 注意力机制 在“编码器—解码器(seq2seq)” 一节里,解码器在各个时间步依赖相同的背景变量来获...
  • 1.2.4.pprof

    285 2021-06-26 《ebar-go v1.0 教程》
    说明 配置 说明 golang性能分析神器-pprof。 配置 http : pprof : on 开启后访问 {HOST}/debug/pprof 即可。
  • NLP From Scratch: 基于注意力机制的 seq2seq 神经网络翻译

    NLP From Scratch: 基于注意力机制的 seq2seq 神经网络翻译 加载数据文件 Seq2Seq模型 编码器 解码器 简单解码器 带有注意力机制的解码器 训练 准备训练数据 训练模型 绘制结果 评估 训练和评估 可视化注意力 练习题 NLP From Scratch: 基于注意力机制的 seq2seq 神经...
  • 3.1. 线性回归

    3505 2019-06-05 《动手学深度学习》
    3.1. 线性回归 3.1.1. 线性回归的基本要素 3.1.1.1. 模型 3.1.1.2. 模型训练 3.1.1.2.1. 训练数据 3.1.1.2.2. 损失函数 3.1.1.2.3. 优化算法 3.1.1.3. 模型预测 3.1.2. 线性回归的表示方法 3.1.2.1. 神经网络图 3.1.2.2. 矢量计算表达式 3.1.3....
  • 3.1 线性回归

    3.1 线性回归 3.1.1 线性回归的基本要素 3.1.1.1 模型定义 3.1.1.2 模型训练 (1) 训练数据 (2) 损失函数 (3) 优化算法 3.1.1.3 模型预测 3.1.2 线性回归的表示方法 3.1.2.1 神经网络图 3.1.2.2 矢量计算表达式 小结 3.1 线性回归 线性回归输出是一个连续值,因此适...
  • AopBuild

    AopBuild 一个神奇的功能 call 直接回调 AopBuild AopBuild::before()返回的是一个链式对象,after,around 方法 说明 methods 类中的匹配的方法 methodsStart 类中的开头匹配的方法 methodsEnd 类中的结尾匹配的方法 methodsExcept 类中的除了给定的的方法 ...
  • 优化器

    优化器 1.SGD/SGDOptimizer 2.Momentum/MomentumOptimizer 3. Adagrad/AdagradOptimizer 4.RMSPropOptimizer 5.Adam/AdamOptimizer 6.Adamax/AdamaxOptimizer 7.DecayedAdagrad/ DecayedAdag...
  • 9.1 个体与集成

    9.1 个体与集成 9.1 个体与集成 集成学习的基本结构为:先产生一组个体学习器,再使用某种策略将它们结合在一起。集成模型如下图所示: 在上图的集成模型中,若个体学习器都属于同一类别,例如都是决策树或都是神经网络,则称该集成为同质的(homogeneous);若个体学习器包含多种类型的学习算法,例如既有决策树又有神经网络,则称该集成为异质...