书栈网 · BookStack 本次搜索耗时 0.051 秒,为您找到 118108 个相关结果.
  • 6.4 循环神经网络的从零开始实现

    6.4 循环神经网络的从零开始实现 6.4.1 one-hot向量 6.4.2 初始化模型参数 6.4.3 定义模型 6.4.4 定义预测函数 6.4.5 裁剪梯度 6.4.6 困惑度 6.4.7 定义模型训练函数 6.4.8 训练模型并创作歌词 小结 6.4 循环神经网络的从零开始实现 在本节中,我们将从零开始实现一个基于字符级循...
  • 使用字符级别特征的 RNN 网络生成姓氏

    使用字符级别特征的RNN网络生成名字 准备数据 构造神经网络 训练 训练准备 训练神经网络 损失数据作图 网络采样 练习 使用字符级别特征的RNN网络生成名字 译者:hhxx2015 校对者:hijkzzz 作者 : Sean Robertson 在上一个 例子 中我们使用RNN网络对名字所属的语言进行分类。这一次...
  • 1、机器学习海啸

    1、机器学习海啸 2006年,Geoffrey Hinton等人发表了一篇论文,展示了如何训练能够识别具有最新精度(> 98%)的手写数字的深度神经网络。他们称这种技术为“Deep Learning”。当时,深度神经网络的训练被广泛认为是不可能的,并且大多数研究人员自 20 世纪 90 年代以来就放弃了这个想法。这篇论文重新激起了科学界的兴趣,不久之后,...
  • 七、dropout

    七、dropout 7.1 dropout 与 bagging 7.2 模型推断 7.3 示例 7.4 性质 7.5 dropout 与正则化 七、dropout dropout :在前向传播过程中,对网络中的每个隐层,每个隐单元都以一定的概率 被删除,最后得到一个规模更小的网络。在反向传播过程中,仅仅针对该小网络进行权重更新。 所...
  • 飞桨大规模分类库简介

    飞桨大规模分类库简介 简单易用,五行代码实现千万类别神经网络 安装飞桨 安装PLSC 准备模型训练配置代码,保存为train.py文件 启动训练任务 PLSC训练效果达到SOTA精度 LSC支持多机分布式训练和千万规模分类 PLSC提供从训练到部署的全流程解决方案 安装serving端和client端 通过下面的脚本部署serving端 通...
  • 术语中英对照表

    术语中英对照表 术语中英对照表 张量 Tensor 变量 Variable 操作 Operation 优化器 Optimizer 层 Layer 损失函数 Loss Function 评估指标 Metrics 多层感知机 Multilayer Perceptron, MLP 卷积神经网络 Convolutional ...
  • TensorFlow 模型建立与训练

    TensorFlow 模型建立与训练 TensorFlow 模型建立与训练 本章介绍如何使用 TensorFlow 快速搭建动态模型。 模型的构建: tf.keras.Model 和 tf.keras.layers 模型的损失函数: tf.keras.losses 模型的优化器: tf.keras.optimizer 模型的评...
  • CNN 架构

    CNN 架构 ​典型的 CNN 体系结构有一些卷积层(每一个通常跟着一个 ReLU 层),然后是一个池化层,然后是另外几个卷积层(+ ReLU),然后是另一个池化层,等等。 随着网络的进展,图像变得越来越小,但是由于卷积层的缘故,图像通常也会越来越深(即更多的特征映射)(见图 13-9)。 在堆栈的顶部,添加由几个全连接层(+ ReLU)组成的常规前馈神...
  • 第三章 改进神经网络的学习方法(下)

    第三章 改进神经网络的学习方法(下) 权重初始化 练习 问题 再看手写识别问题:代码 问题 如何选择神经网络的超参数 问题 练习 练习 其他技术 随机梯度下降的变种 练习 问题 人工神经元的其他模型 练习 有关神经网络的故事 第三章 改进神经网络的学习方法(下) 权重初始化 创建了神经网络后,我们需要进行权重和偏...
  • 反向传播算法

    反向传播算法 练习 反向传播算法 反向传播等式为我们提供了一个计算代价函数梯度的方法。下面让我们明确地写出该算法: 输入 x: 计算输入层相应的激活函数值a^1。 正向传播: 对每个l=2,3,\ldots,L,计算z^l=w^la^{l-1}+b^l和a^l=\sigma(z^l)。 输出误差 \delta^L: 计算向量\delta^L=\...