书栈网 · BookStack 本次搜索耗时 0.038 秒,为您找到 141447 个相关结果.
  • 反向传播背后的四个基本等式

    反向传播背后的四个基本等式 问题 反向传播背后的四个基本等式 反向传播(backpropagation)能够帮助解释网络的权重和偏置的改变是如何改变代价函数的。归根结底,它的意思是指计算偏导数\partial C / \partial w^l<em>{jk}和。但是为了计算这些偏导数,我们首先介绍一个中间量,,我们管它叫做层的神经元的错误量(err...
  • 使用PyTorch进行神经网络传递

    使用PyTorch进行神经网络传递 简介 基本原理 导入软件包并选择设备 加载图像 损失函数 内容损失 风格损失 导入模型 梯度下降 使用PyTorch进行神经网络传递 作者 :Alexis Jacq 编辑 :Winston Herring 译者:片刻 校验:片刻 简介 本教程介绍了如何实现 由Leon A...
  • 5.5 深度学习

    5.5 深度学习 5.5 深度学习 理论上,参数越多,模型复杂度就越高,容量(capability)就越大,从而能完成更复杂的学习任务。深度学习(deep learning)正是一种极其复杂而强大的模型。 怎么增大模型复杂度呢?两个办法,一是增加隐层的数目,二是增加隐层神经元的数目。前者更有效一些,因为它不仅增加了功能神经元的数量,还增加了激活...
  • 感知机

    感知机 感知机 什么是神经网络?在回答这个问题之前,我会先解释一种叫做感知机(perceptron)的人工神经元。感知机由科学家Frank Rosenblatt 发明于1950至1960年代,他受到了来自Warren McCulloch 和Walter Pitts 的更早工作 的启发。现如今,我们通常使用其它种类的人工神经元模型——在这本书里,以及...
  • torch.nn.init

    torch.nn.init 译者署名 torch.nn.init torch . nn . init . calculate_gain ( nonlinearity , param = None ) 返回给定非线性函数的推荐增益值。值如下: 非线性 获得 linear 1 conv{1,2,3}d 1 s...
  • 反向传播

    反向传播 反向传播 神经网络对模型的表达能力依赖于优化算法,优化是一个不断计算梯度并调整可学习参数的过程,Fluid中的优化算法可参考 优化器 。 在网络的训练过程中,梯度计算分为两个步骤:前向计算与 反向传播 。 前向计算会根据您搭建的网络结构,将输入单元的状态传递到输出单元。 反向传播借助 链式法则 ,计算两个或两个以上复合函数的导...
  • 一、基础

    一、基础 1.1 基本概念 1.2 特征学习 1.3 训练 1.4 示例 一、基础 1.1 基本概念 深度前馈网络的目标是近似某个函数 。 分类器 将输入 映射到它的真实类别 ,其中 是真实的映射函数。 深度前馈网络定义另一个映射 ,并且学习参数 从而使得 是 的最佳近似。 深度前馈网络之所以称作前馈的(feed...
  • Introduction

    scikit-learn (sklearn) 官方文档中文版 维护地址 目录 贡献指南 项目负责人 项目协议 建议反馈 赞助我们 scikit-learn (sklearn) 官方文档中文版 scikit-learn 是基于 Python 语言的机器学习工具 简单高效的数据挖掘和数据分析工具 可供大家在各种环境中重复使用 建立在 N...
  • 更快的优化器

    更快的优化器 训练一个非常大的深度神经网络可能会非常缓慢。 到目前为止,我们已经看到了四种加速训练的方法(并且达到更好的解决方案):对连接权重应用良好的初始化策略,使用良好的激活函数,使用批量规范化以及重用预训练网络的部分。 另一个巨大的速度提升来自使用比普通渐变下降优化器更快的优化器。 在本节中,我们将介绍最流行的:动量优化,Nesterov 加速梯度...
  • 5. 卷积神经网络

    2541 2019-06-05 《动手学深度学习》
    5. 卷积神经网络 5. 卷积神经网络 本章将介绍卷积神经网络。它是近年来深度学习能在计算机视觉领域取得突破性成果的基石。它也逐渐在被其他诸如自然语言处理、推荐系统和语音识别等领域广泛使用。我们将先描述卷积神经网络中卷积层和池化层的工作原理,并解释填充、步幅、输入通道和输出通道的含义。在掌握了这些基础知识以后,我们将探究数个具有代表性的深度卷积神经网...