书栈网 · BookStack 本次搜索耗时 0.024 秒,为您找到 141663 个相关结果.
  • Keras Pipeline *

    Keras Pipeline * Keras Sequential/Functional API 模式建立模型 使用 Keras Model 的 compile 、 fit 和 evaluate 方法训练和评估模型 Keras Pipeline * 以上示例均使用了 Keras 的 Subclassing API 建立模型,即对 tf.keras...
  • 改进神经网络的学习方法

    改进神经网络的学习方式 改进神经网络的学习方式 当高尔夫运动员刚开始接触高尔夫时,他们通常会花费大量的时间来练习基本的挥杆。只有不断矫正自己的挥杆方式,才能学好其它的技能:切球,打左曲球,右曲球。同理,到目前为止我们把精力都放在了理解反向传播算法(backpropagation algorithm)上。这是我们的最基本的“挥杆方式”,它是大多数神经网...
  • Conv2D

    Conv2D 参数 返回 抛出异常 代码示例 属性 weight bias Conv2D class paddle.fluid.dygraph.Conv2D (num_channels, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, par...
  • 项目介绍

    项目介绍 项目目录 深度博客收录 学习交流 项目介绍 个人博客:https://qcrao.com 电子书地址:https://qcrao91.gitbook.io/go 本项目地址:https://github.com/qcrao/Go-Questions Go 语言 学习入门和进阶知识。以 Go 语言 为突破口,从问题...
  • 使用PyTorch进行神经网络传递

    使用PyTorch进行神经网络传递 简介 基本原理 导入软件包并选择设备 加载图像 损失函数 内容损失 风格损失 导入模型 梯度下降 使用PyTorch进行神经网络传递 作者 :Alexis Jacq 编辑 :Winston Herring 译者:片刻 校验:片刻 简介 本教程介绍了如何实现 由Leon A...
  • 感知机

    感知机 感知机 什么是神经网络?在回答这个问题之前,我会先解释一种叫做感知机(perceptron)的人工神经元。感知机由科学家Frank Rosenblatt 发明于1950至1960年代,他受到了来自Warren McCulloch 和Walter Pitts 的更早工作 的启发。现如今,我们通常使用其它种类的人工神经元模型——在这本书里,以及...
  • 反向传播背后的四个基本等式

    反向传播背后的四个基本等式 问题 反向传播背后的四个基本等式 反向传播(backpropagation)能够帮助解释网络的权重和偏置的改变是如何改变代价函数的。归根结底,它的意思是指计算偏导数\partial C / \partial w^l<em>{jk}和。但是为了计算这些偏导数,我们首先介绍一个中间量,,我们管它叫做层的神经元的错误量(err...
  • torch.nn.init

    torch.nn.init 译者署名 torch.nn.init torch . nn . init . calculate_gain ( nonlinearity , param = None ) 返回给定非线性函数的推荐增益值。值如下: 非线性 获得 linear 1 conv{1,2,3}d 1 s...
  • 多元自适应回归样条(MARS)

    Deeplearning Algorithms tutorial 多元自适应回归样条(MARS) Deeplearning Algorithms tutorial 谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业已开始全面拥抱...
  • 反向传播算法是如何工作的

    反向传播算法是如何工作的 反向传播算法是如何工作的 在上一章中我们学习了神经网络是如何利用梯度下降算法来学习权重(weights)和偏置(biases)的。然而,在我们的解释中跳过了一个细节:我们没有讨论如何计算代价函数的梯度。这真是一个巨大的跳跃!在本章中我会介绍一个快速计算梯度的算法,就是广为人知的反向传播算法(backpropagation)。...