书栈网 · BookStack 本次搜索耗时 0.031 秒,为您找到 141449 个相关结果.
  • Model Zoos

    Model Zoos 你在哪里可以找到一个类似于你想要解决的任务训练的神经网络? 首先看看显然是在你自己的模型目录。 这是保存所有模型并组织它们的一个很好的理由,以便您以后可以轻松地检索它们。 另一个选择是在模型动物园中搜索。 许多人为了各种不同的任务而训练机器学习模型,并且善意地向公众发布预训练模型。 TensorFlow 在 https://git...
  • Evernote

    1397 2018-04-22 《Sublime Text Guide》
    Evernote 安装Evernote插件 使用 快捷键设置 其他设置: Evernote 已经习惯了用markdown格式来记录笔记,Evernote无法实现markdown一直是个缺陷。 马克飞象已经解决了这一难题,但马克飞象 是收费的服务。本着节省(抠门)原则,我只好另辟蹊径,然后我发现了她—-Sublime的Evernote插件 ...
  • Conv2DTranspose

    Conv2DTranspose 属性 Conv2DTranspose class paddle.fluid.dygraph. Conv2DTranspose (num_channels, num_filters, filter_size, output_size=None, padding=0, stride=1, dilation=1, gro...
  • 空间转换网络 (Spatial Transformer Networks) 教程

    空间转换网络 (Spatial Transformer Networks) 教程 读数据 描述空间转换网络 (spatial transformer networks) 训练模型 可视化空间转换网络 (STN) 的结果 空间转换网络 (Spatial Transformer Networks) 教程 译者:@Twinkle 原作者 ...
  • 隐藏层数量

    隐藏层数量 对于许多问题,您只需从单个隐藏层开始,您将获得合理的结果。 实际上已经表明,只有一个隐藏层的 MLP 可以建模甚至最复杂的功能,只要它具有足够的神经元。 长期以来,这些事实说服了研究人员,没有必要调查任何更深层次的神经网络。 但是他们忽略了这样一个事实:深层网络具有比浅层网络更高的参数效率:他们可以使用比浅网格更少的神经元来建模复杂的函数,使...
  • 迈向深度学习

    迈向深度学习 迈向深度学习 虽然我们的神经网络给出了令人印象深刻的表现,但是这个过程有一些神秘。网络中的权重和偏置是自动被发现的。这意味着我们不能对神经网络的运作过程有一个直观的解释。我们可以找到什么方法来理解我们的网络分类手写数字的原则吗?并且,在知道了这些原则后,我们能够帮助神经网络做得更好么? 为了更加清晰地解释这个问题,我们假设数十年后神经...
  • 前言

    推荐 hyy1115/ES6-learning 实际应用请看前端大神对该书的读后感 知识重新整理,补充细节整理中 图片来自日本像素画家 强烈推荐此书《深入理解ES6》 红宝书大神【美】Nicholas C. Zakas(尼古拉斯·泽卡斯)最新力作 推荐hyy1115/ES6-learning 实际应用请看前端大神对该书...
  • 3.8 多层感知机

    3.8 多层感知机 3.8.1 隐藏层 3.8.2 激活函数 3.8.2.1 ReLU函数 3.8.2.2 sigmoid函数 3.8.2.3 tanh函数 3.8.3 多层感知机 小结 3.8 多层感知机 我们已经介绍了包括线性回归和softmax回归在内的单层神经网络。然而深度学习主要关注多层模型。在本节中,我们将以多层感知机(mu...
  • 3.8. 多层感知机

    1418 2019-06-05 《动手学深度学习》
    3.8.3. 多层感知机 3.8.1. 隐藏层 3.8.2. 激活函数 3.8.2.1. ReLU函数 3.8.2.2. sigmoid函数 3.8.2.3. tanh函数 3.8.3. 多层感知机 3.8.4. 小结 3.8.5. 练习 3.8.3. 多层感知机 我们已经介绍了包括线性回归和softmax回归在内的单层神经网络。然而...