书栈网 · BookStack 本次搜索耗时 0.046 秒,为您找到 141447 个相关结果.
  • Conv2D

    Conv2D 属性 Conv2D class paddle.fluid.dygraph. Conv2D (name_scope, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, param_attr=None, bias_attr=None, use_...
  • 第 0005 荐:VuePress,静态网站生成神兽,嗷呜~~

    1912 2021-04-14 《刻舟求荐》
    她,身世显赫,外表清丽出众,文能让你帮忙拧瓶盖,武能拧下你的脑袋,她就是你心目中的小神兽——VuePress 介绍 VuePress ,一个基于 Vue 的轻量级静态网站生成神器。 她遵循大道至简的原则,以 Markdown 为中心的项目结构,以最少的配置让你更专注于创作。 她由Vue 驱动,享有 Vue + webpack 的开发体验,让你可以...
  • 改进神经网络的学习方法

    改进神经网络的学习方式 改进神经网络的学习方式 当高尔夫运动员刚开始接触高尔夫时,他们通常会花费大量的时间来练习基本的挥杆。只有不断矫正自己的挥杆方式,才能学好其它的技能:切球,打左曲球,右曲球。同理,到目前为止我们把精力都放在了理解反向传播算法(backpropagation algorithm)上。这是我们的最基本的“挥杆方式”,它是大多数神经网...
  • RePlugin原理剖析(推荐)

    视频和演讲 经典原理剖析 看似用法简单、易于理解的RePlugin的背后,却有着复杂的技术积累,经历了多年的严酷考验。 以下将具体列出一些涉及到“原理分析”的文章。这些文档有的来自官方,有的来自民间分析团体。在此像民间大神们表示感谢! 如果您能够分析RePlugin的核心原理,并整理成文,则欢迎与我联系。针对“高质量”文章,我们会放到WiKi上,永...
  • 多元自适应回归(MARS)

    Deeplearning Algorithms tutorial 多元自适应回归样条 Deeplearning Algorithms tutorial 谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业已开始全面拥抱机器学习,新...
  • 自然语言处理介绍

    自然语言处理介绍 NLP相关的技术 场景案例 案例1(解决交叉歧义) 案例2(从粒度整合未登录体词) 案例3(结构歧义问题) 案例4(词汇语言相似度) 案例5(文本语义相似度) 自然语言处理介绍 语言是知识和思维的载体 自然语言处理 (Natural Language Processing, NLP) 是计算机科学,人工智能,语言学关...
  • 卷积神经网络

    卷积神经网络 卷积(Convolution) 卷积计算 填充(padding) 步幅(stride) 感受野(Receptive Field) 多输入通道、多输出通道和批量操作 飞桨卷积API介绍 卷积算子应用举例 池化(Pooling) ReLU激活函数 批归一化(Batch Normalization) 丢弃法(Dropout) ...
  • Keras Pipeline *

    Keras Pipeline * Keras Sequential/Functional API 模式建立模型 使用 Keras Model 的 compile 、 fit 和 evaluate 方法训练和评估模型 Keras Pipeline * 以上示例均使用了 Keras 的 Subclassing API 建立模型,即对 tf.keras...
  • Conv2D

    Conv2D 参数 返回 抛出异常 代码示例 属性 weight bias Conv2D class paddle.fluid.dygraph.Conv2D (num_channels, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, par...
  • 反向传播背后的四个基本等式

    反向传播背后的四个基本等式 问题 反向传播背后的四个基本等式 反向传播(backpropagation)能够帮助解释网络的权重和偏置的改变是如何改变代价函数的。归根结底,它的意思是指计算偏导数\partial C / \partial w^l<em>{jk}和。但是为了计算这些偏导数,我们首先介绍一个中间量,,我们管它叫做层的神经元的错误量(err...