书栈网 · BookStack 本次搜索耗时 0.050 秒,为您找到 118106 个相关结果.
  • 学生和研究者:模型的建立与训练

    学生和研究者:模型的建立与训练 学生和研究者:模型的建立与训练 如果你是一个初学机器学习/深度学习的学生,你可能已经啃完了Andrew Ng的机器学习公开课或者斯坦福的 UFIDL Tutorial ,亦或是正在上学校里的深度学习课程。你可能也已经了解了链式求导法则和梯度下降法,知道了若干种损失函数,并且对卷积神经网络(CNN)、循环神经网络(RN...
  • 使用 PyTorch 进行深度学习

    使用PyTorch进行深度学习 深度学习构建模块:仿射变换, 非线性函数以及目标函数 仿射变换 非线性函数 Softmax和概率 目标函数 优化和训练 使用PyTorch创建网络组件 示例: 基于逻辑回归与词袋模式的文本分类器 使用PyTorch进行深度学习 译者:bdqfork 校对者:FontTian 作者 : Ro...
  • Keras Pipeline *

    Keras Pipeline * Keras Sequential/Functional API 模式建立模型 使用 Keras Model 的 compile 、 fit 和 evaluate 方法训练和评估模型 Keras Pipeline * 以上示例均使用了 Keras 的 Subclassing API 建立模型,即对 tf.keras...
  • 多元自适应回归样条(MARS)

    Deeplearning Algorithms tutorial 多元自适应回归样条(MARS) Deeplearning Algorithms tutorial 谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业已开始全面拥抱...
  • 自然语言处理的发展历程

    自然语言处理的发展历程 兴起时期 符号主义时期 连接主义时期 深度学习时期 自然语言处理的发展历程 自然语言处理有着悠久的发展史,可粗略地分为兴起、符号主义、连接主义和深度学习四个阶段,如 图4 所示: 图4:自然语言处理的发展历程 兴起时期 大多数人认为,自然语言处理的研究兴起于1950年前后。在二战中,破解纳粹德国的...
  • 小结

    小结 小结 学习完这些概念,您就具备了搭建卷积神经网络的基础。下一节,我们将应用这些基础模块,一起完成图像分类中的典型应用 — 医疗图像中的眼疾筛查任务的模型搭建。
  • 深度自动编码器(Deep Autoencoder Networks)

    Deeplearning Algorithms tutorial 深度自动编码器(Deep Autoencoder Networks) Deeplearning Algorithms tutorial 谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图...
  • 基础专题

    数据输入 搭建神经网络 优化算法及超参配置 获取作业函数的结果 模型的加载与保存 分布式训练 OneFlow 概念清单 OneFlow 系统设计
  • 5.11. 残差网络(ResNet)

    2470 2019-06-05 《动手学深度学习》
    5.11. 残差网络(ResNet) 5.11.1. 残差块 5.11.2. ResNet模型 5.11.3. 获取数据和训练模型 5.11.4. 小结 5.11.5. 练习 5.11.6. 参考文献 5.11. 残差网络(ResNet) 让我们先思考一个问题:对神经网络模型添加新的层,充分训练后的模型是否只可能更有效地降低训练误差?理论...
  • 反向传播

    反向传播 反向传播 神经网络对模型的表达能力依赖于优化算法,优化是一个不断计算梯度并调整可学习参数的过程,Fluid中的优化算法可参考 优化器 。 在网络的训练过程中,梯度计算分为两个步骤:前向计算与 反向传播 。 前向计算会根据您搭建的网络结构,将输入单元的状态传递到输出单元。 反向传播借助 链式法则 ,计算两个或两个以上复合函数的导...