书栈网 · BookStack 本次搜索耗时 0.033 秒,为您找到 118101 个相关结果.
  • fluid.backward

    fluid.backward append_backward fluid.backward Source English append_backward Source English paddle.fluid.backward. appendbackward (_loss, parameter_list=None, no_grad_s...
  • 十、xDeepFM

    十、xDeepFM 10.1 模型 10.1.1 CIN 10.1.2 xDeepFM 10.2 实验 10.2.1 CIN 网络 10.2.2 xDeepFM 10.2.3 超参数探索 十、xDeepFM 在 CTR 预估任务中,常用的人工特征工程、FM 模型、DNN 模型都存在不足。 人工特征工程缺点: 高质量的交叉...
  • 快速入门 - 实现一个图片分类应用

    实现一个图片分类应用 概述 准备环节 下载数据集 导入Python库&模块 配置运行信息 数据处理 定义数据集及数据操作 定义网络 定义损失函数及优化器 基本概念 定义损失函数 定义优化器 训练网络 配置模型保存 配置训练网络 运行并查看结果 验证模型 实现一个图片分类应用 概述 下面我们通过一个实际样例,带领大...
  • 四、噪声鲁棒性

    四、噪声鲁棒性 4.1 输入噪声注入 4.2 权重噪声注入 4.3 输出噪声注入 四、噪声鲁棒性 有三种添加噪声的策略:输入噪声注入、权重噪声注入、输出噪声注入。 4.1 输入噪声注入 输入噪声注入:将噪声作用于输入的数据集,这也是前文介绍的一种数据集增强方法。 对于某些模型,在输入上注入方差极小的噪音等价于对权重施加参数范数正则...
  • 5.7 使用重复元素的网络(VGG)

    5.7 使用重复元素的网络(VGG) 5.7.1 VGG块 5.7.2 VGG网络 5.7.3 获取数据和训练模型 小结 参考文献 5.7 使用重复元素的网络(VGG) AlexNet在LeNet的基础上增加了3个卷积层。但AlexNet作者对它们的卷积窗口、输出通道数和构造顺序均做了大量的调整。虽然AlexNet指明了深度卷积神经网络可以...
  • Baby RNN

    基于故事和问题训练两个循环神经网络。 注意 基于故事和问题训练两个循环神经网络。 两者的合并向量将用于回答一系列 bAbI 任务。 这些结果与 Weston 等人提供的 LSTM 模型的结果相当:Towards AI-Complete Question Answering: A Set of Prerequisite Toy Tasks 。 T...
  • 有效的数据表示

    有效的数据表示 您发现以下哪一个数字序列最容易记忆? 40, 27, 25, 36, 81, 57, 10, 73, 19, 68 50, 25, 76, 38, 19, 58, 29, 88, 44, 22, 11, 34, 17, 52, 26, 13, 40, 20 乍一看,第一个序列似乎应该更容易,因为它要短得多。 但是,如果仔细观察第...
  • Model Zoos

    Model Zoos 你在哪里可以找到一个类似于你想要解决的任务训练的神经网络? 首先看看显然是在你自己的模型目录。 这是保存所有模型并组织它们的一个很好的理由,以便您以后可以轻松地检索它们。 另一个选择是在模型动物园中搜索。 许多人为了各种不同的任务而训练机器学习模型,并且善意地向公众发布预训练模型。 TensorFlow 在 https://git...
  • fluid.backward

    fluid.backward append_backward fluid.backward Source English append_backward Source English paddle.fluid.backward. appendbackward (_loss, parameter_list=None, no_grad_s...
  • Flatten

    Flatten 使用本API的教程文档 Flatten paddle.nn. Flatten ( start_axis=1, stop_axis=- 1 ) [源代码] 该接口用于构造一个 Flatten 类的可调用对象。更多信息请参见代码示例。它实现将一个连续维度的Tensor展平成一维Tensor。 参数: start_axis (...