书栈网 · BookStack 本次搜索耗时 0.047 秒,为您找到 116316 个相关结果.
  • 减少方差的技术

    减少方差的技术 减少方差的技术 如果你的学习算法存在着高方差问题,可以考虑尝试下面的技术: 添加更多的训练数据 :这是最简单最可靠的一种处理方差的策略,只要你有大量的数据和对应的计算能力来处理他们。 加入正则化 (L2 正则化,L1 正则化,dropout):这项技术可以降低方差,但却增大了偏差。 加入提前终止 (例如根据开发集误差提前终止梯度下...
  • 新建项目

    创建项目 运行项目 创建项目 beego 的项目基本都是通过 bee 命令来创建的,所以在创建项目之前确保你已经安装了 bee 工具和 beego。如果你还没有安装,那么请查阅 beego 的安装 和 bee 工具的安装 。 现在一切就绪我们就可以开始创建项目了,打开终端,进入 $GOPATH/src 所在的目录: ➜ src be...
  • 新建项目

    创建项目 运行项目 创建项目 beego 的项目基本都是通过 bee 命令来创建的,所以在创建项目之前确保你已经安装了 bee 工具和 beego。如果你还没有安装,那么请查阅 beego 的安装 和 bee 工具的安装 。 现在一切就绪我们就可以开始创建项目了,打开终端,进入 $GOPATH/src 所在的目录: ➜ src be...
  • 5.8. 网络中的网络(NiN)

    1298 2019-06-05 《动手学深度学习》
    5.8. 网络中的网络(NiN) 5.8.1. NiN块 5.8.2. NiN模型 5.8.3. 获取数据和训练模型 5.8.4. 小结 5.8.5. 练习 5.8.6. 参考文献 5.8. 网络中的网络(NiN) 前几节介绍的LeNet、AlexNet和VGG在设计上的共同之处是:先以由卷积层构成的模块充分抽取空间特征,再以由全连接层构...
  • Autograd:自动求导

    Autograd:自动求导 张量 梯度 Autograd:自动求导 译者:bat67 校验者:FontTian PyTorch中,所有神经网络的核心是 autograd 包。先简单介绍一下这个包,然后训练我们的第一个的神经网络。 autograd 包为张量上的所有操作提供了自动求导机制。它是一个在运行时定义(define-by...
  • 同步数据读取

    同步数据读取 数据层配置 传递训练数据给执行器 进阶使用 如何传入序列数据 如何分别设置ParallelExecutor中每个设备的训练数据 自定义BatchSize维度 Fluid目前支持的数据类型 同步数据读取 PaddlePaddle Fluid支持使用 fluid.layers.data() 配置数据层;再使用 Numpy A...
  • 开始预测

    开始预测 现在让我们来看看在图 6-1 中的树是如何进行预测的。假设你找到了一朵鸢尾花并且想对它进行分类,你从根节点开始(深度为 0,顶部):该节点询问花朵的花瓣长度是否小于 2.45 厘米。如果是,您将向下移动到根的左侧子节点(深度为 1,左侧)。 在这种情况下,它是一片叶子节点(即它没有任何子节点),所以它不会问任何问题:你可以方便地查看该节点的预测...
  • append_backward

    append_backward append_backward paddle.static.append_backward ( loss, parameter_list=None, no_grad_set=None, callbacks=None ) [源代码] 该接口将向主程序(main_program )添加反向部分 。 完整的神经网络训...
  • 命令式编程使用教程

    命令式编程使用教程 为什么命令式编程模式越来越流行? 1. 开启命令式编程模式 2. 使用命令式编程进行模型训练 2.1 定义数据读取器 2.2 定义模型和优化器 2.3 训练 2.4 评估测试 2.5 模型参数的保存和加载 3. 多卡训练 4. 模型部署 5. 使用技巧 5.1 中间变量值、梯度打印 5.2 断点调试 5.3 使用声...
  • 9. 以及如何应对

    以及如何应对 以及如何应对 上次分析了背后的一些原因,这次说说如何应对 首先这里默认没有任何挽回机会了,而不是你跪在女神面前大哭一场,或作出一哭二闹三上吊这种夸张的事情便可力挽狂澜的 如果你真做了,并且挽回了,那么请参考如何恋爱的番外,而非下文 对于个体而言,如何尽快走出困境,把损失降到最低,这是我们现在最为关心的 好,我们先来处理《黄...