书栈网 · BookStack 本次搜索耗时 0.035 秒,为您找到 82796 个相关结果.
  • Dropout

    Dropout Dropout class paddle.fluid.dygraph. Dropout ( p=0.5, seed=None, dropout_implementation=’downgrade_in_infer’, is_test=False ) [源代码] 丢弃或者保持输入的每个元素独立。Dropout是一种正则化手段,通过在...
  • MariaDB · 社区动态 · MariaDB on Power8 (下)

    背景 环境 Power战队 Intel战队 CPU理论性能测试 Power CPU理论测试 Intel CPU理论测试 CPU理论性能对比 场景 MariaDB on Power RDS MySQL on Intel MariaDB on Intel MySQL vs MariaDB on Intel MariaDB on Intel...
  • Dropout

    Dropout 参数 返回 代码示例 Dropout class paddle.fluid.dygraph.Dropout (p=0.5, seed=None, dropout_implementation=’downgrade_in_infer’, is_test=False)[源代码] 丢弃或者保持输入的每个元素独立。Dropout是一...
  • 一致性哈希

    一致性哈希 概述 实现方式 使用方式 虚拟节点个数 一致性哈希 学习bRPC一致性哈希。 概述 一些场景希望同样的请求尽量落到一台机器上,比如访问缓存集群时,我们往往希望同一种请求能落到同一个后端上,以充分利用其上已有的缓存,不同的机器承载不同的稳定working set。而不是随机地散落到所有机器上,那样的话会迫使所有机器缓存所有的内容,...
  • 使用即时几何体

    使用即时几何体 使用即时几何体 与SurfaceTool或ArrayMesh不同, ImmediateGeometry 是一个实际的节点. 作为一个节点, 它可以快速添加到场景中, 并获得可视化输出. 它使用像SurfaceTool一样的OpenGL 1.x风格的API, 但它实际上是为了在动态创建网格而设计的. 用这个节点生成复杂的几何体(几千个...
  • 优化器

    优化器 1.SGD/SGDOptimizer 2.Momentum/MomentumOptimizer 3. Adagrad/AdagradOptimizer 4.RMSPropOptimizer 5.Adam/AdamOptimizer 6.Adamax/AdamaxOptimizer 7.DecayedAdagrad/ DecayedAdag...
  • 准备工作

    准备工作 自身条件 外部条件 如何购买一台合适的服务器 如何选择服务器配置 CPU 什么是 IPC ? 什么是 频率 ? 什么是 核心 ? 内存 规格 频率 容量 硬盘 网络 BGP 连接到服务器远程桌面 Windows 系统 MacOS 系统 安装运行环境 完成 准备工作 搭建我的世界服务器是一项非常复杂的过程...
  • 用交叉熵解决手写数字识别问题

    用交叉熵解决手写数字识别问题 用交叉熵解决手写数字识别问题 我们可以很容易在程序中将交叉熵应用于梯度下降法(gradient descent)和反向传播算法(backpropagation)。在本章的后面我会改进之前的手写数字识别程序network.py 。新的程序取名network2.py ,它不仅仅用到了交叉熵,还用到了本章将要介绍的其他技术1 ...
  • 10.11 注意力机制

    10.11 注意力机制 10.11.1 计算背景变量 10.11.1.1 矢量化计算 10.11.2 更新隐藏状态 10.11.3 发展 小结 参考文献 10.11 注意力机制 在10.9节(编码器—解码器(seq2seq))里,解码器在各个时间步依赖相同的背景变量来获取输入序列信息。当编码器为循环神经网络时,背景变量来自它最终时间步的隐...
  • 优化器optimizers

    优化器optimizers 所有优化器都可用的参数 SGD 参数 RMSprop 参数 Adagrad Adagrad Adadelta 参数 参考文献 Adam 参数 参考文献 Adamax 参数 参考文献 Nadam 参数 参考文献 TFOptimizer 优化器optimizers 优化器是编译Keras...