书栈网 · BookStack 本次搜索耗时 0.015 秒,为您找到 27174 个相关结果.
  • StepDecay

    StepDecay StepDecay class paddle.fluid.dygraph.StepDecay ( learning_rate, step_size, decay_rate=0.1 ) [源代码] 该接口提供 step_size 衰减学习率的功能,每经过 step_size 个 epoch 时会通过 decay_rate...
  • StepDecay

    StepDecay StepDecay class paddle.fluid.dygraph. StepDecay ( learning_rate, step_size, decay_rate=0.1 ) [源代码] 该接口提供 step_size 衰减学习率的功能,每经过 step_size 个 epoch 时会通过 decay_rate...
  • 数学视觉控制台

    数学视觉控制台 激活 指示 用法 数学视觉控制台 有时,在编写Python脚本时,您会偶然发现复杂的矩阵变换,光线交集,旋转转换,网格修改等,这对于查看视口中的线,点和矩阵以更好地理解问题非常有用。 为此目的创建网格数据并不困难,但很麻烦。此附加组件的目的是使其尽可能快速和容易。 激活 打开Blender并转到 “首选项” ,然后转到 “...
  • 数字和数学模块

    数字和数学模块 数字和数学模块 本章介绍的模块提供与数字和数学相关的函数和数据类型。 numbers 模块定义了数字类型的抽象层次结构。 math 和 cmath 模块包含浮点数和复数的各种数学函数。 decimal 模块支持使用任意精度算术的十进制数的精确表示。 本章记录以下模块: numbers —- 数字的抽象基类 数...
  • 机器学习设置

    2205 2019-07-29 《Elastic Stack》
    Machine learning settings in Elasticsearch Machine learning settings in Elasticsearch 您无需配置任何设置即可使用机器学习。它默认启用。 IMPORTANT: 机器学习使用SSE4.2指令,因此仅适用于CPU支持SSE4.2的机器。如果在较旧的硬件上运行Ela...
  • 优化器 Optimizers

    优化器的用法 Keras 优化器的公共参数 SGD RMSprop Adagrad Adadelta Adam Adamax Nadam 优化器的用法 优化器 (optimizer) 是编译 Keras 模型的所需的两个参数之一: from keras import optimizers model = Sequ...
  • 机器学习实战-复习版(问题汇总)

    第1章 机器学习实战-复习版(问题汇总) 1.VSCode的安装使用 2.GitHub的使用说明 3.问题汇总 4.复习的时间和资料 5.直播方式 6.机器学习QQ群 第1章 机器学习实战-复习版(问题汇总) 1.VSCode的安装使用 参考文档:http://cwiki.apachecn.org/pages/viewpage.act...
  • ReduceOnPlateau

    ReduceOnPlateau ReduceOnPlateau class paddle.optimizer.lr. ReduceOnPlateau ( learning_rate, mode=’min’, factor=0.1, patience=10, threshold=1e-4, threshold_mode=’rel’, cooldown=...