书栈网 · BookStack 本次搜索耗时 0.032 秒,为您找到 31624 个相关结果.
  • 第三章 改进神经网络的学习方法(下)

    第三章 改进神经网络的学习方法(下) 权重初始化 练习 问题 再看手写识别问题:代码 问题 如何选择神经网络的超参数 问题 练习 练习 其他技术 随机梯度下降的变种 练习 问题 人工神经元的其他模型 练习 有关神经网络的故事 第三章 改进神经网络的学习方法(下) 权重初始化 创建了神经网络后,我们需要进行权重和偏...
  • learning_rate_scheduler

    learning_rate_scheduler cosine_decay exponential_decay inverse_time_decay linear_lr_warmup natural_exp_decay noam_decay piecewise_decay polynomial_decay learning_rate_s...
  • 客户端

    客户端 基础功能 错误码 组合channels 访问http:h2 访问gRPC 访问thrift 访问UB 访问redis 访问memcached 流式RPC Backup request Dummy server 客户端 学习如何使用客户端bRPC。 基础功能 学习如何使用bRPC Client。 错误码 学习...
  • 组合树

    集成学习 集成学习   集成学习通过构建并结合多个学习器来完成学习任务,有时也被称为多分类器系统。集成学习通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化能力。   根据个体学习器的生成方式,目前的集成学习方法大致可以分为两大类。即个体学习器之间存在强依赖性,必须串行生成的序列化方法以及个体学习器之间不存在强依赖性,可同时生成的并行化方...
  • linear_lr_warmup

    linear_lr_warmup linear_lr_warmup paddle.fluid.layers.linear_lr_warmup ( learning_rate, warmup_steps, start_lr, end_lr ) [源代码] 该OP使用学习率优化策略-线性学习率热身(warm up)对学习率进行初步调整。在正常调整学...
  • 四、集成策略

    四、集成策略 4.1 平均法 4.2 投票法 4.3 学习法 四、集成策略 学习器组合可以能带来好处: 由于学习任务的假设空间往往很大,可能有多个假设在训练集上达到同等性能。 此时如果使用单学习器可能因为造成误选而导致泛化性能不佳,通过学习器组合之后会减小这一风险。 学习算法往往会陷入局部极小。有的局部极小点所对应的泛化性能可能...
  • exponential_decay

    exponential_decay exponential_decay paddle.fluid.layers.exponential_decay ( learning_rate, decay_steps, decay_rate, staircase=False ) [源代码] 在学习率上运用指数衰减。 训练模型时,在训练过程中降低学习率。每...
  • exponential_decay

    exponential_decay exponential_decay paddle.fluid.layers. exponential_decay ( learning_rate, decay_steps, decay_rate, staircase=False ) [源代码] 在学习率上运用指数衰减。 训练模型时,在训练过程中降低学习率。每...
  • 支持向量机(SVM)

    Deeplearning Algorithms tutorial 支持向量机 算法背景 应用领域 优缺点 Deeplearning Algorithms tutorial 谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业...