书栈网 · BookStack 本次搜索耗时 0.030 秒,为您找到 31624 个相关结果.
  • 工具

    工具 rpc_press rpc_replay rpc_view benchmark_http parallel_http 工具 学习bRPC工具。 rpc_press 学习bRPC rpc_press 工具。 rpc_replay 学习bRPC rpc_replay工具。 rpc_view 学习bRPC rpc_view...
  • inverse_time_decay

    inverse_time_decay 参数 返回 返回类型 代码示例 inverse_time_decay paddle.fluid.layers.inverse_time_decay (learning_rate, decay_steps, decay_rate, staircase=False)[源代码] 在初始学习率上运用逆时衰减。...
  • CART

    Deeplearning Algorithms tutorial CART 相关应用 优缺点 Deeplearning Algorithms tutorial 谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业已开始全面拥抱...
  • 了解前端应用程序体系结构

    学习前端应用架构 学习概要: [^1] 已弃用的学习材料: 注意事项: 建议: 学习前端应用架构 学习概要: [^1] JavaScript 应用设计 [阅读][$付费] 编写 JavaScript 应用 [阅读] Grab 公司的前端指南 [阅读] 一系列关于 JavaScript 项目的最佳实践 现代网络开发魔法书 从头开...
  • 六、 总结

    六、 总结 六、 总结 各种半监督学习算法的比较: 生成式半监督学习方法需要充分可靠的领域知识才能确保模型不至于太坏。 非监督SVM 目标函数非凸,因此有不少工作致力于减轻非凸性造成的不利影响。 图半监督学习方法,图的质量极为重要。 基于分歧的方法将集成学习与半监督学习联系起来。 半监督学习在利用未标记样本后并非必然提升泛化性能,在有些情况...
  • natural_exp_decay

    natural_exp_decay natural_exp_decay paddle.fluid.layers. natural_exp_decay ( learning_rate, decay_steps, decay_rate, staircase=False ) [源代码] 将自然指数衰减运用到初始学习率上。 训练模型时,在训练过程中降低...
  • 6、其他资源

    6、其他资源 有许多资源可用于了解机器学习。Andrew Ng 在 Coursera 上的 ML 课程 和 Geoffrey Hinton 关于神经网络和深度学习 的课程都是非常棒的,尽管这些课程需要大量的时间投入(大概是几个月)。 还有许多关于机器学习的比较有趣的网站,当然还包括 scikit-learn 出色的 用户指南 。你可能会喜欢上 Dat...
  • 7. 优化算法

    1901 2019-06-05 《动手学深度学习》
    7. 优化算法 7. 优化算法 如果你一直按照本书的顺序读到这里,那么你已经使用了优化算法来训练深度学习模型。具体来说,在训练模型时,我们会使用优化算法不断迭代模型参数以降低模型损失函数的值。当迭代终止时,模型的训练随之终止,此时的模型参数就是模型通过训练所学习到的参数。 优化算法对于深度学习十分重要。一方面,训练一个复杂的深度学习模型可能需要数小...
  • hub.strategy

    1032 2020-12-13 《PaddleHub v1.5 文档》
    hub.strategy Class hub.finetune.strategy.AdamWeightDecayStrategy Class hub.finetune.strategy.DefaultFinetuneStrategy Class hub.finetune.strategy.L2SPFinetuneStrategy Class hu...
  • 7.5. AdaGrad算法

    1637 2019-06-05 《动手学深度学习》
    7.5. AdaGrad算法 7.5.1. 算法 7.5.2. 特点 7.5.3. 从零开始实现 7.5.4. 简洁实现 7.5.5. 小结 7.5.6. 练习 7.5.7. 参考文献 7.5. AdaGrad算法 在之前介绍过的优化算法中,目标函数自变量的每一个元素在相同时间步都使用同一个学习率来自我迭代。举个例子,假设目标函数为 ...