书栈网 · BookStack 本次搜索耗时 0.021 秒,为您找到 82796 个相关结果.
  • 六、决策树

    六、决策树 决策树的训练和可视化 开始预测 估计分类概率 CART 训练算法 计算复杂度 基尼不纯度或是信息熵 正则化超参数 回归 不稳定性 练习 六、决策树 和支持向量机一样, 决策树是一种多功能机器学习算法, 即可以执行分类任务也可以执行回归任务, 甚至包括多输出(multioutput)任务. 它是一种功能很强大的算法,可...
  • 优化器

    优化器 1.SGD/SGDOptimizer 2.Momentum/MomentumOptimizer 3. Adagrad/AdagradOptimizer 4.RMSPropOptimizer 5.Adam/AdamOptimizer 6.Adamax/AdamaxOptimizer 7.DecayedAdagrad/ DecayedAdag...
  • dropout

    dropout 参数 返回 返回类型 代码示例 dropout paddle.fluid.layers.dropout (x, dropout_prob, is_test=False, seed=None, name=None, dropout_implementation=’downgrade_in_infer’)[源代码] dropo...
  • 推荐系统的基本概念

    推荐系统的基本概念 推荐系统的基本概念 构建推荐系统本质上是要解决“5w”的问题。如下图示例,当用户在晚间休闲,上网阅读小说时,在阅读的军事小说下方,向他推荐三国志游戏,并给出推荐理由“纸上谈兵不如亲身实践”。 图4:个性化推荐解决5W问题 这是一个较好的推荐案例,很多军迷用户会下载游戏试玩。但反之,如果在用户白天开会投屏时,弹出提示框向用...
  • 优化器

    优化器 1.SGD/SGDOptimizer 2.Momentum/MomentumOptimizer 3. Adagrad/AdagradOptimizer 4.RMSPropOptimizer 5.Adam/AdamOptimizer 6.Adamax/AdamaxOptimizer 7.DecayedAdagrad/ DecayedAdag...
  • 优化器

    优化器 1.SGD/SGDOptimizer 2.Momentum/MomentumOptimizer 3. Adagrad/AdagradOptimizer 4.RMSPropOptimizer 5.Adam/AdamOptimizer 6.Adamax/AdamaxOptimizer 7.DecayedAdagrad/ DecayedAdag...
  • 十四、GraphWave

    十四、GraphWave 14.1 模型 14.1.1 算法 14.1.2 理论分析 14.1.3 scale 参数 14.2 实验 14.2.1 杠铃图 14.2.2 结构等效图 14.2.3 跨图的泛化 14.2.4 可扩展性和鲁棒性 14.2.5 真实数据集 十四、GraphWave 图中不同位置的顶点在其局部网络拓扑中可...
  • 练习27:创造性和防御性编程

    2197 2018-02-09 《笨办法学C》
    练习27:创造性和防御性编程 创造性编程思维 防御性编程思维 八个防御性编程策略 应用这八条策略 永远不要信任输入 避免错误 过早暴露错误 记录假设 避免过多文档 使一切自动化 简单化和清晰化 质疑权威 顺序并不重要 附加题 练习27:创造性和防御性编程 原文:Exercise 27: Creative And Defe...