书栈网 · BookStack 本次搜索耗时 0.034 秒,为您找到 202437 个相关结果.
  • 四、基本优化算法

    四、基本优化算法 4.1 随机梯度下降 SGD 4.1.1 算法 4.1.2 学习率 4.1.3 性质 4.2 动量方法 4.2.1 算法 4.2.2 衰减因子 4.2.3 Nesterov 动量 四、基本优化算法 4.1 随机梯度下降 SGD 4.1.1 算法 随机梯度下降沿着随机挑选的mini-batch 数据的梯度下降...
  • 二、EM算法原理

    二、EM算法原理 2.1 观测变量和隐变量 2.2 EM算法 2.2.1 原理 2.2.2 算法 2.2.3 收敛性定理 二、EM算法原理 2.1 观测变量和隐变量 令 表示观测随机变量, 表示对应的数据序列;令 表示隐随机变量, 表示对应的数据序列。 和 连在一起称作完全数据,观测数据 又称作不完全数据。 假设给定...
  • 7. 优化算法

    7.1 优化与深度学习 7.2 梯度下降和随机梯度下降 7.3 小批量随机梯度下降 7.4 动量法 7.5 AdaGrad算法 7.6 RMSProp算法 7.7 AdaDelta算法 7.8 Adam算法
  • 7.2 基本排序算法

    7.2 基本排序算法 一 选择排序 二 插入排序 三 希尔排序(Shell Sort) 四 总结 7.2 基本排序算法 本篇开始学习排序算法。排序与我们日常生活中息息相关,比如,我们要从电话簿中找到某个联系人首先会按照姓氏排序、买火车票会按照出发时间或者时长排序、买东西会按照销量或者好评度排序、查找文件会按照修改时间排序等等。在计算机程序设计...
  • 8.1 EM算法思想

    8.1 EM算法思想 8.1 EM算法思想 EM是一种迭代式的方法,它的基本思想就是:若样本服从的分布参数θ已知,则可以根据已观测到的训练样本推断出隐变量Z的期望值(E步),若Z的值已知则运用最大似然法估计出新的θ值(M步)。重复这个过程直到Z和θ值不再发生变化。 简单来讲:假设我们想估计A和B这两个参数,在开始状态下二者都是未知的,但如果知道...
  • 最短路径算法

    最短路径算法 Dijkstra —— 贪心算法 Floyd —— 动态规划 最短路径算法 Dijkstra —— 贪心算法 从一个顶点到其余顶点的最短路径 设G=(V,E) 是一个带权有向图,把图中顶点集合V分成两组,第1组为已求出最短路径的顶点(用S表示,初始时S只有一个源点,以后每求得一条最短路径v,...k ,就将k加到集合S中...
  • 7.5. AdaGrad算法

    1641 2019-06-05 《动手学深度学习》
    7.5. AdaGrad算法 7.5.1. 算法 7.5.2. 特点 7.5.3. 从零开始实现 7.5.4. 简洁实现 7.5.5. 小结 7.5.6. 练习 7.5.7. 参考文献 7.5. AdaGrad算法 在之前介绍过的优化算法中,目标函数自变量的每一个元素在相同时间步都使用同一个学习率来自我迭代。举个例子,假设目标函数为 ...
  • 图计算算法

    图算法 图算法 Graph 用于组装API和顶级算法 的逻辑块 可在Gelly中作为 org.apache.flink.graph.asm 包中的 图形算法访问 。 这些算法通过配置参数提供优化和调整,并且在使用类似配置处理相同输入时可以提供隐式运行时重用。 算法 描述 degree.annotate.directed。 Vert...
  • Golden Cross算法示例

    Golden Cross算法示例 Golden Cross算法示例 以下是一个我们使用TALib编写的golden cross算法的示例,使用了simple moving average方法: import talib     # 在这个方法中编写任何的初始化逻辑。context对象将会在你的算法策略的任何方法之间做传递。 def in...
  • 4.3.5. 推荐算法

    1. 推荐算法 1.1. 交换最小二乘([2.0] ALS) 算法说明 训练节点 预测节点 1.2. 基于商品的协同过滤([2.0] ItemCF) 算法说明 训练节点 预测节点 1.3. 基于用户的协同过滤算法([2.0] UserCF) 算法说明 训练节点 预测节点 1. 推荐算法 1.1. 交换最小二乘([2....