书栈网 · BookStack 本次搜索耗时 0.030 秒,为您找到 202437 个相关结果.
  • 8.5 diff算法优化

    8.5 diff算法优化 8.5 diff算法优化 前面有个分支,当四种比较节点都找不到匹配时,会调用findIdxInOld 找到旧节点中和新的比较节点一致的节点。节点搜索在数量级较大时是缓慢的。查看Vue 的源码,发现它在这一个环节做了优化,也就是我们经常在编写列表时被要求加入的唯一属性key ,有了这个唯一的标志位,我们可以对旧节点建立简单的字...
  • 8.3 EM算法流程

    8.3 EM算法流程 8.3 EM算法流程 看完数学推导,算法的流程也就十分简单了,这里有两个版本,版本一来自西瓜书,周天使的介绍十分简洁;版本二来自于大牛的博客。结合着数学推导,自认为版本二更具有逻辑性,两者唯一的区别就在于版本二多出了红框的部分,这里我也没得到答案,欢迎骚扰讨论~ 版本一: 版本二:
  • 10 聚类算法

    10、聚类算法 上篇主要介绍了一种机器学习的通用框架—集成学习方法,首先从准确性和差异性两个重要概念引出集成学习“好而不同 ”的四字真言,接着介绍了现阶段主流的三种集成学习方法:AdaBoost、Bagging及Random Forest,AdaBoost采用最小化指数损失函数迭代式更新样本分布权重和计算基学习器权重,Bagging通过自助采样引入样本...
  • 5.5. 推荐算法

    Collaborative Filtering 训练节点 预测节点 Collaborative Filtering 协同过滤是经典的基于邻域的推荐算法,平台上的协同过滤算法是通过 ALS 的矩阵分解优化求解的。 训练节点 输入 数据形式:Dense 或 Libsvm 格式:| User | Item | Rating | User:Use...
  • 4.4. 图算法

    1. 图算法 1.1. [2.0] LPA 输入 输出 参数说明 1.2. [2.0] PageRank 输入 输出 参数说明 1.3. [2.0] EffectiveSize 输入 输出 参数说明 1.4. [2.0] CommonFriends 输入 输出 参数说明 1.5. [2.0] HyperAnf 输入 输出 ...
  • 4.3.4. 回归算法

    1. 回归算法 1.1. [2.0] RandomForestRegressor 训练节点 预测节点 1.2. [2.0] DecisionTreeRegressor 训练节点 预测节点 1.3. [2.0] GBTRegressor 训练节点 预测节点 1.4. [2.0] IsotonicRegressor 训练节点 预测节点 ...
  • 7.20.Dijkstra算法

    7.20.Dijkstra算法 7.20.Dijkstra算法 我们将用于确定最短路径的算法称为“Dijkstra算法”。Dijkstra算法是一种迭代算法,它为我们提供从一个特定起始节点到图中所有其他节点的最短路径。这也类似于广度优先搜索的结果。 为了跟踪从开始节点到每个目的地的总成本,我们将使用顶点类中的 dist 实例变量。 dist实例变量...
  • 三、生成算法

    三、生成算法 3.1 ID3 生成算法 3.2 C4.5 生成算法 三、生成算法 决策树有两种常用的生成算法: ID3 生成算法。 C4.5 生成算法。 ID3 生成算法和 C4.5 生成算法只有树的生成算法,生成的树容易产生过拟合:对训练集拟合得很好,但是预测测试集效果较差。 3.1 ID3 生成算法 ID3 生成算...
  • 13.EM算法

    EM 算法 EM 算法 如果概率模型的变量都是观测变量,则给定数据之后,可以直接用极大似然估计法或者贝叶斯估计法来估计模型参数。 但是当模型含有隐变量时,就不能简单的使用这些估计方法。此时需要使用EM 算法。 EM 算法是一种迭代算法。 EM 算法专门用于含有隐变量的概率模型参数的极大似然估计,或者极大后验概率估计。 EM 算法的每...
  • 反向传播算法代码

    反向传播算法代码 问题 反向传播算法代码 在理论上理解了反向传播算法后,就可以理解上一章中用来实现反向传播算法的代码了。回忆一下第一章Network 类中的update_mini_batch 和backprop 方法的代码。这些代码可以看做是上面算法描述的直接翻译。具体来说,update_mini_batch 方法通过计算梯度来为当前的小批次(mi...