书栈网 · BookStack 本次搜索耗时 0.012 秒,为您找到 24512 个相关结果.
  • 计算复杂度

    计算复杂度 在建立好决策树模型后, 做出预测需要遍历决策树, 从根节点一直到叶节点。决策树通常近似左右平衡,因此遍历决策树需要经历大致 [2] 个节点。由于每个节点只需要检查一个特征的值,因此总体预测复杂度仅为 ,与特征的数量无关。 所以即使在处理大型训练集时,预测速度也非常快。 [2] 是二进制对数,它等于 。 然而,训练算法的时候(训练...
  • 6. Dataset transformations

    6. Dataset transformations 6. Dataset transformations scikit-learn provides a library of transformers, which may clean (seePreprocessing data ), reduce (see Unsupervised dimens...
  • What’s Pipcook

    Pipcook Why Pipcook What’s Pipcook Principles Audience Subprojects The Next Pipcook The Pipcook Project is an open-source toolkit to enable and accelerate the intelligent...
  • 核 PCA(Kernel PCA)

    核 PCA(Kernel PCA) 在第 5 章中,我们讨论了核技巧,一种将实例隐式映射到非常高维空间(称为特征空间)的数学技术,让支持向量机可以应用于非线性分类和回归。回想一下,高维特征空间中的线性决策边界对应于原始空间中的复杂非线性决策边界。 事实证明,同样的技巧可以应用于 PCA,从而可以执行复杂的非线性投影来降低维度。这就是所谓的核 PCA...
  • 二、seqlearn

    二、seqlearn 二、seqlearn seqlearn 扩展了scikit-learn 的功能,实现了隐马尔可夫模型的监督学习。 其中监督学习的意思是:每一个观察序列都被正确的人工标定。 MultinomialHMM 是seqlearn 给出的监督多项式分布的隐马尔可夫模型,其原型为: seqlearn . hmm . Mult...
  • 3.5.4 使用主成分分析的降维

    3.5.4 使用主成分分析的降维 3.5.4 使用主成分分析的降维 上面观察展开的云点在一个方向非常平坦,因此,一个特征几乎可以准确用另两个特征来计算。PCA找到数据并不平坦的方向,并且可以通过投影到一个子空间中来减少维度。 警告 : 根据你的scikit-learn版本,PCA将在模块decomposition 或pca 中。 In [...
  • 寻求帮助

    寻求帮助 项目邮件列表 机器学习从业者的 Q&A 社区 寻求帮助 校验者: @片刻 翻译者: @X 项目邮件列表 如果您在使用 scikit 的过程中发现错误或者需要在说明文档中澄清的内容,可以随时通过 Mailing List 进行咨询。 机器学习从业者的 Q&A 社区 Quora.com: Quora有一个和机器学习问题相关的...