书栈网 · BookStack 本次搜索耗时 0.016 秒,为您找到 67428 个相关结果.
  • 逻辑回归

    逻辑回归 正如我们在第1章中讨论的那样,一些回归算法也可以用于分类(反之亦然)。 Logistic 回归(也称为 Logit 回归)通常用于估计一个实例属于某个特定类别的概率(例如,这电子邮件是垃圾邮件的概率是多少?)。 如果估计的概率大于 50%,那么模型预测这个实例属于当前类(称为正类,标记为“1”),反之预测它不属于当前类(即它属于负类 ,标记为“...
  • 10.2 近似训练

    10.2 近似训练 10.2.1 负采样 10.2.2 层序softmax 小结 10.2 近似训练 回忆上一节的内容。跳字模型的核心在于使用softmax运算得到给定中心词 来生成背景词 的条件概率 该条件概率相应的对数损失 由于softmax运算考虑了背景词可能是词典 中的任一词,以上损失包含了词典大小数目的项的累加。...
  • 10.2. 近似训练

    1381 2019-06-05 《动手学深度学习》
    10.2. 近似训练 10.2.1. 负采样 10.2.2. 层序softmax 10.2.3. 小结 10.2.4. 练习 10.2. 近似训练 回忆上一节的内容。跳字模型的核心在于使用softmax运算得到给定中心词 来生成背景词 的条件概率 该条件概率相应的对数损失 由于softmax运算考虑了背景词可能是词典 中...
  • 随机数-grand

    字符列表 随机整数 随机字符串 概率性计算 grand 模块实现了对随机数操作的封装和改进,实现了极高的随机数生成性能,提供了丰富的随机数相关操作方法。 使用方式: import "github.com/gogf/gf/v2/util/grand" 接口文档: https://pkg.go.dev/github.com/gogf/g...
  • 随机数-grand

    字符列表 随机整数 随机字符串 概率性计算 grand 模块实现了对随机数操作的封装和改进,实现了极高的随机数生成性能,提供了丰富的随机数相关操作方法。 使用方式: import "github.com/gogf/gf/v2/util/grand" 接口文档: https://pkg.go.dev/github.com/gogf/g...
  • 随机数-grand

    字符列表 随机整数 随机字符串 概率性计算 grand 模块实现了对随机数操作的封装和改进,实现了极高的随机数生成性能,提供了丰富的随机数相关操作方法。 使用方式: import "github.com/gogf/gf/v2/util/grand" 接口文档: https://pkg.go.dev/github.com/gogf/g...
  • 7.3 朴素贝叶斯分类器

    7.3 朴素贝叶斯分类器 7.3 朴素贝叶斯分类器 不难看出:原始的贝叶斯分类器最大的问题在于联合概率密度函数的估计,首先需要根据经验来假设联合概率分布,其次当属性很多时,训练样本往往覆盖不够,参数的估计会出现很大的偏差。为了避免这个问题,朴素贝叶斯分类器(naive Bayes classifier)采用了“属性条件独立性假设”,即样本数据的所...
  • 二、广义线性模型

    二、广义线性模型 2.1 广义线性模型的函数定义 2.2 广义线性模型的概率定义 2.3 常见分布的广义线性模型 2.3.1 高斯分布 2.3.2 伯努利分布 2.3.3 多元伯努利分布 二、广义线性模型 2.1 广义线性模型的函数定义 考虑单调可微函数 ,令 ,这样得到的模型称作广义线性模型 (generalized linea...
  • 三、贝叶斯模型

    三、贝叶斯模型 3.1 GaussianNB 3.2 MultinomialNB 3.3 BernoulliNB 三、贝叶斯模型 在scikit 中有多种不同的朴素贝叶斯分类器。他们的区别就在于它们假设了不同的 分布 。 3.1 GaussianNB 高斯贝叶斯分类器GaussianNB :它假设特征 的条件概率分布满足高斯分布...
  • 一、Unigram Model

    一、Unigram Model 1.1 最大似然估计 1.2 最大后验估计 1.3 文档生成算法 一、Unigram Model 假设有一个骰子,骰子有 个面,每个面对应于词典中的一个单词。 Unigram Model 是这样生成文档的: 每次抛一次骰子,抛出的面就对应于产生一个单词。 如果一篇文档有 个单词,则独立的抛掷 次骰子就...