书栈网 · BookStack 本次搜索耗时 0.063 秒,为您找到 159453 个相关结果.
  • 概览

    存算一体 VS 存算分离 存算一体 存算分离 如何选择 存算一体的优点 存算一体的 适用场景 存算分离的优点 存算分离的 适用场景 基于存算分离实现多计算集群工作负载隔离 本文介绍存算分离与存算一体两种架构的区别、优势和适用场景,为用户的选择与使用提供参考。后文将详细说明如何部署并使用 Apache Doris 存算分离模式。如需部署存算...
  • 3.1. 线性回归

    3482 2019-06-05 《动手学深度学习》
    3.1. 线性回归 3.1.1. 线性回归的基本要素 3.1.1.1. 模型 3.1.1.2. 模型训练 3.1.1.2.1. 训练数据 3.1.1.2.2. 损失函数 3.1.1.2.3. 优化算法 3.1.1.3. 模型预测 3.1.2. 线性回归的表示方法 3.1.2.1. 神经网络图 3.1.2.2. 矢量计算表达式 3.1.3....
  • 3.1 线性回归

    3.1 线性回归 3.1.1 线性回归的基本要素 3.1.1.1 模型定义 3.1.1.2 模型训练 (1) 训练数据 (2) 损失函数 (3) 优化算法 3.1.1.3 模型预测 3.1.2 线性回归的表示方法 3.1.2.1 神经网络图 3.1.2.2 矢量计算表达式 小结 3.1 线性回归 线性回归输出是一个连续值,因此适...
  • kl_div

    kl_div 参数 返回 代码示例 kl_div paddle.nn.functional.kl_div ( input, label, reduction=’mean’, name=None ) [源代码] 该算子计算输入(Input)和输入(Label)之间的Kullback-Leibler散度损失。注意其中输入(Input)应为对数...
  • kl_div

    kl_div 参数 返回 代码示例 kl_div paddle.nn.functional. kl_div ( input, label, reduction=’mean’, name=None ) [源代码] 该算子计算输入(Input)和输入(Label)之间的Kullback-Leibler散度损失。注意其中输入(Input)应为对数...
  • 10.3 word2vec的实现

    10.3 word2vec的实现 10.3.1 处理数据集 10.3.1.1 建立词语索引 10.3.1.2 二次采样 10.3.1.3 提取中心词和背景词 10.3.2 负采样 10.3.3 读取数据 10.3.4 跳字模型 10.3.4.1 嵌入层 10.3.4.2 小批量乘法 10.3.4.3 跳字模型前向计算 10.3.5 训练模...
  • BLAS and LAPACK Operations

    BLAS和LAPACK操作 BLAS和LAPACK操作 译者:ApacheCN torch . addbmm ( beta = 1 , mat , alpha = 1 , batch1 , batch2 , out = None ) → Tensor 执行存储在batch1 和batch2 中的矩阵的批量矩阵 - ...
  • 3.4. softmax回归

    2031 2019-06-05 《动手学深度学习》
    3.4. softmax回归 3.4.1. 分类问题 3.4.2. softmax回归模型 3.4.2.1. softmax运算 3.4.3. 单样本分类的矢量计算表达式 3.4.4. 小批量样本分类的矢量计算表达式 3.4.5. 交叉熵损失函数 3.4.6. 模型预测及评价 3.4.7. 小结 3.4.8. 练习 3.4. sof...
  • 10. 批处理

    10. 批处理 10. 批处理 带有太强个人色彩的系统无法成功。当最初的设计完成并且相对稳定时,不同的人们以自己的方式进行测试,真正的考验才开始。 ——高德纳 ​ 在本书的前两部分中,我们讨论了很多关于请求 和查询 以及相应的响应 或结果 。许多现有数据系统中都采用这种数据处理方式:你发送请求指令,一段时间后(我们期望)系统会给...
  • sigmoid_focal_loss

    sigmoid_focal_loss sigmoid_focal_loss paddle.fluid.layers.sigmoid_focal_loss ( x, label, fg_num, gamma=2.0, alpha=0.25 ) [源代码] Focal Loss 被提出用于解决计算机视觉任务中前景-背景不平衡的问题。该OP先计算输...