书栈网 · BookStack 本次搜索耗时 0.053 秒,为您找到 179 个相关结果.
  • 6.3. 语言模型数据集(周杰伦专辑歌词)

    1897 2019-06-05 《动手学深度学习》
    6.3. 语言模型数据集(周杰伦专辑歌词) 6.3.1. 读取数据集 6.3.2. 建立字符索引 6.3.3. 时序数据的采样 6.3.3.1. 随机采样 6.3.3.2. 相邻采样 6.3.4. 小结 6.3.5. 练习 6.3. 语言模型数据集(周杰伦专辑歌词) 本节将介绍如何预处理一个语言模型数据集,并将其转换成字符级循环神经网络...
  • 7.4. 动量法

    1266 2019-06-05 《动手学深度学习》
    7.4.2. 动量法 7.4.1. 梯度下降的问题 7.4.2. 动量法 7.4.2.1. 指数加权移动平均 7.4.2.2. 由指数加权移动平均理解动量法 7.4.3. 从零开始实现 7.4.4. 简洁实现 7.4.5. 小结 7.4.6. 练习 7.4.2. 动量法 在“梯度下降和随机梯度下降” 一节中我们提到,目标函数有关自变量...
  • Job Management

    Job Management Multiple Pod Template Job Input/Output Conditions and Phases Error Handling Features Interaction Admission Controller CoScheduling Task Priority within Job R...
  • 9.7. 单发多框检测(SSD)

    1740 2019-06-05 《动手学深度学习》
    9.7. 单发多框检测(SSD) 9.7.1. 模型 9.7.1.1. 类别预测层 9.7.1.2. 边界框预测层 9.7.1.3. 连结多尺度的预测 9.7.1.4. 高和宽减半块 9.7.1.5. 基础网络块 9.7.1.6. 完整的模型 9.7.2.3. 训练模型 9.7.2.1. 读取数据集和初始化 9.7.2.2. 定义损失函数和评...
  • 3.2 线性回归的从零开始实现

    3.2 线性回归的从零开始实现 3.2.1 生成数据集 3.2.2 读取数据 3.2.3 初始化模型参数 3.2.4 定义模型 3.2.5 定义损失函数 3.2.6 定义优化算法 3.2.7 训练模型 小结 3.2 线性回归的从零开始实现 在了解了线性回归的背景知识之后,现在我们可以动手实现它了。尽管强大的深度学习框架可以减少大量重复...
  • 6.2. 循环神经网络

    1633 2019-06-05 《动手学深度学习》
    6.2. 循环神经网络 6.2.1. 不含隐藏状态的神经网络 6.2.2. 含隐藏状态的循环神经网络 6.2.3. 应用:基于字符级循环神经网络的语言模型 6.2.4. 小结 6.2.5. 练习 6.2. 循环神经网络 上一节介绍的 元语法中,时间步 的词 基于前面所有词的条件概率只考虑了最近时间步的 个词。如果要考虑比 更早时...
  • 5.3. 多输入通道和多输出通道

    3720 2019-06-05 《动手学深度学习》
    5.3. 多输入通道和多输出通道 5.3.1. 多输入通道 5.3.2. 多输出通道 5.3.3. 1\times 1卷积层 5.3.4. 小结 5.3.5. 练习 5.3. 多输入通道和多输出通道 前面两节里我们用到的输入和输出都是二维数组,但真实数据的维度经常更高。例如,彩色图像在高和宽2个维度外还有RGB(红、绿、蓝)3个颜色通道。假...
  • 3.6. softmax回归的从零开始实现

    1768 2019-06-05 《动手学深度学习》
    3.6. softmax回归的从零开始实现 3.6.1. 获取和读取数据 3.6.2. 初始化模型参数 3.6.3. 实现softmax运算 3.6.4. 定义模型 3.6.5. 定义损失函数 3.6.6. 计算分类准确率 3.6.7. 训练模型 3.6.8. 预测 3.6.9. 小结 3.6.10. 练习 3.6. softma...
  • 3.2. 线性回归的从零开始实现

    2188 2019-06-05 《动手学深度学习》
    3.2. 线性回归的从零开始实现 3.2.1. 生成数据集 3.2.2. 读取数据 3.2.3. 初始化模型参数 3.2.4. 定义模型 3.2.5. 定义损失函数 3.2.6. 定义优化算法 3.2.7. 训练模型 3.2.8. 小结 3.2.9. 练习 3.2. 线性回归的从零开始实现 在了解了线性回归的背景知识之后,现在我们可...
  • 7.2. 梯度下降和随机梯度下降

    1307 2019-06-05 《动手学深度学习》
    7.2. 梯度下降和随机梯度下降 7.2.1. 一维梯度下降 7.2.2. 学习率 7.2.3. 多维梯度下降 7.2.4. 随机梯度下降 7.2.5. 小结 7.2.6. 练习 7.2.7. 参考文献 7.2. 梯度下降和随机梯度下降 在本节中,我们将介绍梯度下降(gradientdescent)的工作原理。虽然梯度下降在深度学习中很...