书栈网 · BookStack 本次搜索耗时 0.045 秒,为您找到 77702 个相关结果.
  • Dropout

    Dropout 参数 形状 代码示例 Dropout paddle.nn.Dropout ( p=0.5, axis=None, mode=”upscale_in_train”, name=None ) [源代码] Dropout是一种正则化手段,该算子根据给定的丢弃概率 p ,在训练过程中随机将一些神经元输出设置为0,通过阻止神经元节点...
  • 1. 深度学习简介

    9999 2019-06-05 《动手学深度学习》
    1. 深度学习简介 1.1. 起源 1.2. 发展 1.3. 成功案例 1.4. 特点 1.5. 小结 1.6. 练习 1.7. 参考文献 1.8. 扫码直达讨论区 1. 深度学习简介 你可能已经接触过编程,并开发过一两款程序。同时你可能读过关于深度学习或者机器学习的铺天盖地的报道,尽管很多时候它们被赋予了更广义的名字:人工智能。实际...
  • What is torch.nn really?

    torch.nn 到底是什么? MNIST数据安装 神经网络从零开始(不使用torch.nn) torch.nn.functional的使用 使用nn.Module进行重构 使用nn.Linear进行重构 使用optim进行重构 使用Dataset进行重构 使用DataLoader进行重构 增加验证集 编写fit()和get_data()...
  • 个性化推荐

    个性化推荐 背景介绍 效果展示 模型概览 YouTube的深度神经网络个性化推荐系统 候选生成网络(Candidate Generation Network) 排序网络(Ranking Network) 融合推荐模型 文本卷积神经网络(CNN) 融合推荐模型概览 数据准备 数据介绍与下载 模型配置说明 训练模型 定义训练环境 定义数...
  • AdaGrad

    AdaGrad 再次考虑细长碗的问题:梯度下降从最陡峭的斜坡快速下降,然后缓慢地下到谷底。 如果算法能够早期检测到这个问题并且纠正它的方向来指向全局最优点,那将是非常好的。 AdaGrad 算法通过沿着最陡的维度缩小梯度向量来实现这一点(见公式 11-6): 第一步将梯度的平方累加到矢量s 中(⊗ 符号表示单元乘法)。 这个向量化形式相当于向量s...
  • 词向量

    词向量 说明 背景介绍 效果展示 模型概览 语言模型 N-gram neural model Continuous Bag-of-Words model(CBOW) Skip-gram model 数据准备 数据介绍 数据预处理 编程实现 模型应用 预测下一个词 总结 参考文献 词向量 本教程源代码目录在book/wo...
  • 词向量

    词向量 说明 背景介绍 效果展示 模型概览 语言模型 N-gram neural model Continuous Bag-of-Words model(CBOW) Skip-gram model 数据准备 数据介绍 数据预处理 编程实现 模型应用 预测下一个词 总结 参考文献 词向量 本教程源代码目录在book/wo...
  • LayerNorm

    LayerNorm LayerNorm class paddle.nn.LayerNorm ( normalized_shape, epsilon=1e-05, weight_attr=None, bias_attr=None, name=None ) [源代码] 该接口用于构建 LayerNorm 类的一个可调用对象,具体用法参照 代码示例...
  • 为什么要学习爬虫

    为什么要学习爬虫 学习目的以及需求 实现手段 爬虫应用场景(利用爬虫能做什么?) 总结 为什么要学习爬虫 学习目的以及需求 需求来自于:抓取的某个网站或者某个应用的内容,提取有用的价值 实现手段 模拟用户在浏览器或者应用( app )上的操作,实现自动化的程序 爬虫应用场景(利用爬虫能做什么?) 大家最熟...