书栈网 · BookStack 本次搜索耗时 0.034 秒,为您找到 77702 个相关结果.
  • 词向量

    词向量 说明 背景介绍 效果展示 模型概览 语言模型 N-gram neural model Continuous Bag-of-Words model(CBOW) Skip-gram model 数据准备 数据介绍 数据预处理 编程实现 模型应用 预测下一个词 总结 参考文献 词向量 本教程源代码目录在book/wo...
  • 一、基础

    一、基础 1.1 基本概念 1.2 特征学习 1.3 训练 1.4 示例 一、基础 1.1 基本概念 深度前馈网络的目标是近似某个函数 。 分类器 将输入 映射到它的真实类别 ,其中 是真实的映射函数。 深度前馈网络定义另一个映射 ,并且学习参数 从而使得 是 的最佳近似。 深度前馈网络之所以称作前馈的(feed...
  • RNNCellBase

    RNNCellBase RNNCellBase class paddle.nn.RNNCellBase ( name_scope=None, dtype=’float32’ ) [源代码] 循环神经网络单元基类 该OP(RNNCellBase)是一个抽象表示根据输入和隐藏状态来计算输出和新状态的基本类,最适合也最常用于循环神经网络。 ge...
  • 12. 达芬奇睡眠

    达芬奇睡眠 达芬奇睡眠 咳咳,写岔了,这里补上 Powerful Sleep 中说过 实际情况是他们已经睡的太多了,而且精神状态和睡眠质量一样差。之所以出现这种情况是因为他们没有意识到他们体内潜在的精力和睡眠机制(Energy and sleep mechanism) 这句话点出了很久很久以前,小法师有时睡 10 个小时,醒...
  • 机器学习

    机器学习 机器学习库。 参见: awesome-machine-learning . Caffe: 一个 Caffe 的 python 接口。官网 Caffe2 :一个轻量级的,模块化的,可扩展的深度学习框架。官网 Crab:灵活、快速的推荐引擎。官网 gensim:人性化的话题建模库。官网 hebel:GPU 加速的深度学习库。官网 k...
  • 总结

    总结 作业1-2 作业 1-3 作业1-4 基本知识 作业题 总结 本节,我们详细讲解了如何使用Numpy实现梯度下降算法,构建并训练了一个简单的线性模型实现波士顿房价预测,可以总结出,使用神经网络建模房价预测有三个要点: 构建网络,初始化参数w和b,定义预测和损失函数的计算方法。 随机选择初始点,建立梯度的计算方法和参数更新方式。 ...
  • 为什么正则化能够降低过拟合

    为什么正则化能够降低过拟合 为什么正则化能够降低过拟合 我们通过实验发现正则化能帮助减少过拟合。这是令人高兴的事,然而不幸的是,我们没有明显的证据证明为什么正则化可以起到这个效果!一个大家经常说起的解释是:在某种程度上,越小的权重复杂度越低,因此能够更简单且更有效地描绘数据,所以我们倾向于选择这样的权重。尽管这是个很简短的解释,却也包含了一些疑点。让...
  • 基础专题

    快速上手 Tensor Dataset 与 DataLoader 搭建神经网络 Autograd 反向传播与 optimizer 模型的加载与保存 静态图模块 nn.Graph
  • PyTorch深度学习

    PyTorch深度学习 深度学习构建模块: Affine maps, non-linearities and objectives Affine Maps Non-Linearities(非线性) Softmax and Probabilities(Softmax和概率分布) Objective Functions(目标函数) Optimizati...
  • torch.nn 到底是什么?

    torch.nn 到底是什么? MNIST数据安装 神经网络从零开始(不使用torch.nn) torch.nn.functional的使用 使用nn.Module进行重构 使用nn.Linear进行重构 使用optim进行重构 使用Dataset进行重构 使用DataLoader进行重构 增加验证集 编写fit()和get_data()函...