书栈网 · BookStack 本次搜索耗时 0.027 秒,为您找到 118108 个相关结果.
  • 训练一个分类器

    训练一个分类器 数据呢? 训练一个图像分类器 1. 加载并规范化 CIFAR10 2. 定义一个卷积神经网络 3. 定义一个损失函数和优化器 4. 训练网络 5. 在测试数据上测试网络 在 GPU 上训练 在多个GPU上进行训练 我下一步去哪里? 训练一个分类器 译者:@小王子 校对者:@李子文 就是这个, 你已经看...
  • 处理偏差和方差

    处理偏差和方差 处理偏差和方差 下面是处理偏差和方差问题最简单的形式: 如果具有较高的可避免偏差,那么加大模型的规模(例如通过添加层/神经元数量来增加神经网络的大小)。 如果具有较高的方差,那么增加训练集的数据量。 如果你可以加大神经网络的规模且无限制地增加训练集数据,那么许多机器学习问题都可以取得很好的效果。 实际上,不断加大网络的规模使你...
  • 5.5 深度学习

    5.5 深度学习 5.5 深度学习 理论上,参数越多,模型复杂度就越高,容量(capability)就越大,从而能完成更复杂的学习任务。深度学习(deep learning)正是一种极其复杂而强大的模型。 怎么增大模型复杂度呢?两个办法,一是增加隐层的数目,二是增加隐层神经元的数目。前者更有效一些,因为它不仅增加了功能神经元的数量,还增加了激活...
  • TransformerEncoderLayer

    TransformerEncoderLayer TransformerEncoderLayer class paddle.nn. TransformerEncoderLayer ( d_model, nhead, dim_feedforward, dropout=0.1, activation=’relu’, attn_dropout=None, a...
  • TransformerEncoderLayer

    TransformerEncoderLayer TransformerEncoderLayer class paddle.nn.TransformerEncoderLayer ( d_model, nhead, dim_feedforward, dropout=0.1, activation=’relu’, attn_dropout=None, a...
  • 二:博弈算法的前世今生

    从深蓝说起 博弈算法 围棋难题 卷积神经网络 从深蓝说起 从计算机问世后,博弈算法从来就没有停止过改进的步伐。最早打败人类顶级棋手的AI就是深蓝。以下内容摘自百度百科: 深蓝是美国IBM公司生产的一台超级国际象棋电脑,重1270公斤,有32个大脑(微处理器),每秒钟可以计算2亿步。”深蓝”输入了一百多年来优秀棋手的对局两百多万局。1997年 ...
  • Transformer

    Transformer Transformer class paddle.nn. Transformer ( d_model=512, nhead=8, num_encoder_layers=6, num_decoder_layers=6, dim_feedforward=2048, dropout=0.1, activation=’relu’, a...
  • AlexNet

    AlexNet AlexNet 通过上面的实际训练可以看到,虽然LeNet在手写数字识别数据集上取得了很好的结果,但在更大的数据集上表现却并不好。自从1998年LeNet问世以来,接下来十几年的时间里,神经网络并没有在计算机视觉领域取得很好的结果,反而一度被其它算法所超越,原因主要有两方面,一是神经网络的计算比较复杂,对当时计算机的算力来说,训练神经...
  • 反向传播算法是如何工作的

    反向传播算法是如何工作的 反向传播算法是如何工作的 在上一章中我们学习了神经网络是如何利用梯度下降算法来学习权重(weights)和偏置(biases)的。然而,在我们的解释中跳过了一个细节:我们没有讨论如何计算代价函数的梯度。这真是一个巨大的跳跃!在本章中我会介绍一个快速计算梯度的算法,就是广为人知的反向传播算法(backpropagation)。...
  • PyTorch 深度学习: 60 分钟极速入门

    PyTorch 深度学习: 60 分钟极速入门 PyTorch 深度学习: 60 分钟极速入门 作者 :Soumith Chintala 译者:bat67 、Foxerlee 校验:Foxerlee 此教程的目标: 在高层上理解 PyTorch 的 Tensor 库以及神经网络。 训练一个可用于分类图像的简单神经网络。 本教程...