书栈网 · BookStack 本次搜索耗时 0.031 秒,为您找到 77706 个相关结果.
  • 在辅助任务上预训练

    在辅助任务上预训练 最后一种选择是在辅助任务上训练第一个神经网络,您可以轻松获取或生成标记的训练数据,然后重新使用该网络的较低层来完成您的实际任务。 第一个神经网络的较低层将学习可能被第二个神经网络重复使用的特征检测器。 例如,如果你想建立一个识别面孔的系统,你可能只有几个人的照片 - 显然不足以训练一个好的分类器。 收集每个人的数百张照片将是不实际的...
  • TransformerEncoderLayer

    TransformerEncoderLayer TransformerEncoderLayer class paddle.nn. TransformerEncoderLayer ( d_model, nhead, dim_feedforward, dropout=0.1, activation=’relu’, attn_dropout=None, a...
  • 情感分析

    情感分析 背景介绍 模型概览 文本卷积神经网络简介(CNN) 循环神经网络(RNN) 长短期记忆网络(LSTM) 栈式双向LSTM(Stacked Bidirectional LSTM) 数据集介绍 配置模型 文本卷积神经网络 栈式双向LSTM 训练模型 定义训练环境 定义数据提供器 构造训练器 提供数据并构建主训练循环 训练过程...
  • Transformer

    Transformer Transformer class paddle.nn. Transformer ( d_model=512, nhead=8, num_encoder_layers=6, num_decoder_layers=6, dim_feedforward=2048, dropout=0.1, activation=’relu’, a...
  • TransformerEncoderLayer

    TransformerEncoderLayer TransformerEncoderLayer class paddle.nn.TransformerEncoderLayer ( d_model, nhead, dim_feedforward, dropout=0.1, activation=’relu’, attn_dropout=None, a...
  • 反向传播背后的四个基本等式

    反向传播背后的四个基本等式 问题 反向传播背后的四个基本等式 反向传播(backpropagation)能够帮助解释网络的权重和偏置的改变是如何改变代价函数的。归根结底,它的意思是指计算偏导数\partial C / \partial w^l<em>{jk}和。但是为了计算这些偏导数,我们首先介绍一个中间量,,我们管它叫做层的神经元的错误量(err...
  • AdaBoost

    Deeplearning Algorithms tutorial AdaBoost 算法原理 相关应用 优点 Deeplearning Algorithms tutorial 谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹...
  • 二:博弈算法的前世今生

    从深蓝说起 博弈算法 围棋难题 卷积神经网络 从深蓝说起 从计算机问世后,博弈算法从来就没有停止过改进的步伐。最早打败人类顶级棋手的AI就是深蓝。以下内容摘自百度百科: 深蓝是美国IBM公司生产的一台超级国际象棋电脑,重1270公斤,有32个大脑(微处理器),每秒钟可以计算2亿步。”深蓝”输入了一百多年来优秀棋手的对局两百多万局。1997年 ...
  • 情感分析

    情感分析 背景介绍 说明: 模型概览 文本卷积神经网络简介(CNN) 循环神经网络(RNN) 长短期记忆网络(LSTM) 栈式双向LSTM(Stacked Bidirectional LSTM) 数据集介绍 配置模型 文本卷积神经网络 栈式双向LSTM 训练模型 定义训练环境 定义数据提供器 构造训练器 提供数据并构建主训练循环 ...
  • 数字识别

    数字识别 说明: 背景介绍 模型概览 Softmax回归(Softmax Regression) 多层感知机(Multilayer Perceptron, MLP) 卷积神经网络(Convolutional Neural Network, CNN) 卷积层 池化层 常见激活函数介绍 数据介绍 Fluid API 概述 配置说明 Pro...