分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.028
秒,为您找到
141449
个相关结果.
搜书籍
搜文档
第一章 使用神经网络识别手写数字
2703
2018-07-17
《神经网络与深度学习》
第一章 使用神经网络识别手写数字 第一章 使用神经网络识别手写数字 人类视觉系统是世界上众多奇迹之一。看看下面的手写数字序列: 大多数人毫不费力就能够认出这些数字为 504192. 这么容易反而让人觉着迷惑了。在人类的每个脑半球中,有着一个初级视觉皮层,常称为 V1,包含 1 亿 4 千万个神经元及数百亿条神经元间的连接。但是人类视觉不是就只有 V...
CART
2026
2021-04-11
《Deeplearning Algorithms Tutorial(深度学习算法教程)》
Deeplearning Algorithms tutorial CART 相关应用 优缺点 Deeplearning Algorithms tutorial 谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业已开始全面拥抱...
第六章 深度学习
4608
2018-07-17
《神经网络与深度学习》
第六章 深度学习 卷积网络简介 实践中的卷积神经网络 卷积网络的代码 问题 图像识别领域中的近期进展 其他的深度学习模型 神经网络的未来 第六章 深度学习 在上一章,我们学习了深度神经网络通常比浅层神经网络更加难以训练。我们有理由相信,若是可以训练深度网络,则能够获得比浅层网络更加强大的能力,但是现实很残酷。从上一章我们可以看到很多不利...
TransformerDecoderLayer
214
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
TransformerDecoderLayer TransformerDecoderLayer class paddle.nn. TransformerDecoderLayer ( d_model, nhead, dim_feedforward, dropout=0.1, activation=’relu’, attn_dropout=None, a...
TransformerDecoderLayer
691
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
TransformerDecoderLayer TransformerDecoderLayer class paddle.nn.TransformerDecoderLayer ( d_model, nhead, dim_feedforward, dropout=0.1, activation=’relu’, attn_dropout=None, a...
神经网络层
636
2020-05-04
《PaddlePaddle(飞桨) v1.6 深度学习平台使用文档》
神经网络层 神经网络层 卷积 池化 图像检测 序列 数学操作 激活函数 损失函数 数据输入输出 控制流 稀疏更新 使用DataFeeder传入训练/预测数据 学习率调度器 张量
神经网络层
500
2020-12-18
《百度飞桨 PaddlePaddle 1.8 深度学习平台教程》
神经网络层 神经网络层 卷积 池化 图像检测 序列 数学操作 激活函数 损失函数 数据输入输出 控制流 稀疏更新 使用DataFeeder传入训练/预测数据 学习率调度器 张量
处理偏差和方差
928
2020-03-15
《机器学习训练秘籍(Machine Learning Yearning 中文版)》
处理偏差和方差 处理偏差和方差 下面是处理偏差和方差问题最简单的形式: 如果具有较高的可避免偏差,那么加大模型的规模(例如通过添加层/神经元数量来增加神经网络的大小)。 如果具有较高的方差,那么增加训练集的数据量。 如果你可以加大神经网络的规模且无限制地增加训练集数据,那么许多机器学习问题都可以取得很好的效果。 实际上,不断加大网络的规模使你...
十五、自编码器
1849
2018-10-25
《Sklearn 与 TensorFlow 机器学习实用指南》
十五、自编码器 十五、自编码器 自编码器是能够在无监督的情况下学习输入数据的有效表示(叫做编码)的人工神经网络(即,训练集是未标记)。这些编码通常具有比输入数据低得多的维度,使得自编码器对降维有用(参见第 8 章)。更重要的是,自编码器可以作为强大的特征检测器,它们可以用于无监督的深度神经网络预训练(正如我们在第 11 章中讨论过的)。最后,他们能够...
1..
«
10
11
12
13
»
..100