分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.015
秒,为您找到
183946
个相关结果.
搜书籍
搜文档
景深
360
2023-04-02
《Blender 3.5 参考手册》
景深 景深 为了渲染一个场景,Eevee使用一个针孔相机模型,产生一个完美聚焦的场景图像。为了增强真实感,Eevee可以使用一个后处理过滤器和基于样本的方法来模拟光学 Depth of Field 。光学设置位于 camera settings 属性中。而效果的质量可以通过本节中的设置来控制。 Note 景深只在3D视图中的相机视图里工作。 后...
产品价值
1138
2021-01-06
《OceanBase v2.2.50 官方教程》
业务连续性 应用易用性 低成本 低风险 业务连续性 高可用 OceanBase 数据库的每个节点都可以作为全功能节点,将数据以多副本的方式分布在集群的各个节点,可以轻松实现多库多活,少数派节点出现故障对业务无感知。OceanBase 数据库的多副本技术能够满足从节点、机架、机房到城市级别的高可用、容灾要求,克服传统数据库的主备模式,在主节点...
通过梯度下降法学习参数
2770
2018-07-20
《神经网络与深度学习(完整版)》
通过梯度下降法学习参数 练习 通过梯度下降法学习参数 我们已经设计出了一个神经网络结构,现在面临的问题是,它应该如何学习识别数字呢?首先,我们需要一个待学习的数据集——即所谓的训练数据集。我们下面会使用MNIST数据集 ,其中包含了大量扫描得到的手写数字图像以及它们对应的数字。MNIST 数据集是由NIST (the United States' ...
9.3 Bagging与Random Forest
1734
2019-11-07
《周志华《机器学习》学习笔记》
9.3 Bagging与Random Forest 9.3.1 Bagging 9.3.2 随机森林 9.3 Bagging与Random Forest 相比之下,Bagging与随机森林算法就简洁了许多,上面已经提到产生“好而不同”的个体学习器是集成学习研究的核心,即在保证基学习器准确性的同时增加基学习器之间的多样性。而这两种算法的基本...
概述
15
2024-11-23
《Rainbond v6.0 Documentation》
了解 Rainbond 信创能力 信创功能 了解 Rainbond 信创能力 专门针对国产化信创场景推出的Rainbond “信创”版本,全面降低应用系统向信创环境中迁移的技术成本,助力信创应用零成本迁移上云。Rainbond 长期深耕国产化IT生态,与多家国产CPU架构完成兼容性认证,能够在不同的架构下快速部署运行。信创应用、遗留业务系统可以提供源...
Overview
262
2023-12-06
《Rainbond v5.16 Documentation》
了解 Rainbond 信创能力 信创功能 了解 Rainbond 信创能力 专门针对国产化信创场景推出的Rainbond “信创”版本,全面降低应用系统向信创环境中迁移的技术成本,助力信创应用零成本迁移上云。Rainbond 长期深耕国产化IT生态,与多家国产CPU架构完成兼容性认证,能够在不同的架构下快速部署运行。信创应用、遗留业务系统可以提供源...
概述
272
2023-12-05
《Rainbond v5.16 文档手册》
了解 Rainbond 信创能力 信创功能 了解 Rainbond 信创能力 专门针对国产化信创场景推出的Rainbond “信创”版本,全面降低应用系统向信创环境中迁移的技术成本,助力信创应用零成本迁移上云。Rainbond 长期深耕国产化IT生态,与多家国产CPU架构完成兼容性认证,能够在不同的架构下快速部署运行。信创应用、遗留业务系统可以提供源...
优化器
1391
2019-07-24
《PaddlePaddle v1.4(fluid) 深度学习平台》
优化器 1.SGD/SGDOptimizer 2.Momentum/MomentumOptimizer 3. Adagrad/AdagradOptimizer 4.RMSPropOptimizer 5.Adam/AdamOptimizer 6.Adamax/AdamaxOptimizer 7.DecayedAdagrad/ DecayedAdag...
优化器
910
2020-05-04
《PaddlePaddle(飞桨) v1.6 深度学习平台使用文档》
优化器 1.SGD/SGDOptimizer 2.Momentum/MomentumOptimizer 3. Adagrad/AdagradOptimizer 4.RMSPropOptimizer 5.Adam/AdamOptimizer 6.Adamax/AdamaxOptimizer 7.DecayedAdagrad/ DecayedAdag...
1..
«
23
24
25
26
»
..100